JP6094844B1 - Sound reproduction apparatus, sound reproduction method, and program - Google Patents
Sound reproduction apparatus, sound reproduction method, and program Download PDFInfo
- Publication number
- JP6094844B1 JP6094844B1 JP2016049210A JP2016049210A JP6094844B1 JP 6094844 B1 JP6094844 B1 JP 6094844B1 JP 2016049210 A JP2016049210 A JP 2016049210A JP 2016049210 A JP2016049210 A JP 2016049210A JP 6094844 B1 JP6094844 B1 JP 6094844B1
- Authority
- JP
- Japan
- Prior art keywords
- sound
- otoacoustic emission
- data
- processing means
- audio data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012545 processing Methods 0.000 claims abstract description 172
- 230000000694 effects Effects 0.000 claims abstract description 56
- 230000000763 evoking effect Effects 0.000 claims abstract description 28
- 230000005540 biological transmission Effects 0.000 claims abstract description 26
- 238000012546 transfer Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims description 33
- 230000005236 sound signal Effects 0.000 claims description 27
- 230000002269 spontaneous effect Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 24
- 238000005070 sampling Methods 0.000 claims description 15
- 230000004800 psychological effect Effects 0.000 claims description 3
- 210000003128 head Anatomy 0.000 description 36
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000009467 reduction Effects 0.000 description 7
- 230000004807 localization Effects 0.000 description 6
- 230000005855 radiation Effects 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000003477 cochlea Anatomy 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 101100259947 Homo sapiens TBATA gene Proteins 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000037452 priming Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000013707 sensory perception of sound Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
【課題】耳音響放射の原理を用いて臨場感を高めた立体音響を再生する音響再生装置、音響再生方法及びプログラムを提供する。【解決手段】音響再生装置1は、入力された音声データに対し、誘発耳音響放射と歪成分耳音響放射の効果を付加する第1耳音響放射処理部2e、処理後の音声データについて予め定められた頭部伝達関数に基づきユーザの頭部までの音声の伝達遅延を調整する頭部伝達調整処理部2fとを備える。これら処理後の音声データを音声信号に変換して臨場感のある立体音響として出力する。【選択図】図1A sound reproducing device, a sound reproducing method, and a program for reproducing a three-dimensional sound with enhanced realism using the principle of otoacoustic emission are provided. A sound reproduction apparatus includes: a first otoacoustic emission processing unit that adds an effect of evoked otoacoustic emission and distortion component otoacoustic emission to input audio data; and predetermined audio data after processing. A head transmission adjustment processing unit 2f that adjusts the transmission delay of the sound to the user's head based on the obtained head-related transfer function. The processed voice data is converted into a voice signal and output as a stereoscopic sound with a sense of presence. [Selection] Figure 1
Description
本発明は、臨場感のある音響を再生する装置等に係り、特に耳音響放射の原理を用いて臨場感を高めた音響再生装置、音響再生方法、及びプログラムに関する。 The present invention relates to a device that reproduces sound with a sense of presence, and more particularly to a sound reproduction device, a sound reproduction method, and a program that enhance the sense of presence using the principle of otoacoustic emission.
従来、音響を再生する装置等においては、より臨場感を高めた音響再生が求められており、音源信号に頭部伝達関数(HRTF;Head-Related Transfer Function)畳み込んだバイノーラル信号によって立体音響を再生することもなされている。 Conventionally, a device that reproduces sound has been demanded to reproduce sound with a higher sense of presence, and stereophonic sound is generated by a binaural signal convoluted with a head-related transfer function (HRTF) in a sound source signal. It has also been played.
また、昨今では、スクリーンの両側に置かれたスピーカによって再生する音声信号をヘッドホンやヘッドマウンテッドディスプレイ(HMD;Head Mounted Display)より再生するときに、映像の方向と音像の定位位置とが一致しないことが課題とされており、それを解決するための種々の提案がなされている。 Also, in recent years, when the audio signal played back by the speakers placed on both sides of the screen is played back through headphones or a head mounted display (HMD), the direction of the image does not match the localization position of the sound image. However, various proposals have been made to solve the problem.
例えば、特許文献1では、イヤホンにジャイロセンサを設けてユーザの頭部の回転を検出し、加速度センサを設けてジャイロセンサの傾きを検出し、音像定位補正部によりジャイロセンサの検出出力を加速度センサの検出出力で補正することで音像定位処理を実施して音像の定位位置が一定となるようにした音声処理装置が開示されている。 For example, in Patent Document 1, a gyro sensor is provided in an earphone to detect the rotation of the user's head, an acceleration sensor is provided to detect the inclination of the gyro sensor, and a detection output of the gyro sensor is detected by a sound image localization correction unit. A sound processing apparatus is disclosed in which the sound image localization process is performed by correcting the detected position of the sound image so that the localization position of the sound image is constant.
しかしながら、特許文献1に開示されたものでは、音像定位処理により音像の定位位置を調整しているにすぎず、臨場感を高めるために耳音響放射の原理を取り入れるとの技術的思想は開示も示唆もされていなかった。 However, the technique disclosed in Patent Document 1 merely adjusts the localization position of the sound image by sound image localization processing, and the technical idea of incorporating the principle of otoacoustic emission to enhance the sense of reality is also disclosed. There was no suggestion.
ここで、耳音響放射には、「誘発耳音響放射」、「自発耳音響放射」及び「歪成分耳音響放射」がある。誘発耳音響放射(TEOAE:Transiently Evoked otoacoustic Emission)とは、クリック音を用いた刺激に対し10ms前後の遅れをもって信号が検出される音響反応をいう。自発耳音響放射(SOAE;Spontaneous Otoacoustic Emission)とは、外部からの刺激音なしに、蝸牛より自発的に放射される信号が検出される音響反応をいう。そして、歪成分耳音響放射(DPOAE;Distortion Product Otoacoustic Emission)とは、2つの異なる周波数信号(f1,f2,f1<f2)を蝸牛に入力することでnf1±mf2(n,mは整数)の周波数の信号が検出される音響反応をいう。 Here, the otoacoustic emission includes “evoked otoacoustic emission”, “spontaneous otoacoustic emission”, and “distortion component otoacoustic emission”. Evoked otoacoustic emission (TEOAE) refers to an acoustic response in which a signal is detected with a delay of about 10 ms with respect to a stimulus using a click sound. Spontaneous Otoacoustic Emission (SOAE) refers to an acoustic reaction in which a signal emitted spontaneously from a cochlea is detected without external stimulating sound. Distortion Product Otoacoustic Emission (DPOAE) means that nf1 ± mf2 (n and m are integers) by inputting two different frequency signals (f1, f2, f1 <f2) to the cochlea. An acoustic reaction in which a frequency signal is detected.
しかるに、このような耳音響放射のメカニズムを、例えばHMD等での音響再生において、より臨場感を高めるために活用する技術は、従来存在しなかった。 However, there has been no technology that uses such an otoacoustic emission mechanism to enhance the sense of reality in sound reproduction using, for example, an HMD.
本発明は、このような課題に鑑みてなされたものであり、耳音響放射の原理を用いて臨場感を高めた立体音響を再生する音響再生装置、音響再生方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of such a problem, and provides an audio reproducing device, an audio reproducing method, and a program for reproducing stereoscopic sound with enhanced presence using the principle of otoacoustic emission. Objective.
上記課題を解決するため、本発明の第1の態様に係る音響再生装置は、実対象までの距離を測定し距離データを得る距離センサと、入力された音声データに対して、誘発耳音響放射と歪成分耳音響放射の効果を付加する第1耳音響放射処理手段と、前記第1耳音響放射処理手段による処理後の音声データを音声信号に変換して出力する音声出力手段と、を備え、前記第1耳音響放射処理手段は、前記音声データの所定の周波数帯の音量を前記距離データに基づいて調整する周波数調整処理手段と、前記音声データの音圧を前記距離データに基づいて調整する音圧調整手段と、前記音声データの振幅を調整し音量の低下分を補償増幅する振幅調整処理手段と、前記音声データに10msの遅延効果を付加する遅延調整処理手段と、を有する。 In order to solve the above-described problem, a sound reproduction device according to the first aspect of the present invention includes a distance sensor that measures distance to an actual object and obtains distance data, and evoked otoacoustic emission with respect to input audio data. provided with a first otoacoustic emissions processing means for adding the effect of the distortion product otoacoustic emission, and a sound output unit for converting the audio signal to audio data processed by the first otoacoustic emission processing means The first otoacoustic emission processing means adjusts the volume of a predetermined frequency band of the audio data based on the distance data, and adjusts the sound pressure of the audio data based on the distance data. Sound pressure adjusting means, amplitude adjusting processing means for adjusting and amplifying the volume of the audio data to compensate for the decrease in volume, and delay adjusting processing means for adding a 10 ms delay effect to the audio data.
本発明の第2の態様に係る音響再生装置は、第1の態様において、前記第1耳音響放射処理手段による処理後の音声データについて、予め定められた頭部伝達関数に基づいて、ユーザの頭部までの音声の伝達遅延を調整する頭部伝達調整処理手段を更に備え、前記音声出力手段は、前記頭部伝達調整処理手段による処理後の音声データを音声信号に変換して出力する。 The sound reproducing device according to a second aspect of the present invention is the sound reproducing device according to the first aspect, wherein the sound data after the processing by the first otoacoustic emission processing unit is performed based on a predetermined head related transfer function. Head transmission adjustment processing means for adjusting the transmission delay of the sound to the head is further provided, and the sound output means converts the sound data processed by the head transmission adjustment processing means into a sound signal and outputs the sound signal.
本発明の第3の態様に係る音響再生装置は、第1の態様において、前記第1耳音響放射処理手段による処理後の音声データについて、自発耳音響放射の効果を更に付加する第2耳音響放射処理手段を更に備え、前記第2耳音響放射処理手段は、自発耳音響放射の効果を音声データに付加する自発耳音響放射処理手段と、ユーザの潜在記憶を基に、サンプリング音を付加する潜在記憶音付加処理手段と、を有し、前記音声出力手段は、前記第2耳音響放射処理手段による処理後の音声データを音声信号に変換して出力する。 The sound reproduction apparatus according to a third aspect of the present invention is the sound reproduction apparatus according to the first aspect, wherein the second otoacoustic further adds the effect of the spontaneous otoacoustic emission to the audio data processed by the first otoacoustic emission processing means. The second otoacoustic radiation processing means further includes a otoacoustic radiation processing means for adding the effect of the spontaneous otoacoustic radiation to the audio data, and a sampling sound based on the user's latent memory. Latent sound addition processing means, and the sound output means converts the sound data processed by the second otoacoustic emission processing means into a sound signal and outputs the sound signal.
本発明の第4の態様に係る音響再生装置は、第1乃至第3の態様において、前記第1耳音響放射処理手段は、心拍データに基づいて所定の周波数帯の音量を調整することで、心理的作用を高める。 According to a fourth aspect of the present invention, in the first to third aspects, the first otoacoustic emission processing means adjusts the volume of a predetermined frequency band based on heartbeat data, Increase psychological effects.
本発明の第5の態様に係る音響再生方法は、実対象までの距離を測定し距離データを得る第1のステップと、音声データの入力を受ける第2のステップと、入力された音声データに対して、誘発耳音響放射と歪成分耳音響放射の効果を付加する第1耳音響放射処理を行う第3のステップと、前記第1耳音響放射処理がなされた音声データを音声信号に変換して出力する第4のステップと、を有し、前記第3のステップでは、前記音声データの所定の周波数帯の音量を前記距離データに基づいて調整し、前記音声データの音圧を前記距離データに基づいて調整し、前記音声データの振幅を調整し音量の低下分を補償増幅し、前記音声データに10msの遅延効果を付加する。 The sound reproduction method according to the fifth aspect of the present invention includes a first step of measuring distance to an actual object to obtain distance data, a second step of receiving input of audio data, and input audio data On the other hand, a third step of performing a first otoacoustic emission process for adding the effects of evoked otoacoustic emission and distortion component otoacoustic emission, and converting the audio data subjected to the first otoacoustic emission process into an audio signal. And a fourth step of outputting the sound data, wherein in the third step, the sound volume of the sound data is adjusted based on the distance data, and the sound pressure of the sound data is adjusted to the distance data. And adjusting the amplitude of the audio data to compensate and amplify the decrease in volume, and add a 10 ms delay effect to the audio data.
本発明の第6の態様に係る音響再生方法は、第5の態様において、前記第3のステップにおける第1耳音響放射処理後の音声データについて、予め定められた頭部伝達関数に基づいて、ユーザの頭部までの音声の伝達遅延を調整する頭部伝達調整処理を行う第5のステップを更に備え、前記第4のステップでは、前記第5のステップにおける頭部伝達調整処理後の音声データを音声信号に変換して出力する。 The sound reproduction method according to a sixth aspect of the present invention is the sound reproduction method according to the fifth aspect, based on a predetermined head related transfer function for the sound data after the first otoacoustic emission process in the third step. The method further includes a fifth step of performing a head transmission adjustment process for adjusting a transmission delay of the voice to the user's head, and in the fourth step, the voice data after the head transmission adjustment process in the fifth step Is converted into an audio signal and output.
本発明の第7の態様に係る音響再生方法は、第6の態様において、前記第3のステップにおける第1耳音響放射処理後の音声データについて、自発耳音響放射の効果を更に付加する第2耳音響放射処理を行う第6のステップを更に備え、前記第6のステップでは、自発耳音響放射の効果を音声データに付加し、ユーザの潜在記憶を基にサンプリング音を付加し、前記第4のステップでは、前記第6のステップにおける前記第2耳音響放射処理後の音声データを音声信号に変換して出力する。 The sound reproduction method according to a seventh aspect of the present invention is the sound reproduction method according to the sixth aspect, in which the effect of the spontaneous otoacoustic emission is further added to the audio data after the first otoacoustic emission process in the third step. A sixth step of performing an otoacoustic emission process is further included. In the sixth step, the effect of the spontaneous otoacoustic emission is added to the audio data, a sampling sound is added based on the user's latent memory, and the fourth step is performed. In this step, the audio data after the second otoacoustic emission processing in the sixth step is converted into an audio signal and output.
本発明の第8の態様に係るプログラムでは、コンピュータを、入力された音声データに対して、誘発耳音響放射と歪成分耳音響放射の効果を付加する第1耳音響放射処理手段、及び前記第1耳音響放射処理手段による処理がなされた音声データを音声信号に変換して出力する音声出力手段として機能させ、前記第1耳音響放射処理手段は、更に、前記音声データの所定の周波数帯の音量を、実対象までの距離を測定して得られた距離データに基づいて調整する周波数調整処理手段と、前記音声データの音圧を前記距離データに基づいて調整する音圧調整手段と、前記音声データの振幅を調整し音量の低下分を補償増幅する振幅調整処理手段と、前記音声データに10msの遅延効果を付加する遅延調整処理手段と、して機能する。
本発明の第9の態様に係るプログラムでは、第8の態様において、前記第1耳音響放射処理手段による処理後の音声データについて、予め定められた頭部伝達関数に基づいて、ユーザの頭部までの音声の伝達遅延を調整する頭部伝達調整処理手段としても機能し、前記音声出力手段は、前記頭部伝達調整処理手段による処理後の音声データを音声信号に変換して出力する。
本発明の第10の態様に係るプログラムでは、第9の態様において、前記第1耳音響放射処理手段による処理後の音声データについて、自発耳音響放射の効果を更に付加する第2耳音響放射処理手段として機能し、前記第2耳音響放射処理手段は、更に自発耳音響放射の効果を音声データに付加する自発耳音響放射処理手段と、ユーザの潜在記憶を基に、サンプリング音を付加する潜在記憶音付加処理手段として機能し、前記音声出力手段は、前記第2耳音響放射処理手段による処理後の音声データを音声信号に変換して出力する。
In the program according to the eighth aspect of the present invention, a first otoacoustic emission processing means for adding an effect of evoked otoacoustic emission and distortion component otoacoustic emission to input audio data, and the first The sound data that has been processed by the single ear sound radiation processing means is made to function as sound output means that converts the sound data into a sound signal and outputs the sound signal, and the first ear sound radiation processing means further has a predetermined frequency band of the sound data. Frequency adjustment processing means for adjusting the volume based on distance data obtained by measuring the distance to the actual object , sound pressure adjusting means for adjusting the sound pressure of the audio data based on the distance data, It functions as amplitude adjustment processing means for adjusting the amplitude of the audio data to compensate and amplify the decrease in volume, and delay adjustment processing means for adding a 10 ms delay effect to the audio data.
In the program according to the ninth aspect of the present invention, in the eighth aspect, the sound data after processing by the first otoacoustic emission processing means is performed on the user's head based on a predetermined head-related transfer function. It also functions as head transmission adjustment processing means for adjusting the transmission delay of the voice until the voice output means converts the voice data processed by the head transmission adjustment processing means into a voice signal and outputs it.
In the program according to the tenth aspect of the present invention, in the ninth aspect, the second otoacoustic emission process further adds the effect of the spontaneous otoacoustic emission to the audio data processed by the first otoacoustic emission processing means. The second otoacoustic emission processing means further includes a spontaneous otoacoustic emission processing means for adding the effect of the spontaneous otoacoustic emission to the audio data, and a potential for adding the sampling sound based on the latent memory of the user. The sound output means functions as memory sound addition processing means, and converts the sound data processed by the second otoacoustic emission processing means into a sound signal and outputs the sound signal.
本発明によれば、耳音響放射の原理を用いて臨場感を高めた立体音響を再生する音響再生装置、音響再生方法、及びプログラムを提供することができる。 According to the present invention, it is possible to provide a sound reproducing device, a sound reproducing method, and a program for reproducing three-dimensional sound with enhanced presence using the principle of otoacoustic emission.
以下、図面を参照しつつ本発明の実施形態について説明する。本発明の実施形態に係る音響再生装置は、例えばヘッドマウンテッドディスプレイ(HMD;Head Mounted Display)やヘッドホン等に用いられ、立体音響を再生するものである。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The sound reproducing device according to the embodiment of the present invention is used for, for example, a head mounted display (HMD), a headphone, etc., and reproduces three-dimensional sound.
(第1実施形態) (First embodiment)
図1には本発明の第1実施形態に係る音響再生装置の構成を示し説明する。 FIG. 1 shows and describes the configuration of a sound reproduction device according to the first embodiment of the present invention.
同図に示されるように、音響再生装置1は、コンピュータで構成されており、CPU(Central Processing Unit)等からなる制御部2を備えている。制御部2には、音源信号を出力する音源3が、A/D変換器4を介して、又は直接的に接続されている。音源信号がアナログ信号である場合にはA/D変換器4にてディジタル信号に変換された後に制御部2に入力され、ディジタル信号である場合には直接的に制御部2に入力される。 As shown in the figure, the sound reproduction device 1 is configured by a computer and includes a control unit 2 including a CPU (Central Processing Unit) and the like. A sound source 3 that outputs a sound source signal is connected to the control unit 2 via an A / D converter 4 or directly. When the sound source signal is an analog signal, it is converted into a digital signal by the A / D converter 4 and then input to the control unit 2. When the sound source signal is a digital signal, it is directly input to the control unit 2.
音源3は、左右のステレオサウンドに係る音声信号を出力するものであり、コンピュータ内に設けられた記憶媒体(HDD、RAMなど)、または外部記憶媒体(光学ディスク、USBメモリなど)であってもよく、インターネット等の通信環境を介して取得される音源であってもよいことは勿論である。 The sound source 3 outputs audio signals related to the left and right stereo sound, and may be a storage medium (HDD, RAM, etc.) provided in the computer or an external storage medium (optical disk, USB memory, etc.). Of course, the sound source may be acquired via a communication environment such as the Internet.
制御部2には、さらに加速度センサ5がA/D変換器6を介して接続され、ジャイロセンサ7がA/D変換器8を介して接続され、距離センサ9がA/D変換器10を介して接続され、地磁気センサ16がA/D変換器17を介して接続されている。制御部2には心拍センサ18も接続されている。制御部2には、キーボードやマウス等の入力デバイスからなる入力部11が接続されている。さらに、制御部2には、記憶部15が接続されている。記憶部15は、制御部2にて実行されるプログラム19を記憶しており、頭部伝達関数に関するデータベース(以下、DB)15aも論理的に構築されている。 Further, the acceleration sensor 5 is connected to the control unit 2 via the A / D converter 6, the gyro sensor 7 is connected via the A / D converter 8, and the distance sensor 9 connects the A / D converter 10. The geomagnetic sensor 16 is connected via an A / D converter 17. A heart rate sensor 18 is also connected to the control unit 2. The control unit 2 is connected to an input unit 11 including an input device such as a keyboard and a mouse. Furthermore, a storage unit 15 is connected to the control unit 2. The storage unit 15 stores a program 19 executed by the control unit 2, and a database (hereinafter referred to as DB) 15a relating to a head related transfer function is also logically constructed.
そして、制御部2は、記憶部15のプログラム19を読み出し実行することで、主制御部2a、ノイズ低減処理部(ノイズリダクション)2b、残響音無効化処理部(リバーブリダクション)2c、周波数平均化処理部(グラフィックイコライザ)2d、第1耳音響放射処理部2e、頭部伝達調整処理部2f、残響音調整処理部(リバーブ)2g、及び第2耳音響放射処理部2gとして機能する。 Then, the control unit 2 reads and executes the program 19 in the storage unit 15 to thereby execute a main control unit 2a, a noise reduction processing unit (noise reduction) 2b, a reverberant sound invalidation processing unit (reverb reduction) 2c, and frequency averaging. It functions as a processing unit (graphic equalizer) 2d, a first otoacoustic emission processing unit 2e, a head-related transmission adjustment processing unit 2f, a reverberation adjustment processing unit (reverb) 2g, and a second otoacoustic emission processing unit 2g.
制御部2の出力は、D/A変換器12を介して音声出力部14Lに接続され、D/A変換器13を介して音声出力部14Rに接続されている。 The output of the control unit 2 is connected to the audio output unit 14L via the D / A converter 12, and is connected to the audio output unit 14R via the D / A converter 13.
このような構成において、加速度センサ5は、例えばHMDやヘッドホンに搭載されており、ユーザの頭部の360度の加速度を検出し、加速度信号をA/D変換器6にてディジタルの加速度データに変換した後、制御部2に入力する。制御部2では、主制御部2aが加速度データに基づいて頭部の移動方向と移動量を演算する。 In such a configuration, the acceleration sensor 5 is mounted on, for example, an HMD or a headphone, detects 360-degree acceleration of the user's head, and converts the acceleration signal into digital acceleration data by the A / D converter 6. After conversion, the data is input to the control unit 2. In the control unit 2, the main control unit 2a calculates the moving direction and moving amount of the head based on the acceleration data.
ジャイロセンサ7は、例えばHMDやヘッドホンに搭載されており、ユーザの頭部の縦軸方向、及び横軸方向まわりの回転角度を検出し、角速度信号をA/D変換器8にてディジタルの加速度データに変換した後、制御部2に入力する。制御部2では、主制御部2aが角速度データに基づいて頭部の回転角度を演算する。加速度センサ5とジャイロセンサ7は、ユーザの頭部の回転を検出するものとして、選択的に用いることができ、いずれか一方を実装していればよい。 The gyro sensor 7 is mounted on, for example, an HMD or headphones, detects the rotation angle of the user's head in the vertical and horizontal directions, and converts the angular velocity signal into digital acceleration by the A / D converter 8. After conversion to data, the data is input to the control unit 2. In the control unit 2, the main control unit 2a calculates the rotation angle of the head based on the angular velocity data. The acceleration sensor 5 and the gyro sensor 7 can be selectively used to detect rotation of the user's head, and any one of them may be mounted.
距離センサ9は、実対象までの距離を計測するものであり、センサ信号はA/D変換器10で距離データに変換された後、制御部2に入力される。距離データは、臨場感を高めるために後述する各種処理において用いられる。距離センサ9としては、赤外線センサ、超音波センサ、測距センサ、レーザー、又は音波センサなど、各種のものを用いることができる。距離センサ9を備えない場合には、入力部11よりデータ入力するようにしてもよいことは勿論である。ここで、実対象とは、音声等を発生する主体であり、例えばコンサート会場であれば、ステージ上のミュージシャンが実対象となる。 The distance sensor 9 measures the distance to the actual object, and the sensor signal is converted into distance data by the A / D converter 10 and then input to the control unit 2. The distance data is used in various processes to be described later in order to enhance the sense of reality. Various sensors such as an infrared sensor, an ultrasonic sensor, a distance measuring sensor, a laser, or a sound wave sensor can be used as the distance sensor 9. Of course, when the distance sensor 9 is not provided, data may be input from the input unit 11. Here, the actual object is a main body that generates sound or the like. For example, in the case of a concert venue, the musician on the stage is the actual object.
地磁気センサ16は、方位データを出力するものであり、A/D変換器17を介して出力された方位データは制御部2に入力される。方位データは、ユーザの頭部の移動の方位を認識するために用いられる。地磁気センサ16を前述したジャイロセンサ7と併用することで、3軸での方位と角速度を求めることができる。 The geomagnetic sensor 16 outputs azimuth data, and the azimuth data output via the A / D converter 17 is input to the control unit 2. The direction data is used for recognizing the direction of movement of the user's head. By using the geomagnetic sensor 16 in combination with the above-described gyro sensor 7, the azimuth and angular velocity in three axes can be obtained.
心拍センサ18は、ユーザの心拍数に係る心拍データを出力するものであり、出力された心拍データは制御部2に入力される。 The heart rate sensor 18 outputs heart rate data related to the user's heart rate, and the output heart rate data is input to the control unit 2.
入力部11は、各種設定データを入力するものである。設定データとしては、アンビエンスデータを入力することができる。アンビエンスデータとは、どのくらいの残響音を付加するかを決定するためのデータであり、空間の広さ等に応じてプリセットデータを選択的に入力するようにしてもよい。また、プリセットデータに対して、ユーザが微調整できるようにしてもよい。また、入力部11より、距離データを入力してもよい。前述した各センサ出力、及び入力部11の入力データに基づいて、左右のステレオサウンドを後述するように処理することで、立体音響が生成される。 The input unit 11 inputs various setting data. Ambience data can be input as setting data. The ambience data is data for determining how much reverberation sound is added, and preset data may be selectively input according to the size of the space. The preset data may be finely adjusted by the user. Further, distance data may be input from the input unit 11. Based on each sensor output mentioned above and the input data of the input part 11, a stereophonic sound is produced | generated by processing left and right stereo sound so that it may mention later.
制御部2において各部は以下のように作用する。ノイズ低減処理部2bは、入力されたステレオサウンドに係る音声データに対してノイズ低減処理を行う。そして、残響音無効化処理部2cは、ステレオサウンドに係る音声データに残響音の要素がある場合には無効化する。周波数平均化処理部2dは、音声データの周波数特性を変更し、全体的な音質の平均化を行う。つまり、音声データにおいて、突出している部分は下げ、少ないものについては上げて、全体的にサウンドの周波数を平均化する。これは、周波数別の音圧の平均化を意味する。 In the control unit 2, each unit operates as follows. The noise reduction processing unit 2b performs noise reduction processing on the audio data related to the input stereo sound. The reverberant sound invalidation processing unit 2c invalidates the sound data related to the stereo sound when there is an element of the reverberant sound. The frequency averaging processing unit 2d changes the frequency characteristics of the audio data and averages the overall sound quality. That is, in the audio data, the protruding portions are lowered, and the few are raised, and the overall sound frequency is averaged. This means averaging of sound pressure by frequency.
続いて、第1耳音響放射処理部2eは、誘発耳音響放射(TEOAE)と歪成分耳音響放射(DPOAE)の効果をステレオサウンドに係る音声データに付加する。 Subsequently, the first otoacoustic emission processing unit 2e adds the effects of evoked otoacoustic emission (TEOAE) and distortion component otoacoustic emission (DPOAE) to audio data related to stereo sound.
第1耳音響放射処理部2eは、より具体的には、図2に示されるように、周波数調整処理部(パラメトリックイコライザ)20、音圧調整処理部(コンプレッサー)21、振幅調整処理部(アンプ)22、及び遅延調整処理部(ディレイ)23からなる。 More specifically, as shown in FIG. 2, the first otoacoustic emission processing unit 2e includes a frequency adjustment processing unit (parametric equalizer) 20, a sound pressure adjustment processing unit (compressor) 21, an amplitude adjustment processing unit (amplifier). ) 22 and a delay adjustment processing unit (delay) 23.
第1耳音響放射処理部2eにおいて、周波数調整処理部20は、ステレオサウンドに係る音声データの所定の周波数帯(5.28Hzから20KHz)の音量を距離データに基づいて調整する。これは、誘発耳音響放射の効果を付加するもので、距離データに基づいて、距離が近づくにつれて音量が大きくなるような処理を施す。 In the first otoacoustic emission processing unit 2e, the frequency adjustment processing unit 20 adjusts the volume of a predetermined frequency band (5.28 Hz to 20 KHz) of audio data related to stereo sound based on the distance data. This is to add the effect of evoked otoacoustic emission, and based on the distance data, processing is performed so that the volume increases as the distance approaches.
音圧調整部21は、距離データに基づいて、ステレオサウンドに係る音声データの音圧を調整する。例えば、音量が閾値を超える場合には、超過した音量を設定した圧縮比で抑え、設定時間内にリリースすることで、変化している音量の最大値を低下させる。これにより、最大音量と最小音量のダイナミックレンジが圧縮される。これは、誘発耳音響放射の効果を付加するもので、音圧調整部21は、距離データに基づいて、距離が遠いほど音圧を低く、距離が近いほど音圧を高くする。 The sound pressure adjusting unit 21 adjusts the sound pressure of the sound data related to the stereo sound based on the distance data. For example, when the volume exceeds the threshold, the maximum volume of the volume that has changed is reduced by suppressing the excess volume with the set compression ratio and releasing it within the set time. Thereby, the dynamic range of the maximum volume and the minimum volume is compressed. This adds an effect of evoked otoacoustic emission, and the sound pressure adjusting unit 21 lowers the sound pressure as the distance is longer and increases the sound pressure as the distance is closer based on the distance data.
振幅調整処理部22は、距離データに基づいて、例えば、この例では、10dBから20dBの振幅を調整する。これは、音圧調整により、音量が全体的に低下するため、低下分を補償増幅することを意味する。これは、誘発耳音響放射、歪成分耳音響放射の双方の効果を付加することを意味する。尚、振幅調整処理部22は、任意的な構成である。 For example, in this example, the amplitude adjustment processing unit 22 adjusts the amplitude from 10 dB to 20 dB based on the distance data. This means that the volume is reduced as a whole by the sound pressure adjustment, so that the reduced amount is compensated and amplified. This means adding the effects of both evoked otoacoustic emission and distortion component otoacoustic emission. The amplitude adjustment processing unit 22 has an arbitrary configuration.
遅延調整処理部23は、ステレオサウンドに係る音声データに10msの遅延効果を付加する。前述したように、誘発耳音響放射とは、入力された音声の刺激に対して10ms前後の遅れをもって信号が検出される音響反応をいうが、そのような効果を擬似的に実現することを意味する。 The delay adjustment processing unit 23 adds a 10 ms delay effect to audio data related to stereo sound. As described above, evoked otoacoustic emission is an acoustic reaction in which a signal is detected with a delay of about 10 ms with respect to an input voice stimulus, and means that such an effect is realized in a pseudo manner. To do.
図1に戻り、続いて、頭部伝達調整処理部2fは、頭部伝達関数に基づいて、頭部までのサウンドの伝達遅延を調整する。ここで、頭部伝達関数(HRTF;Head-Related Transfer Function)とは、耳殻、人頭及び肩まで含めた周辺物により生じる音の変化を伝達関数として表現したものをいう。この例では、右耳用(R)と左耳用(L)の組を記憶部15のDB15aにてテーブル形式で保持している。右耳用と左耳用を別にしているのは、頭の位置により音声到達時間が左右で異なるからである。頭部伝達調整処理部2fは、テーブルを参照して、耳介の深さに対応する頭部伝達関数に基づくフィルタリングにより音声データを畳み込み演算することで適応化を図る。 Returning to FIG. 1, subsequently, the head-related transmission adjustment processing unit 2f adjusts the transmission delay of the sound to the head based on the head-related transfer function. Here, the head-related transfer function (HRTF) represents a change in sound caused by peripheral objects including the ear shell, the human head and the shoulder as a transfer function. In this example, the right ear (R) and left ear (L) pairs are held in a table format in the DB 15a of the storage unit 15. The reason why the right ear and the left ear are separated from each other is that the sound arrival time differs depending on the head position. The head-related adjustment processing unit 2f performs adaptation by referring to the table and performing convolution calculation on the audio data by filtering based on the head-related transfer function corresponding to the depth of the auricle.
残響音調整処理部2gは、音声データにプリセットで指定された空間に好適な残響音を付加する。これは、例えば空間における境界からの跳ね返りの音等を音声データに反映するものであり、空間の広さによって、付加する残響音の大きさは異なる。また、左右の音声データの時間差が小さいほど、大きな空間を想定した残響音を付加する。 The reverberant adjustment processing unit 2g adds a reverberant sound suitable for the space designated by the preset to the audio data. This reflects, for example, bounce sound from the boundary in the space in the audio data, and the magnitude of the reverberant sound to be added differs depending on the size of the space. In addition, as the time difference between the left and right audio data is smaller, a reverberant sound that assumes a larger space is added.
第2耳音響放射処理部2hは、自発耳音響放射(S0AE)の効果を音声データに付加する。音声データの1KHzから2KHzの周波数帯域にサンプリング音またはカラードノイズを付加する。どのようなサンプリング音、カラードノイズを付加するかは、プリセットの段階で選択できるようにしてよい。 The second otoacoustic emission processing unit 2h adds the effect of spontaneous otoacoustic emission (S0AE) to the audio data. Sampling sound or colored noise is added to the frequency band of 1 KHz to 2 KHz of the audio data. What kind of sampling sound and colored noise are added may be selected at a preset stage.
以上の処理で生成された立体音響に係る音声データは、右耳用はD/A変換器12を介してアナログ信号に変換された後、音声出力部14Rから出力され、左耳用はD/A変換器13を介してアナログ信号に変換された後、音声出力部14Lから出力される。こうして立体音響に係る音声が再生される。 The audio data relating to the stereophonic sound generated by the above processing is converted to an analog signal via the D / A converter 12 for the right ear and then output from the audio output unit 14R, and the audio data for the left ear is D / After being converted to an analog signal via the A converter 13, it is output from the audio output unit 14L. In this way, sound related to stereophonic sound is reproduced.
以下、図3のフローチャートを参照して、第1実施形態に係る音響再生装置による音響再生の処理手順を説明する。この手順は、音響再生方法にも相当する。 Hereinafter, with reference to the flowchart of FIG. 3, a sound reproduction processing procedure performed by the sound reproduction device according to the first embodiment will be described. This procedure also corresponds to a sound reproduction method.
音源3からのステレオサウンドに係る音声信号がD/A変換器4にて音声データに変換され入力され、入力部11から各種設定情報が入力されると(S1)、ノイズ低減処理部2bは、入力されたステレオサウンドに係る音声データに対してノイズ低減処理を行う(S2)。そして、残響音無効化処理部2cは、ステレオサウンドに係る音声データに残響音の要素がある場合には無効化する(S3)。続いて、周波数平均化処理部2dは、音声データの周波数特性を変更し、全体的な音質の平均化を行う(S4)。 When the audio signal related to the stereo sound from the sound source 3 is converted into audio data by the D / A converter 4 and inputted, and various setting information is inputted from the input unit 11 (S1), the noise reduction processing unit 2b Noise reduction processing is performed on the audio data related to the input stereo sound (S2). Then, the reverberant sound invalidation processing unit 2c invalidates the sound data related to the stereo sound when there is an element of the reverberant sound (S3). Subsequently, the frequency averaging processing unit 2d changes the frequency characteristics of the audio data and averages the overall sound quality (S4).
続いて、第1耳音響放射処理部2eは、その処理の詳細は図5で後述するが、誘発耳音響放射(TEOAE)と歪成分耳音響放射(DPOAE)の効果をステレオサウンドに係る音声データに付加する(S5)。 Subsequently, the details of the processing of the first otoacoustic emission processing unit 2e will be described later with reference to FIG. 5, but the effects of evoked otoacoustic emission (TEOAE) and distortion component otoacoustic emission (DPOAE) are converted into audio data related to stereo sound. (S5).
続いて、頭部伝達調整処理部2fは、頭部伝達関数に基づいて、頭部までのサウンドの伝達遅延を調整する(S6)。より具体的には、テーブルを参照して、耳介の深さに対応する頭部伝達関数に基づくフィルタリングにより音声データを畳み込み演算することで適応化を図る。 Subsequently, the head-related transfer adjustment processing unit 2f adjusts the transmission delay of the sound to the head based on the head-related transfer function (S6). More specifically, with reference to the table, adaptation is achieved by performing convolution calculation of audio data by filtering based on the head-related transfer function corresponding to the depth of the pinna.
残響音調整処理部2gは、音声データにプリセットで指定された空間に好適な残響音を付加する(S7)。そして、第2耳音響放射処理部2hは、自発耳音響放射(S0AE)の効果を音声データに付加する(S8)。より具体的には、音声データの1KHzから2KHzの周波数帯域にサンプリング音またはカラードノイズを付加する。 The reverberant adjustment processing unit 2g adds a reverberant sound suitable for the space designated by the preset to the audio data (S7). Then, the second otoacoustic emission processing unit 2h adds the effect of spontaneous otoacoustic emission (S0AE) to the audio data (S8). More specifically, sampling sound or colored noise is added to the frequency band of 1 KHz to 2 KHz of the audio data.
こうして音声データは、右耳用はD/A変換器12を介してアナログ信号に変換された後、音声出力部14Rから出力され、左耳用はD/A変換器13を介してアナログ信号に変換された後、音声出力部14Lから出力される(S9)。以上で、立体音響に係る音声の再生に係る一連の処理を終了する。 Thus, the audio data for the right ear is converted to an analog signal via the D / A converter 12 and then output from the audio output unit 14R, and for the left ear is converted to an analog signal via the D / A converter 13. After the conversion, it is output from the audio output unit 14L (S9). With the above, a series of processes related to sound reproduction related to stereophonic sound is completed.
ここで、図4のフローチャートには、図4のステップS4で実行される第1耳音響放射処理の詳細な処理手順を示し説明する。 Here, the flowchart of FIG. 4 shows and describes the detailed processing procedure of the first otoacoustic emission processing executed in step S4 of FIG.
先ず、周波数調整処理部20は、ステレオサウンドに係る音声データの所定の周波数帯(5.28Hzから20KHz)の音量を距離データに基づいて調整する。これは、誘発耳音響放射の効果を付加するもので、距離データに基づいて、距離が近づくにつれて音量が大きくなるような処理を施す(S11)。 First, the frequency adjustment processing unit 20 adjusts the volume of a predetermined frequency band (5.28 Hz to 20 KHz) of audio data related to stereo sound based on the distance data. This is to add the effect of evoked otoacoustic emission, and based on the distance data, processing is performed so that the volume increases as the distance approaches (S11).
続いて、音圧調整部21は、距離データに基づいて、ステレオサウンドに係る音声データの音圧を調整する(S12)。つまり、音圧調整部21は、距離データに基づいて、距離が遠いほど音圧を低く、距離が近いほど音圧を高くすることで、誘発耳音響放射の効果を擬似的に音声データに反映させる。 Subsequently, the sound pressure adjusting unit 21 adjusts the sound pressure of the sound data related to the stereo sound based on the distance data (S12). That is, based on the distance data, the sound pressure adjustment unit 21 artificially reflects the effect of evoked otoacoustic emission in the sound data by lowering the sound pressure as the distance is longer and increasing the sound pressure as the distance is closer. Let
次に、振幅調整処理部22は、距離データに基づいて、例えば、10dBから20dBの振幅を調整することで、音量の全体的な低下分を補償増幅する(S13)。つまり、誘発耳音響放射、歪成分耳音響放射の双方の効果を音声データに反映させる。 Next, the amplitude adjustment processing unit 22 compensates and amplifies the overall decrease in volume by adjusting the amplitude of, for example, 10 dB to 20 dB based on the distance data (S13). That is, the effects of both evoked otoacoustic emission and distortion component otoacoustic emission are reflected in the audio data.
そして、遅延調整処理部23は、ステレオサウンドに係る音声データに10msの遅延効果を付加する(S14)。これは、誘発耳音響放射のもつ、入力された音声の刺激に対して10ms前後の遅れをもって信号が検出されるという音響反応を音声データに反映させるものである。こうして、図4のステップS6以降の処理にリターンする。 Then, the delay adjustment processing unit 23 adds a 10 ms delay effect to the audio data related to the stereo sound (S14). This reflects in the audio data the acoustic response of the evoked otoacoustic emission that a signal is detected with a delay of around 10 ms with respect to the input audio stimulus. Thus, the process returns to step S6 and subsequent steps in FIG.
ここで、図5(a)は入力された音声データの特性図、図5(b)は出力される音声データの特性図である。図5(a)に示される入力された音声データに対して、OAEに関する物理的なパラメータを動的に変化させ、人間の空間認識における聴覚の構造を擬似的に再現し錯聴を誘発する図5(b)に示されるような音声データを出力する。バイノーラル録音した音と比較してより臨場感のある立体音響を知覚させることが可能になる。 Here, FIG. 5A is a characteristic diagram of input voice data, and FIG. 5B is a characteristic chart of output voice data. FIG. 5A is a diagram in which physical parameters related to OAE are dynamically changed with respect to the input voice data shown in FIG. 5A to simulate an auditory structure in human spatial recognition and induce an illusion. Audio data as shown in 5 (b) is output. It is possible to perceive more realistic 3D sound compared to binaural sound.
以上説明したように、本発明の第1実施形態によれば、入力された音声データに対して耳音響放射の効果を擬似的に反映させることで、臨場感のある立体音響を再生することが可能となる。また、耳音響放射として、誘発耳音響放射(TEOAE)、自発耳音響放射(SOAE)及び歪成分耳音響放射(DPOAE)の効果を体感させることができるので、より臨場感が高まっている。また、耳音響放射の効果に加えて頭部伝達関するに基づく調整も行うので、より臨場感のある立体音響の再生が実現される。 As described above, according to the first embodiment of the present invention, it is possible to reproduce realistic 3D sound by artificially reflecting the effect of otoacoustic emission on the input audio data. It becomes possible. Moreover, since the effects of evoked otoacoustic emission (TEOAE), spontaneous otoacoustic emission (SOAE), and distortion component otoacoustic emission (DPOAE) can be experienced as otoacoustic emission, the sense of reality is further increased. In addition to the effect of otoacoustic emission, adjustment based on head transmission is also performed, so that more realistic 3D sound reproduction can be realized.
(第2実施形態) (Second Embodiment)
本発明の第2実施形態に係る音響再生装置は、第1耳音響放射処理部2eの構成が第1実施形態と異なる。詳細は後述するが、音響心理学に基づいた心拍データにより周波数調整処理を実施する。その他の構成は、第1実施形態と同様であるので、以下では、図1及び図2と同一構成については同一符号を付し、異なる部分を中心に説明する。 The sound reproducing apparatus according to the second embodiment of the present invention is different from the first embodiment in the configuration of the first otoacoustic emission processing unit 2e. Although details will be described later, the frequency adjustment processing is performed using heartbeat data based on psychoacoustics. Since other configurations are the same as those of the first embodiment, the same components as those in FIGS. 1 and 2 are denoted by the same reference numerals, and different portions will be mainly described.
図6には本発明の第2実施形態に係る音響再生装置の制御部2の第1耳音響放射処理部2eの詳細な構成を示し説明する。 FIG. 6 illustrates a detailed configuration of the first otoacoustic emission processing unit 2e of the control unit 2 of the sound reproducing device according to the second embodiment of the present invention.
同図に示されるように、第1耳音響放射処理部2eは、第1周波数調整処理部(パラメトリックイコライザ)30、第2周波数調整処理部(パラメトリックイコライザ)31、音圧調整処理部(コンプレッサー)32、振幅調整処理部(アンプ)33、及び遅延調整処理部(ディレイ)34からなる。 As shown in the figure, the first otoacoustic emission processing unit 2e includes a first frequency adjustment processing unit (parametric equalizer) 30, a second frequency adjustment processing unit (parametric equalizer) 31, and a sound pressure adjustment processing unit (compressor). 32, an amplitude adjustment processing unit (amplifier) 33, and a delay adjustment processing unit (delay) 34.
第1耳音響放射処理部2eにおいて、第1周波数調整処理部30は、ステレオサウンドに係る音声データの所定の周波数帯(500Hzから20KHz)の音量を距離データに基づいて調整する。これは、誘発耳音響放射の効果を付加するもので、距離データに基づいて、距離が近づくにつれて音量が大きくなるような処理を施す。 In the first otoacoustic emission processing unit 2e, the first frequency adjustment processing unit 30 adjusts the volume of a predetermined frequency band (500 Hz to 20 KHz) of audio data related to stereo sound based on the distance data. This is to add the effect of evoked otoacoustic emission, and based on the distance data, processing is performed so that the volume increases as the distance approaches.
第2周波数調整処理部31は、ステレオサウンドに係る音声データの所定の周波数帯(400Hzから10KHz)の音量を、音響心理学の考え方に基づいて、心拍データにより調整する。これは、音響心理学に基づいて、心拍データを基準値と比較して、心拍数に辺がある場合に、ユーザ心理的変化あると認識し、より助長するように上記所定の周波数の音量を上げるものである。音響心理学は音の物理的なパラメータを変化させることにより、音を人間が知覚することに対して様々な心理的影響を与える。 The second frequency adjustment processing unit 31 adjusts the volume of a predetermined frequency band (400 Hz to 10 KHz) of audio data related to stereo sound based on heartbeat data based on the concept of acoustic psychology. This is based on acoustic psychology, comparing the heart rate data with a reference value, and if there is an edge in the heart rate, recognizes that there is a user psychological change, and increases the volume of the predetermined frequency so as to further promote To raise. Acoustic psychology has various psychological effects on human perception of sound by changing the physical parameters of the sound.
音圧調整部32は、距離データに基づいて、ステレオサウンドに係る音声データの音圧を調整する。例えば、音量が閾値を超える場合には、超過した音量を設定した圧縮比で抑え、設定時間内にリリースすることで、変化している音量の最大値を低下させる。これにより、最大音量と最小音量のダイナミックレンジが圧縮される。これは、誘発耳音響放射の効果を付加するもので、音圧調整部21は、距離データに基づいて、距離が遠いほど音圧を低く、距離が近いほど音圧を高くする。 The sound pressure adjusting unit 32 adjusts the sound pressure of the sound data related to the stereo sound based on the distance data. For example, when the volume exceeds the threshold, the maximum volume of the volume that has changed is reduced by suppressing the excess volume with the set compression ratio and releasing it within the set time. Thereby, the dynamic range of the maximum volume and the minimum volume is compressed. This adds an effect of evoked otoacoustic emission, and the sound pressure adjusting unit 21 lowers the sound pressure as the distance is longer and increases the sound pressure as the distance is closer based on the distance data.
振幅調整処理部33は、距離データに基づいて、例えば、この例では、10dBから20dBの振幅を調整する。これは、音圧調整により、音量が全体的に低下するため、低下分を補償増幅することを意味する。これは、誘発耳音響放射、歪成分耳音響放射の双方の効果を付加することを意味する。尚、振幅調整処理部33は、任意的な構成である。 For example, in this example, the amplitude adjustment processing unit 33 adjusts the amplitude from 10 dB to 20 dB based on the distance data. This means that the volume is reduced as a whole by the sound pressure adjustment, so that the reduced amount is compensated and amplified. This means adding the effects of both evoked otoacoustic emission and distortion component otoacoustic emission. The amplitude adjustment processing unit 33 has an arbitrary configuration.
遅延調整処理部34は、ステレオサウンドに係る音声データに10msの遅延効果を付加する。前述したように、誘発耳音響放射とは、入力された音声の刺激に対して10ms前後の遅れをもって信号が検出される音響反応をいうが、そのような効果を擬似的に実現することを意味する。 The delay adjustment processing unit 34 adds a 10 ms delay effect to audio data related to stereo sound. As described above, evoked otoacoustic emission is an acoustic reaction in which a signal is detected with a delay of about 10 ms with respect to an input voice stimulus, and means that such an effect is realized in a pseudo manner. To do.
第2実施形態に係る音響再生装置による処理手順は図3と略同様であり、図3のステップS5の第1耳音響放射処理のみが異なるので、以下、図7を参照して、第2実施形態による第1耳音響放射処理の処理手順のみを説明する。 The processing procedure by the sound reproducing device according to the second embodiment is substantially the same as that in FIG. 3, and only the first otoacoustic emission processing in step S5 in FIG. 3 is different. Therefore, referring to FIG. Only the processing procedure of the first otoacoustic emission processing according to the form will be described.
先ず、第1周波数調整処理部30は、ステレオサウンドに係る音声データの所定の周波数帯(5.28Hzから20KHz)の音量を距離データに基づいて調整する。これは、誘発耳音響放射の効果を付加するもので、距離データに基づいて、距離が近づくにつれて音量が大きくなるような処理を施す(S21)。 First, the first frequency adjustment processing unit 30 adjusts the volume of a predetermined frequency band (5.28 Hz to 20 KHz) of audio data related to stereo sound based on the distance data. This is to add the effect of evoked otoacoustic emission, and based on the distance data, processing is performed so that the volume increases as the distance approaches (S21).
続いて、第2周波数調整処理部31は、ステレオサウンドに係る音声データの所定の周波数帯(400Hzから10KHz)の音量を、音響心理学の考え方に基づいて、心拍データにより調整する(S22)。 Subsequently, the second frequency adjustment processing unit 31 adjusts the volume of a predetermined frequency band (400 Hz to 10 KHz) of the audio data related to the stereo sound based on the heartbeat data based on the concept of acoustic psychology (S22).
そして、音圧調整部32は、距離データに基づいて、ステレオサウンドに係る音声データの音圧を調整する(S23)。つまり、音圧調整部32は、距離データに基づいて、距離が遠いほど音圧を低く、距離が近いほど音圧を高くすることで、誘発耳音響放射の効果を擬似的に音声データに反映させる。 Then, the sound pressure adjusting unit 32 adjusts the sound pressure of the sound data related to the stereo sound based on the distance data (S23). That is, the sound pressure adjustment unit 32 reflects the effect of evoked otoacoustic emission on the sound data in a pseudo manner by lowering the sound pressure as the distance is longer and increasing the sound pressure as the distance is closer based on the distance data. Let
次に、振幅調整処理部33は、距離データに基づいて、例えば、10dBから20dBの振幅を調整することで、音量の全体的な低下分を補償増幅する(S24)。つまり、誘発耳音響放射、歪成分耳音響放射の双方の効果を音声データに反映させる。 Next, the amplitude adjustment processing unit 33 compensates and amplifies the overall decrease in volume by adjusting the amplitude of, for example, 10 dB to 20 dB based on the distance data (S24). That is, the effects of both evoked otoacoustic emission and distortion component otoacoustic emission are reflected in the audio data.
そして、遅延調整処理部34は、ステレオサウンドに係る音声データに10msの遅延効果を付加する(S25)。これは、誘発耳音響放射のもつ、入力された音声の刺激に対して10ms前後の遅れをもって信号が検出されるという音響反応を音声データに反映させるものである。こうして、図3のステップS6以降の処理にリターンする。 Then, the delay adjustment processing unit 34 adds a 10 ms delay effect to the audio data related to the stereo sound (S25). This reflects in the audio data the acoustic response of the evoked otoacoustic emission that a signal is detected with a delay of around 10 ms with respect to the input audio stimulus. Thus, the process returns to step S6 and subsequent steps in FIG.
以上説明したように、本発明の第2実施形態によれば、前述した第1実施形態の効果に加えて、音響心理学に基づく音響効果を付与することが可能となる。 As described above, according to the second embodiment of the present invention, in addition to the effects of the first embodiment described above, an acoustic effect based on psychoacoustics can be imparted.
(第3実施形態) (Third embodiment)
本発明の第3実施形態に係る音響再生装置は、第2耳音響放射処理部2hの構成が第1実施形態と異なる。詳細は後述するが、潜在記憶音を付加することでより臨場感を高めている。その他の構成は、第1実施形態と同様であるので、以下では、図1、図2と同一構成については同一符号を付し、異なる部分を中心に説明する。潜在記憶音は従来聴覚においてマスキングされる普遍的な環境音などを指し、これをサンプリング音として付加し変化させる。これにより音の知覚におけるプライミング効果を促進し心理的変化を助長させる。 The sound reproducing device according to the third embodiment of the present invention is different from the first embodiment in the configuration of the second otoacoustic emission processing unit 2h. Although details will be described later, the presence of a latent memory sound enhances the sense of reality. Since other configurations are the same as those of the first embodiment, the same components as those in FIGS. 1 and 2 are denoted by the same reference numerals, and different portions will be mainly described. The latent memory sound refers to a universal environmental sound that is conventionally masked in the auditory sense, and is added and changed as a sampling sound. This promotes priming effects in sound perception and encourages psychological changes.
図8には本発明の第2実施形態に係る音響再生装置の制御部2の第2耳音響放射処理部2hの詳細な構成を示し説明する。 FIG. 8 shows a detailed configuration of the second otoacoustic emission processing unit 2h of the control unit 2 of the sound reproducing device according to the second embodiment of the present invention.
同図に示されるように、第2耳音響放射処理部2hは、自発耳音響放射処理部40と潜在記憶音付加処理部41とで構成されている。 As shown in the figure, the second otoacoustic emission processing unit 2h is composed of a spontaneous otoacoustic emission processing unit 40 and a latent memory sound addition processing unit 41.
このような構成において、第2耳音響放射処理部2hでは、自発耳音響放射処理部40が、自発耳音響放射(S0AE)の効果を音声データに付加する。音声データの1KHzから2KHzの周波数帯域にサンプリング音またはカラードノイズを付加する。どのようなサンプリング音、カラードノイズを付加するかは、プリセットの段階で選択できるようにしてよい。そして、潜在記憶音付加処理部41が、潜在記憶を基に、サンプリング音を付加する。これは、例えば、高原の野外ステージでは、風がなびく音を感じながらステージ上のミュージシャンの音楽を楽しむことになるが、そのような潜在的に感じている音声をサンプリング音として付加することでより臨場感を高めることができる。 In such a configuration, in the second otoacoustic emission processing unit 2h, the spontaneous otoacoustic emission processing unit 40 adds the effect of the spontaneous otoacoustic emission (S0AE) to the audio data. Sampling sound or colored noise is added to the frequency band of 1 KHz to 2 KHz of the audio data. What kind of sampling sound and colored noise are added may be selected at a preset stage. Then, the latent memory sound addition processing unit 41 adds a sampling sound based on the latent memory. This is because, for example, in the outdoor stage of the plateau, you can enjoy the music of the musicians on the stage while feeling the sound of the wind, but by adding such potentially perceived sound as a sampling sound, The presence can be enhanced.
第3実施形態に係る音響再生装置による処理手順は図3と略同様であり、図3のステップS8の第2耳音響放射処理のみが異なるので、以下、図9を参照して、第3実施形態による第2耳音響放射処理の処理手順のみを説明する。 The processing procedure by the sound reproducing device according to the third embodiment is substantially the same as that in FIG. 3 and only the second otoacoustic emission processing in step S8 in FIG. 3 is different, so the third embodiment will be described below with reference to FIG. Only the processing procedure of the second otoacoustic emission processing according to the form will be described.
同処理では、先ず、自発耳音響放射処理部40が、自発耳音響放射(S0AE)の効果を音声データに付加する(S31)。そして、潜在記憶音付加処理部41が、潜在記憶を基に、サンプリング音を付加する(S32)。こうして、図3のステップS9以降の処理にリターンすることになる。 In this process, first, the spontaneous otoacoustic emission processing unit 40 adds the effect of the spontaneous otoacoustic emission (S0AE) to the audio data (S31). Then, the latent memory sound addition processing unit 41 adds a sampling sound based on the latent memory (S32). Thus, the processing returns to step S9 and subsequent steps in FIG.
以上説明したように、本発明の第3実施形態によれば、第1実施形態の効果に加えて、潜在的記憶音を更に付加することで、より臨場感を高めることができる。 As described above, according to the third embodiment of the present invention, in addition to the effects of the first embodiment, it is possible to further enhance the sense of reality by further adding a latent memory sound.
以上、本発明の実施形態について説明したが、本発明はこれに限定されることなくその趣旨を逸脱しない範囲で種々の改良・変更が可能であることは勿論である。例えば、第2実施形態及び第3実施形態を組み合わせた装置としても実現可能である。 The embodiment of the present invention has been described above, but the present invention is not limited to this, and it is needless to say that various improvements and modifications can be made without departing from the spirit of the present invention. For example, it is realizable also as an apparatus which combined 2nd Embodiment and 3rd Embodiment.
1…音響再生装置、2…制御部、2a…主制御部、2b…ノイズ低減処理部、2c…残響音無効化処理部、2d…周波数平均化処理部、2e…第1耳音響放射処理部、2f…頭部伝達調整処理部、2g…残響音調整処理部、2h…第2耳音響放射処理部、3…音源、4…A/D変換部、5…加速度センサ、6…A/D変換部、7…ジャイロセンサ、8…A/D変換部、9…距離センサ、10…A/D変換部、11…入力部、12…D/A変換部、13…D/A変換器、14L,14R…音声出力部、15…記憶部、16…地磁気センサ、17…A/D変換器、18…心拍センサ、19…プログラム、20…周波数調整処理部、21…音圧調整処理部、22…振幅調整処理部、23…遅延調整処理部、30…第1周波数調整処理部、31…第2周波数調整処理部、32…音圧調整処理部、33…振幅調整処理部、34…遅延調整処理部、40…自発耳音響放射処理部、41…潜在記憶音付加処理部。 DESCRIPTION OF SYMBOLS 1 ... Sound reproduction apparatus, 2 ... Control part, 2a ... Main control part, 2b ... Noise reduction process part, 2c ... Reverberation sound invalidation process part, 2d ... Frequency averaging process part, 2e ... 1st ear sound radiation process part 2f ... head transmission adjustment processing unit, 2g ... reverberation sound adjustment processing unit, 2h ... second otoacoustic emission processing unit, 3 ... sound source, 4 ... A / D conversion unit, 5 ... acceleration sensor, 6 ... A / D Conversion unit, 7 ... Gyro sensor, 8 ... A / D conversion unit, 9 ... Distance sensor, 10 ... A / D conversion unit, 11 ... Input unit, 12 ... D / A conversion unit, 13 ... D / A converter, 14L, 14R ... audio output unit, 15 ... storage unit, 16 ... geomagnetic sensor, 17 ... A / D converter, 18 ... heart rate sensor, 19 ... program, 20 ... frequency adjustment processing unit, 21 ... sound pressure adjustment processing unit, 22 ... Amplitude adjustment processing unit, 23 ... Delay adjustment processing unit, 30 ... First frequency adjustment processing unit, 31 ... Second Wave number adjustment processing unit, 32 ... sound pressure adjustment unit, 33 ... amplitude adjustment processing section, 34 ... delay adjusting section, 40 ... spontaneous otoacoustic emissions processing unit, 41 ... implicit memory sound adding section.
Claims (10)
入力された音声データに対して、誘発耳音響放射と歪成分耳音響放射の効果を付加する第1耳音響放射処理手段と、
前記第1耳音響放射処理手段による処理後の音声データを音声信号に変換して出力する音声出力手段と、を備え、
前記第1耳音響放射処理手段は、
前記音声データの所定の周波数帯の音量を前記距離データに基づいて調整する周波数調整処理手段と、
前記音声データの音圧を前記距離データに基づいて調整する音圧調整手段と、
前記音声データの振幅を調整し音量の低下分を補償増幅する振幅調整処理手段と、
前記音声データに10msの遅延効果を付加する遅延調整処理手段と、を有する
音響再生装置。 A distance sensor that measures the distance to the actual object and obtains distance data;
First otoacoustic emission processing means for adding effects of evoked otoacoustic emission and distortion component otoacoustic emission to the input audio data;
Voice output means for converting the voice data after processing by the first otoacoustic emission processing means into a voice signal and outputting the voice signal;
The first otoacoustic emission processing means includes:
Frequency adjustment processing means for adjusting the volume of a predetermined frequency band of the audio data based on the distance data;
Sound pressure adjusting means for adjusting the sound pressure of the voice data based on the distance data;
Amplitude adjustment processing means for adjusting the amplitude of the audio data to compensate and amplify the decrease in volume;
A sound reproduction apparatus comprising: delay adjustment processing means for adding a delay effect of 10 ms to the audio data.
前記音声出力手段は、前記頭部伝達調整処理手段による処理後の音声データを音声信号に変換して出力する
請求項1に記載の音響再生装置。 The audio data after processing by the first otoacoustic emission processing means further includes head transmission adjustment processing means for adjusting a transmission delay of the sound to the user's head based on a predetermined head transfer function. ,
The sound reproduction device according to claim 1, wherein the sound output unit converts the sound data processed by the head transmission adjustment processing unit into a sound signal and outputs the sound signal.
前記第2耳音響放射処理手段は、自発耳音響放射の効果を音声データに付加する自発耳音響放射処理手段と、ユーザの潜在記憶を基に、サンプリング音を付加する潜在記憶音付加処理手段と、を有し、
前記音声出力手段は、前記第2耳音響放射処理手段による処理後の音声データを音声信号に変換して出力する
請求項1に記載の音響再生装置。 The audio data after processing by the first otoacoustic emission processing means further includes second otoacoustic emission processing means for further adding an effect of spontaneous otoacoustic emission,
The second otoacoustic emission processing means includes a spontaneous otoacoustic emission processing means for adding the effect of the spontaneous otoacoustic emission to the audio data, and a latent memory sound addition processing means for adding a sampling sound based on the user's latent memory. Have
The sound reproduction device according to claim 1, wherein the sound output unit converts sound data after processing by the second otoacoustic emission processing unit into a sound signal and outputs the sound signal.
請求項1乃至3に記載の音響再生装置。 The sound reproduction device according to claim 1, wherein the first otoacoustic emission processing means enhances a psychological effect by adjusting a volume of a predetermined frequency band based on heartbeat data.
音声データの入力を受ける第2のステップと、
入力された音声データに対して、誘発耳音響放射と歪成分耳音響放射の効果を付加する第1耳音響放射処理を行う第3のステップと、
前記第1耳音響放射処理がなされた音声データを音声信号に変換して出力する第4のステップと、を有し、
前記第3のステップでは、前記音声データの所定の周波数帯の音量を前記距離データに基づいて調整し、前記音声データの音圧を前記距離データに基づいて調整し、前記音声データの振幅を調整し音量の低下分を補償増幅し、前記音声データに10msの遅延効果を付加する
音響再生方法。 A first step of measuring the distance to the real object and obtaining distance data;
A second step for receiving input of voice data;
A third step of performing a first otoacoustic emission process for adding the effects of evoked otoacoustic emission and distortion component otoacoustic emission to the input audio data;
A fourth step of converting the sound data subjected to the first otoacoustic emission process into a sound signal and outputting the sound signal;
In the third step, the volume of a predetermined frequency band of the audio data is adjusted based on the distance data, the sound pressure of the audio data is adjusted based on the distance data, and the amplitude of the audio data is adjusted A sound reproduction method for compensating and amplifying a decrease in volume and adding a 10 ms delay effect to the audio data.
前記第4のステップでは、前記第5のステップにおける頭部伝達調整処理後の音声データを音声信号に変換して出力する
請求項5に記載の音響再生方法。 For the audio data after the first otoacoustic emission process in the third step, a head transmission adjustment process for adjusting a transmission delay of the sound to the user's head is performed based on a predetermined head transfer function. And further comprising a fifth step,
The sound reproduction method according to claim 5, wherein in the fourth step, the sound data after the head transmission adjustment processing in the fifth step is converted into a sound signal and output.
前記第6のステップでは、自発耳音響放射の効果を音声データに付加し、ユーザの潜在記憶を基にサンプリング音を付加し、
前記第4のステップでは、前記第6のステップにおける前記第2耳音響放射処理後の音声データを音声信号に変換して出力する
請求項5に記載の音響再生方法。 The audio data after the first otoacoustic emission process in the third step further includes a sixth step of performing a second otoacoustic emission process for further adding the effect of spontaneous otoacoustic emission,
In the sixth step, the effect of the spontaneous otoacoustic emission is added to the audio data, the sampling sound is added based on the user's latent memory,
The sound reproduction method according to claim 5, wherein in the fourth step, the sound data after the second otoacoustic emission processing in the sixth step is converted into an audio signal and output.
入力された音声データに対して、誘発耳音響放射と歪成分耳音響放射の効果を付加する第1耳音響放射処理手段、及び
前記第1耳音響放射処理手段による処理がなされた音声データを音声信号に変換して出力する音声出力手段として機能させ、
前記第1耳音響放射処理手段は、更に、
前記音声データの所定の周波数帯の音量を、実対象までの距離を測定して得られた距離データに基づいて調整する周波数調整処理手段と、
前記音声データの音圧を前記距離データに基づいて調整する音圧調整手段と、
前記音声データの振幅を調整し音量の低下分を補償増幅する振幅調整処理手段と、
前記音声データに10msの遅延効果を付加する遅延調整処理手段と、して機能する
プログラム。 Computer
First otoacoustic emission processing means for adding effects of evoked otoacoustic emission and distortion component otoacoustic emission to input audio data, and audio data processed by the first otoacoustic emission processing means as audio Function as audio output means to convert to signal and output,
The first otoacoustic emission processing means further includes:
Frequency adjustment processing means for adjusting the volume of the predetermined frequency band of the audio data based on distance data obtained by measuring the distance to the actual object ;
Sound pressure adjusting means for adjusting the sound pressure of the voice data based on the distance data;
Amplitude adjustment processing means for adjusting the amplitude of the audio data to compensate and amplify the decrease in volume;
A program that functions as delay adjustment processing means for adding a delay effect of 10 ms to the audio data.
前記音声出力手段は、前記頭部伝達調整処理手段による処理後の音声データを音声信号に変換して出力する
請求項8に記載のプログラム。 The voice data after processing by the first otoacoustic emission processing means also functions as a head-related transmission adjustment processing means for adjusting the transmission delay of the voice to the user's head based on a predetermined head-related transfer function. And
The program according to claim 8, wherein the sound output unit converts the sound data processed by the head transmission adjustment processing unit into a sound signal and outputs the sound signal.
前記第2耳音響放射処理手段は、更に自発耳音響放射の効果を音声データに付加する自発耳音響放射処理手段と、ユーザの潜在記憶を基に、サンプリング音を付加する潜在記憶音付加処理手段として機能し、
前記音声出力手段は、前記第2耳音響放射処理手段による処理後の音声データを音声信号に変換して出力する
請求項8に記載のプログラム。 The sound data after processing by the first otoacoustic emission processing means functions as a second otoacoustic emission processing means for further adding the effect of spontaneous otoacoustic emission,
The second otoacoustic emission processing means further includes a spontaneous otoacoustic emission processing means for adding the effect of the spontaneous otoacoustic emission to the audio data, and a latent memory sound addition processing means for adding a sampling sound based on the user's latent memory. Function as
The program according to claim 8, wherein the sound output unit converts the sound data processed by the second otoacoustic emission processing unit into a sound signal and outputs the sound signal.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016049210A JP6094844B1 (en) | 2016-03-14 | 2016-03-14 | Sound reproduction apparatus, sound reproduction method, and program |
PCT/JP2017/009883 WO2017159587A1 (en) | 2016-03-14 | 2017-03-13 | Acoustic playback device, acoustic playback method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016049210A JP6094844B1 (en) | 2016-03-14 | 2016-03-14 | Sound reproduction apparatus, sound reproduction method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6094844B1 true JP6094844B1 (en) | 2017-03-15 |
JP2017168887A JP2017168887A (en) | 2017-09-21 |
Family
ID=58281065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016049210A Expired - Fee Related JP6094844B1 (en) | 2016-03-14 | 2016-03-14 | Sound reproduction apparatus, sound reproduction method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6094844B1 (en) |
WO (1) | WO2017159587A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190076506A (en) | 2017-12-22 | 2019-07-02 | 한국항공우주산업 주식회사 | Stereo sound apparatus for aircraft and output method thereof |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023199746A1 (en) * | 2022-04-14 | 2023-10-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Acoustic reproduction method, computer program, and acoustic reproduction device |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5402493A (en) * | 1992-11-02 | 1995-03-28 | Central Institute For The Deaf | Electronic simulator of non-linear and active cochlear spectrum analysis |
JPH089490A (en) * | 1994-06-21 | 1996-01-12 | Sony Corp | Reproducing device for audio acompanied with video |
JPH08505706A (en) * | 1992-11-02 | 1996-06-18 | セントラル インスティテュート フォー ザ デフ | Electronic Simulator for Nonlinear Active Cochlear Signal Processing |
US5601091A (en) * | 1995-08-01 | 1997-02-11 | Sonamed Corporation | Audiometric apparatus and association screening method |
JPH10153946A (en) * | 1996-11-25 | 1998-06-09 | Mitsubishi Electric Corp | Sensation information presenting device |
JP2001526922A (en) * | 1997-12-19 | 2001-12-25 | メディカル リサーチ カウンシル | Method and apparatus for obtaining evoked otoacoustic radiation |
US20080285780A1 (en) * | 2005-11-01 | 2008-11-20 | Koninklijke Philips Electronics, N.V. | Method to Adjust a Hearing Aid Device, Hearing Aid System and Hearing Aid Device |
JP2013121106A (en) * | 2011-12-08 | 2013-06-17 | Sony Corp | Earhole attachment-type sound pickup device, signal processing device, and sound pickup method |
US20150264482A1 (en) * | 2012-08-06 | 2015-09-17 | Father Flanagan's Boys' Home Doing Business As Boys Town National Research Hospital | Multiband audio compression system and method |
-
2016
- 2016-03-14 JP JP2016049210A patent/JP6094844B1/en not_active Expired - Fee Related
-
2017
- 2017-03-13 WO PCT/JP2017/009883 patent/WO2017159587A1/en active Application Filing
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08505706A (en) * | 1992-11-02 | 1996-06-18 | セントラル インスティテュート フォー ザ デフ | Electronic Simulator for Nonlinear Active Cochlear Signal Processing |
US5402493A (en) * | 1992-11-02 | 1995-03-28 | Central Institute For The Deaf | Electronic simulator of non-linear and active cochlear spectrum analysis |
JPH089490A (en) * | 1994-06-21 | 1996-01-12 | Sony Corp | Reproducing device for audio acompanied with video |
US5696831A (en) * | 1994-06-21 | 1997-12-09 | Sony Corporation | Audio reproducing apparatus corresponding to picture |
JP2002503972A (en) * | 1995-08-01 | 2002-02-05 | ソナメッド コーポレーション | Hearing test device and related screening method |
US5601091A (en) * | 1995-08-01 | 1997-02-11 | Sonamed Corporation | Audiometric apparatus and association screening method |
JPH10153946A (en) * | 1996-11-25 | 1998-06-09 | Mitsubishi Electric Corp | Sensation information presenting device |
JP2001526922A (en) * | 1997-12-19 | 2001-12-25 | メディカル リサーチ カウンシル | Method and apparatus for obtaining evoked otoacoustic radiation |
US6406438B1 (en) * | 1997-12-19 | 2002-06-18 | Medical Research Counsel | Method and apparatus for obtaining evoked otoacoustic emissions |
US20080285780A1 (en) * | 2005-11-01 | 2008-11-20 | Koninklijke Philips Electronics, N.V. | Method to Adjust a Hearing Aid Device, Hearing Aid System and Hearing Aid Device |
JP2009514313A (en) * | 2005-11-01 | 2009-04-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method for adjusting a hearing aid device using otoacoustic emissions, and corresponding hearing aid system and hearing aid device |
JP2013121106A (en) * | 2011-12-08 | 2013-06-17 | Sony Corp | Earhole attachment-type sound pickup device, signal processing device, and sound pickup method |
US20140321688A1 (en) * | 2011-12-08 | 2014-10-30 | Sony Corporation | Earhole-wearable sound collection device, signal processing device, and sound collection method |
US20150264482A1 (en) * | 2012-08-06 | 2015-09-17 | Father Flanagan's Boys' Home Doing Business As Boys Town National Research Hospital | Multiband audio compression system and method |
JP2015531207A (en) * | 2012-08-06 | 2015-10-29 | ファーザー フラナガンズ ボーイズ ホーム ドゥーイング ビジネス アズ ボーイズ タウン ナショナル リサーチ ホスピタル | Multi-band audio compression system and method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190076506A (en) | 2017-12-22 | 2019-07-02 | 한국항공우주산업 주식회사 | Stereo sound apparatus for aircraft and output method thereof |
Also Published As
Publication number | Publication date |
---|---|
WO2017159587A1 (en) | 2017-09-21 |
JP2017168887A (en) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5499513B2 (en) | Sound processing apparatus, sound image localization processing method, and sound image localization processing program | |
CN107018460B (en) | Binaural headset rendering with head tracking | |
JP4584416B2 (en) | Multi-channel audio playback apparatus for speaker playback using virtual sound image capable of position adjustment and method thereof | |
US11037544B2 (en) | Sound output device, sound output method, and sound output system | |
JP4602621B2 (en) | Sound correction device | |
US11902772B1 (en) | Own voice reinforcement using extra-aural speakers | |
Ranjan et al. | Natural listening over headphones in augmented reality using adaptive filtering techniques | |
US8442244B1 (en) | Surround sound system | |
JP2017092732A (en) | Auditory supporting system and auditory supporting device | |
JP5986426B2 (en) | Sound processing apparatus and sound processing method | |
JPH10500809A (en) | Binaural signal synthesis, head related transfer function and its use | |
JP6246922B2 (en) | Acoustic signal processing method | |
US20170272889A1 (en) | Sound reproduction system | |
TW202036539A (en) | System and method for processing audio between multiple audio spaces | |
US6990210B2 (en) | System for headphone-like rear channel speaker and the method of the same | |
JP6094844B1 (en) | Sound reproduction apparatus, sound reproduction method, and program | |
JP2005157278A (en) | Apparatus, method, and program for creating all-around acoustic field | |
US7050596B2 (en) | System and headphone-like rear channel speaker and the method of the same | |
JP2011259299A (en) | Head-related transfer function generation device, head-related transfer function generation method, and audio signal processing device | |
KR20160136716A (en) | A method and an apparatus for processing an audio signal | |
CN108605197B (en) | Filter generation device, filter generation method, and sound image localization processing method | |
WO2023085186A1 (en) | Information processing device, information processing method, and information processing program | |
JP2022128177A (en) | Sound generation device, sound reproduction device, sound reproduction method, and sound signal processing program | |
CN109688531B (en) | Method for acquiring high-sound-quality audio conversion information, electronic device and recording medium | |
US20030108216A1 (en) | Means for compensating rear sound effect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6094844 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |