WO2014069111A1 - 信号処理装置、信号処理方法、測定方法、測定装置 - Google Patents
信号処理装置、信号処理方法、測定方法、測定装置 Download PDFInfo
- Publication number
- WO2014069111A1 WO2014069111A1 PCT/JP2013/074734 JP2013074734W WO2014069111A1 WO 2014069111 A1 WO2014069111 A1 WO 2014069111A1 JP 2013074734 W JP2013074734 W JP 2013074734W WO 2014069111 A1 WO2014069111 A1 WO 2014069111A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sound
- curved surface
- measurement
- transfer function
- closed curved
- Prior art date
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 200
- 238000012545 processing Methods 0.000 title claims abstract description 133
- 238000000691 measurement method Methods 0.000 title claims description 30
- 238000003672 processing method Methods 0.000 title description 6
- 238000012546 transfer Methods 0.000 claims abstract description 219
- 238000000034 method Methods 0.000 claims description 103
- 230000005236 sound signal Effects 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 16
- 230000001629 suppression Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 27
- 230000006870 function Effects 0.000 description 203
- 230000004044 response Effects 0.000 description 23
- 238000009877 rendering Methods 0.000 description 22
- 239000011159 matrix material Substances 0.000 description 17
- 238000000926 separation method Methods 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000007613 environmental effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 5
- 238000007654 immersion Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 4
- 230000007340 echolocation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01H—MEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
- G01H7/00—Measuring reverberation time ; room acoustic measurements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/08—Arrangements for producing a reverberation or echo sound
- G10K15/12—Arrangements for producing a reverberation or echo sound using electronic time-delay networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/02—Spatial or constructional arrangements of loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S5/00—Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
Definitions
- the present technology relates to a signal processing apparatus and a method for performing signal processing necessary for reproducing a sound field of a certain target place in another place.
- the present invention also relates to a measurement method and a measurement apparatus for measuring an acoustic transfer function required for reproducing such a sound field.
- an acoustic closed curved surface is formed by a speaker surrounding the user, and a sound field at a certain target location is given to the user inside the closed curved surface.
- immersive technology Immersive Reality
- a technology for giving a user a sense of “I feel that I am there” has been widely studied.
- This technology has been made under the circumstances as described above. With regard to a technology that makes a user perceive an impression of a certain place (impression of a space), a sense of realism and immersive feeling about the place is provided. It is to provide a technology that can be further enhanced.
- the present technology has the following configuration of the signal processing device. That is, the signal processing apparatus of the present technology collects a sound collected signal about the sound emitted by the user, which is obtained by collecting sound with inward directivity by a plurality of microphones arranged so as to surround the user in a reproduction environment. Is provided. In addition, a predetermined sound is generated from each of a plurality of positions set on the first closed curved surface in the measurement environment by a speaker with an outward directivity, and the sequentially generated sounds are sequentially generated in the measurement environment.
- the sound collection signal input by the input unit is processed, and the measurement is performed.
- An acoustic signal processing unit for obtaining a reproduction signal for reproducing the sound field in the environment is provided.
- a sound generation control unit configured to sound a plurality of speakers configured to sound inwardly directed so as to surround the user in the reproduction environment based on the reproduction signal obtained by the acoustic signal processing unit.
- the present technology proposes the following method as a signal processing method. That is, the signal processing method of the present technology is a sound collection signal for the sound emitted by the user, which is obtained by collecting sound with inward directivity by a plurality of microphones arranged so as to surround the user in a reproduction environment. Has an input procedure for inputting. In addition, a predetermined sound is generated from each of a plurality of positions set on the first closed curved surface in the measurement environment by a speaker with an outward directivity, and the sequentially generated sounds are sequentially generated in the measurement environment.
- the present technology proposes the following method as a measurement method.
- the measurement method of the present technology generates a predetermined sound with an outward directivity from each of a plurality of positions set on the first closed curved surface in the measurement environment, and the sequentially generated sounds are Sequentially, from each of the plurality of positions on the first closed curved surface, based on the result of picking up the sound with outward directivity by the microphone at a plurality of positions set on the second closed curved surface in the measurement environment.
- a transfer function representing how the emitted sound is transmitted to each of the plurality of positions on the second closed curved surface is measured.
- the present technology proposes a measuring apparatus having the following configuration. That is, the measuring apparatus of the present technology is arranged on the first closed curved surface so that a predetermined sound is generated with an outward directivity from each of a plurality of positions set on the first closed curved surface in the measurement environment.
- a sound generation control unit for executing sound generation by a speaker installed in
- the sound sequentially generated by the control of the sound generation control unit which is obtained by collecting sound with outward directivity by microphones installed at a plurality of positions set on the second closed curved surface in the measurement environment are sequentially input, and based on the collected signals, sounds emitted from each of the plurality of positions on the first closed curved surface are transmitted to the plurality of positions on the second closed curved surface.
- a measuring unit is provided for measuring a transfer function representing how to transmit to each of them.
- the signal processing apparatus (and the signal processing method) of the present technology there is a sound field that allows a user placed in a reproduction environment to feel that a sound emitted by the user is reflected in a place as a measurement environment. Will be provided.
- echo location it is possible to grasp an approximate spatial structure from an empirical rule by perceptually recognizing how the sound emitted by itself is transmitted. Therefore, according to the present technology, the user can easily perceive the impression of the space acoustically based on the sound he / she made. That is, as a result, it is possible to increase the sense of presence and immersion in a certain place as compared with the conventional case.
- the measurement method (and the measurement apparatus) of the present technology it is possible to realize measurement of a transfer function required for realizing such a sound field reproduction.
- the signal processing apparatus (and the signal processing method) of the present technology with respect to the technology that makes the user perceive an impression of a certain place (impression of space), the presence and immersion of the place is perceived. A feeling can be raised more.
- the measurement method (and measurement apparatus) of the present technology it is possible to realize measurement of a transfer function required for realizing such sound field reproduction.
- FIG. It is a figure for demonstrating the structure of the signal processing system for implement
- FIG. 1 It is a figure showing an example of system configuration at the time of performing rendering processing about method 2 on a cloud. It is the figure which illustrated the relationship between the closed curved surface formed by arranging a speaker and the closed curved surface formed by arranging a microphone in a reproduction environment. It is explanatory drawing about the shape of a closed curved surface. It is the figure which showed the case where the closed curved surface formed with the microphone in the reproduction environment is set inside the closed curved surface formed with the speaker. It is the figure which showed the relationship of the closed curved surface in the measurement environment corresponding to the case shown in FIG. It is the figure which illustrated the composition for obtaining the output equivalent to a directional microphone using the omnidirectional microphone.
- the site A means a place where the user 0 is to be immersed, that is, a place where the scene or the spread of sound is desired to be reproduced (a place to be reproduced).
- the site B in the figure means a place where a scene to be reproduced and a sound spread are reproduced. This site B may be considered as the room of the user 0 itself, for example.
- a plurality of speakers 2B arranged so as to surround the user 0 and a display device 3 for displaying an image are installed.
- the reproduction method realized by the signal processing system according to the present embodiment roughly includes displaying the image information corresponding to the site A by the display device 3 arranged at the site B, and a plurality of the same.
- the sound field 100 of the site A is reproduced by the speaker 2B.
- FIG. 1 illustrates the display device 3 having only one display surface, but in order to increase the immersive feeling, the front / left / right / up / down as shown in FIG. It is desirable to arrange the display device 3 having at least five display surfaces.
- the site to be reproduced as the site A can be selected from a plurality of candidates.
- the location to be reproduced is designated by the user 0, for example.
- an arbitrary position is designated from the map image displayed on the display device 3. From the position information of the designated position, a place corresponding to the position is specified, and the place is reproduced by the image and sound as described above.
- a space surrounding the user 0 is formed by the plurality of speakers 2B on the side B shown in FIG.
- a space formed by a plurality of microphones in addition to the space surrounded by a plurality of speakers as described above, there is also a space formed by a plurality of microphones.
- the interface of the space formed by surrounding a plurality of speakers or microphones in this way in other words, the interface of the space formed by connecting the plurality of speakers or microphones is referred to as “acoustics”. It will be referred to as “closed curved surface” or simply “closed curved surface”.
- the acoustic closed surface formed by the plurality of speakers 2B in the site B is referred to as a closed surface 1B.
- the microphone may be simply abbreviated as a microphone.
- the sound field of site A is reproduced at site B.
- the present embodiment mainly uses two methods shown in FIG. (Method 1 and Method 2) are proposed.
- Method 1 the sound generated by the user 0 located inside the closed curved surface 1B at the site B (for example, the voice emitted by the user 0, the collision sound when an object is dropped, or the tableware or the like touches when eating)
- the sound field 100 in which the sound of time, etc. feels reverberating at the site A is reproduced by the plurality of speakers 2B.
- sounds emitted by the user 0 are collected in real time by a plurality of microphones 5B arranged so as to surround the user 0, and processed by a corresponding transfer function.
- an acoustic signal for reproducing the sound field is generated.
- the user 0 can perceive the impression of the space acoustically not only based on the image but also based on the sound emitted by the user 0. In other words, this makes it possible to increase the feeling of immersion.
- Method 2 is to cause the user 0 in the closed curved surface 1B to perceive the environmental sound at the site A to be reproduced, including the reverberation at the site A.
- the closed curved surface 1B is in the site A as shown in the figure, and the sound is emitted at a certain position outside the closed curved surface 1B in the site A, the sound is
- there may be a component of reflected sound / reverberation sound (different for each material / structure) through the structure or obstacle in the site A.
- the environmental sound in the site A is perceived including such a reverberant sound.
- FIG. 4 is a diagram for explaining a transfer function measurement technique for realizing sound field reproduction according to the embodiment.
- FIG. 4A schematically shows a plurality of microphones 5A arranged in the site A for measurement.
- 4B schematically shows a measurement technique (denoted as measurement 1) corresponding to technique 1
- FIG. 4C schematically shows a measurement technique (measurement 2) corresponding to technique 2.
- FIG. 4D schematically shows a method of recording the environmental sound of the site A as it is by using the plurality of microphones 5A arranged at the site A.
- an interface of a space surrounded by a plurality of microphones 5A arranged for measurement at site A is defined as a closed curved surface 1A.
- the closed curved surface 1A should have the same size and shape as the closed curved surface 1B of the site B where the user 0 is located.
- the microphones 5A on the closed curved surface 1A are arranged in the same number and in the same positional relationship as the speakers 2B on the closed curved surface 1B.
- the transfer function used when processing the sound emitted by the user 0 himself who is inside the closed curved surface 1B by the method 1 shown in FIG. 3 is measured.
- the sound (measurement signal) emitted outward from the measurement speaker 2A arranged at the site A is affected by the echoes at the site A, and each of the sounds arranged at the site A is also the same.
- a transfer function (impulse response) representing how to reach the microphone 5A is measured. Therefore, using this transfer function, the signal (sound emitted by the user 0) picked up by the microphone 5B at the site B is processed and output by the speaker 2B, so that the sound emitted by the user 0 is reflected at the site A.
- the sound field 100 that feels like this can be constructed at the site B.
- the measurement speaker 2A is arranged inside the closed curved surface 1A where a plurality of microphones 5A are arranged, and this is measured at the site B as a reproduction environment.
- the positional relationship between the closed curved surface 1B and the closed curved surface 4B can be reversed.
- the measurement speaker 2A is disposed outside the closed curved surface 1A (FIG. 5 and the like). See).
- the environmental sound of the site A is collected by the plurality of microphones 5A arranged at the site A, and the collected sound signals are closed.
- This can be realized by outputting from the corresponding speakers 2B on the curved surface 1B (especially when the number of speakers 2A arranged at the site B and the number of microphones 5A arranged at the site A are the same and have the same arrangement relationship. ).
- the recorded environmental sound is simply played in this way, it is necessary to record multiple times at that site when trying to reproduce two or more environmental sounds for one site. There are problems such as.
- object-based audio will be briefly described.
- sound recorded on conventional media such as CD (Compact Disc) and DVD (Digital Versatile Disc) is a package completed for each channel under the intention of the production side, and each channel contained in the package The sound signal has been made to correspond to the corresponding speaker channel, and the sound quality and sound field intended by the production side have been realized.
- CD Compact Disc
- DVD Digital Versatile Disc
- the sound field / sound quality that we want to hear is a set of “meta information” of “acoustic stream signal of each sound source” and “how the sound source moves and where it is” "Object-based audio (or sound field expression)” that entrusts the playback environment side to realize how to implement (render) according to the playback environment.
- An idea came out. With this object-based method, not only in the current situation where the playback environment is diversifying, but also in the case where the playback environment has improved dramatically in the future, the playback environment will be in accordance with the intention of the creator.
- the sound field and sound quality can be reproduced according to the nature and performance of the sound.
- renderers that realize the above "rendering”
- various renderers depending on the playback environment, ranging from the renderer for headphones to the sound field renderer with a large number of speakers for 22.2ch systems and Immersive environments.
- WFS Wide Field Synthesis
- BoSC Boundary Surface Control Principle
- Kirchhoff integration Various techniques are known, such as a technique that simplifies the rules (Japanese Patent No. 4775487, Japanese Patent No. 4675505, etc.).
- the sound source to be localized at an arbitrary position outside the closed curved surface 1B is localized at the position, and the position A transfer function for allowing the user 0 to perceive a more emitted sound in the form of being reverberated at the site A is measured.
- the sound (measurement signal) emitted from the measurement speaker 2A arranged at an arbitrary position outside the closed curved surface 1A where the plurality of microphones 5A are arranged is reflected on the site A.
- a transfer function (impulse response) representing how to reach each microphone 5A is measured including the influence.
- sound field reproduction using the transfer functions measured in Measurement 1 and Measurement 2 is realized based on the following concept. That is, assuming a wavefront when a sound reaching the closed curved surface 1B intersects the closed curved surface 1B, the assumed wavefront is reproduced from a plurality of speakers 2B so as to create the assumed wavefront inside the closed curved surface 1B. Is.
- FIG. 5 shows a plurality of speakers 2B and a closed curved surface 1B, a plurality of microphones 5B and a closed curved surface 4B arranged in a site B (reproduction environment) where the user 0 is located.
- the microphone 5B disposed at the site B is provided to collect sound generated by the user 0 in real time.
- the microphone 5B in order to realize a system in which the sound emitted by the user 0 located inside the closed curved surface 4B is output from the speaker 2B with the influence of reverberation at the site A, the microphone 5B is inward (closed curved surface 4B It is necessary to have directivity in the inner direction). For this reason, in this example, a directional microphone is used as each microphone 5B, and the microphone 5B is installed so that its directing direction is inward of the closed curved surface 4B.
- the speaker 2B is installed so that the sound generation direction is inward of the closed curved surface 1B. That is, a directional speaker is used as the speaker 2B, and the directivity is set inward.
- the direction of directivity is preferably perpendicular to the closed curved surface.
- the number of speakers 2B arranged at the site B is N and the number of microphones 5B arranged at the site B is M.
- the microphone 5B is disposed at each position of V1, V2, V3,..., VM on the closed curved surface 4B, and the speaker 2B is respectively W1, W2, W3,. ...
- the microphones 5B arranged at the respective positions may be referred to as microphones V1, V2, V3,.
- the speaker 2B may be referred to as speakers W1, W2, W3,.
- FIG. 6 and 7 are explanatory diagrams of a specific method for measuring the transfer function as the measurement 1.
- FIG. 6 and 7 show a plurality of speakers 2A and a closed curved surface 1A, and a plurality of microphones 5A and a closed curved surface 4A in the site A (measurement environment).
- the speaker 2A and the microphone 5A of the site A are obtained for the purpose of obtaining a transfer function for causing the user 0 to perceive the sound emitted from the user 0 and affected by the echo at the site A.
- 5A needs to have outward directivity. From this point, a directional speaker is used as the speaker 2A and the directivity is outward, and a directional microphone is also used as the microphone 5A so that the directivity direction is outward as shown in the figure. . Also in this case, it is desirable that the direction of directivity is perpendicular to the closed curved surface.
- the closed curved surface 4A at the site A has the same size and shape as the closed curved surface 4B at the site B, and the positional relationship (Q1, Q2, Q3, etc.) of each speaker 2A on the closed curved surface 4A. .., QM arrangement order and arrangement interval thereof) are the same as the positional relationship of the microphones 5B on the closed curved surface 4B (V1, V2, V3,..., VM arrangement order and arrangement interval thereof).
- the closed curved surface 1A at the site A has the same size and shape as the closed curved surface 1B at the site B, and the positional relationship of each microphone 5A on the closed curved surface 1A (R1, R2, R3,... It is assumed that the arrangement order and the arrangement interval thereof are the same as the positional relationship (the arrangement order of W1, W2, W3,..., WN and the arrangement interval thereof) of each speaker 2B on the closed curved surface 1B.
- the measurement sound is sequentially output from the speaker 2A at each position (Q1 to QM) on the closed curved surface 4A, and each of the closed surface 1A is output from the speaker 2A that outputs the measurement sound.
- Each transfer function up to the position (R1 to RN) of the microphone 5A is sequentially obtained.
- FIG. 6 shows a state in which the measurement sound is output from the speaker 2A at the position Q1, and the measurement sound affected by the reflection at the site A is collected by the microphones 5A of R1 to RN.
- N transfer functions from the speaker 2A at the position of Q1 to each microphone 5A of R1 to RN can be obtained based on the sound pickup signal of each microphone 5A thus obtained.
- the measurement sound a sound based on a TSP (Time Stretched Pulse) is also output, and the impulse response is measured from the collected sound signal.
- the impulse response data is a transfer function representing how a sound emitted from a certain speaker 2A reaches a certain microphone 5A under the influence of the echo of the site A.
- FIG. 7 shows a state in which the measurement sound is output from the speaker 2A at the position Q2, and the measurement sound affected by reflection at the site A is collected by the microphones 5A of R1 to RN. Based on the sound pickup signal of each microphone 5A obtained in this way, the impulse response from the speaker 2A at the position Q2 to each microphone 5A of R1 to RN is measured. As a result, N transfer functions from the speaker 2A at the position of Q2 to each of the microphones 5A of R1 to RN can be obtained.
- the measurement of the transfer function based on the collected sound signal by the microphones 5A of R1 to RN is executed up to the QM position by sequentially changing the speaker 2A that outputs the measurement sound.
- N transfer functions (denoted as QR 11 to QR 1N ) from the speaker 2A of Q1 to each microphone 5A of R1 to RN, and from the speaker 2A of Q2 to each microphone 5A of R1 to RN N transfer functions (denoted as QR 21 to QR 2N ),..., N transfer functions (denoted as QR M1 to QR MN ) from the speaker 2A of the QM to each microphone 5A of the R1 to RN, A total of M ⁇ N transfer functions are obtained.
- the measurement sound can be sequentially output at each position of Q1 to QM, and the number of speakers 2A required for this purpose is at least one. That is, the measurement necessary to obtain the above M ⁇ N transfer functions can be performed by sequentially arranging and sounding one speaker 2A at each position of Q1, Q2, Q3,..., QM. it can. However, since it is troublesome to move the speaker 2A for each measurement, in this example, the speaker 2A is arranged at each position of Q1 to QM, and the speaker 2A that outputs the measurement sound is sequentially selected from the speakers 2A. By selecting, it is assumed that M ⁇ N transfer functions are measured.
- the transfer function that is measured in the measurement 1 and represents how the sound generated by the user 0 is transmitted in response to the echo at the site A is also referred to as a first transfer function.
- FIG. 8 is an explanatory diagram of a system configuration for measuring a transfer function as the measurement 1 described above. As shown in FIG. 8, in order to realize measurement 1, M speakers 2A, N microphones 5A, and a measuring device 10 are provided.
- the measuring apparatus 10 includes M terminal portions 11 (11-1 to 11-M) for connecting M speakers 2A and N terminal portions 12 (for connecting N microphones 5A). 12-1 to 12-N).
- an ADC A / D converter
- amplifier unit 13 a transfer function measuring unit 14
- control unit 15 a measurement signal output unit 16
- DAC D / A converter
- amplifier unit 17 and a selector 18 are provided.
- the measurement signal output unit 16 outputs a TSP signal as a measurement signal to the DAC / amplifier unit 17 based on control by the control unit 15.
- the DAC / amplifier unit 17 D / A converts and amplifies the input measurement signal and outputs it to the selector 18.
- the selector 18 alternatively outputs the measurement signal input from the DAC / amplifier unit 17 to the terminal unit 11 (that is, the speaker 2A) designated by the control unit 15 among the terminal units 11-1 to 11-M. To do.
- the ADC / amplifier unit 13 amplifies and A / D-converts the collected sound signal from each microphone 5 ⁇ / b> A input from each terminal unit 12 and outputs the signal to the transfer function measurement unit 14.
- the transfer function measurement unit 14 measures an impulse response (transfer function) based on the collected sound signal from each microphone 5 ⁇ / b> A input from the ADC / amplifier unit 13.
- the control unit 15 is configured by a microcomputer including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and executes processing according to a program stored in the ROM or the like. Thus, the entire control of the measuring apparatus 10 is performed.
- the control unit 15 in this case controls the measurement signal output unit 16, the selector 18, and the transfer function measurement unit 14 so that the measurement operation as the measurement 1 described above is realized.
- the measurement signal output unit 16 and the selector 18 are controlled so that sound generation based on the measurement signal is sequentially performed from the respective speakers 2A of Q1, Q2, Q3,.
- the measurement timing by the transfer function measuring unit 14 is controlled so that the transfer function is measured based on the collected sound signal by each microphone 5A.
- the above-described measurement of M ⁇ N transfer functions is realized.
- the impulse response which is the time axis representation of the transfer function, includes direct sound and early reflection sound in addition to the reverberation sound component as shown in FIG. 9 depending on the directivity of each speaker and microphone. In some cases, these may be an impediment to the presence of the presence.
- the direct sound means sound emitted from the speaker 2A (without passing through reflection at the site A) and directly reaching the microphone 5A.
- the measured impulse response is decomposed into direct sound, early reflection sound, and reverberation sound on the time axis, and the balance is changed to re-synthesize.
- FIG. 10 shows a configuration for that purpose.
- the impulse response measurement data in the figure means impulse response data (time-axis waveform data) measured based on a sound collection signal from the microphone 5A.
- the impulse response measurement data is decomposed into a direct sound, initial reflected sound, and reverberation sound on the time axis by the signal component decomposition processing unit 19 as shown in the figure.
- the multipliers 20 and 21 change the balance (level adjustment), respectively.
- the adder 22 adds the components of the direct sound and the initial reflected sound that have been balanced in this way and the reverberant sound component obtained by the signal component decomposition processing unit 19. It is assumed that the transfer function used in this example is obtained by subjecting the measured (raw) impulse response data to the component decomposition / balance adjustment as described above.
- FIG. 11 is an explanatory diagram of a specific method of measuring a transfer function as the measurement 2.
- the measurement 2 is performed in such a manner that the sound source to be localized at an arbitrary position outside the closed curved surface 1B is localized at the position, and the sound emitted from the position is reflected by the site A. How the sound emitted from the measurement speaker 2A arranged at an arbitrary position outside the closed curved surface 1A reaches each microphone 5A including the influence of reverberation at the site A.
- a transfer function impulse response
- the speaker 2A is arranged at a position at the site A where the sound source to be reproduced is to be localized, and the measurement sound output by the speaker 2A is collected by each microphone 5A on the closed curved surface 1A.
- Each measures impulse response.
- the same transfer function is measured at a plurality of positions in the site A. For example, after measuring the transfer function by emitting the measurement sound at the position of the speaker 2A indicated by the solid line in FIG. 11 and collecting the sound by each microphone 5A, the measurement sound is emitted at the position of the speaker 2A indicated by the broken line. In addition, the transfer function is measured by collecting sound by each microphone 5A. As described above, when there are a plurality of “positions where the sound source is to be localized”, the transfer function is measured for each “position where the sound source is to be localized”.
- the measurement 2 can obtain a transfer function that can express the directivity of the sound source depending on the direction in which the speaker 2A that emits the measurement sound is directed to the closed curved surface 1A. It is.
- the measurement 2 as described above can also be realized by using the measurement apparatus 10 shown in FIG.
- the number of connected speakers 2A is a number corresponding to the number of positions where the sound source is to be localized.
- the control unit 15 causes the selector 18 to sequentially select the speakers 2A to which the measurement sound is to be output, and the output timing of the measurement sound.
- the transfer function measuring unit 14 is controlled to execute the transfer function measurement process in synchronization with the above.
- the first transfer function includes the N transfer functions (QR 11 to QR 1N ) from the Q2 speaker 2A to the R1 to RN microphones 5A, and the Q2 speakers 2A to R1 to RN microphones 5A. Up to N transfer functions (QR 21 to QR 2N ),..., The total M ⁇ N of N transfer functions (Q R M1 to QR MN ) from the QM speaker 2A to the R1 to RN microphones 5A It is a piece.
- the number of speakers 2B arranged on the closed curved surface 1B is N, and therefore it is understood that the acoustic signals to be finally obtained are N systems.
- N the number of speakers 2B arranged on the closed curved surface 1B
- the acoustic signals to be finally obtained are N systems.
- the V 1 ⁇ V M is intended to mean a sound collection signal of the microphone V1 ⁇ VM.
- the W 1 signal the sounds emitted in the directions V1 to VM (Q1 to QM) are transferred to the W1 (R1) by the transfer functions (QR 11 , QR 21 ,..., QR M1 ), respectively.
- M signals obtained by processing with the corresponding one transfer function are added together.
- W 2 V 1 ⁇ QR 12 + V 2 ⁇ QR 22 + V 3 ⁇ QR 32 + ... + V M ⁇ QR M2
- W 3 V 1 ⁇ QR 13 + V 2 ⁇ QR 23 + V 3 ⁇ QR 33 + ... + V M ⁇ QR M3 It can be expressed as.
- the W 2 signal, the transfer function of the sound output in each direction V1 ⁇ VM (Q1 ⁇ QM) to each W2 (R2) (QR 12, QR 22, ⁇ , QR M2) of the corresponding M signals obtained by processing with a transfer function of 1 are added together, and the W 3 signal is a sound obtained in each direction of V1 to VM (Q1 to QM) by W3 (R3).
- the transfer functions QR 13 , QR 23 ,..., QR M3
- the M signals obtained by processing with the corresponding one transfer function are added.
- the other signals W 4 to W N are obtained in the same manner.
- Each of the speakers W1 to WN is made to cause the user 0 to perceive the sound field in which the sound generated by the user 0 in the closed curved surface 1B feels reverberating at the site A by performing the calculation represented by the above formula 2.
- Signals W 1 to W N to be output from 2B can be obtained.
- the method 2 using the second transfer function allows the user 0 to perceive the environmental sound at the site A including the echo at the site A.
- the processing by the transfer function is not performed on the sound collection signal from the microphone 5B.
- processing based on the second transfer function is performed on a predetermined sound source recorded in advance, not on a sound pickup signal from the microphone 5B.
- the processing is performed on a predetermined sound source using the second transfer function that is measured N for each placement position of one speaker 2A according to the previous measurement 2, so that the placement is performed on the site B as a reproduction environment.
- a signal to be output is obtained from each speaker 2B.
- N signals may be obtained by processing with the second transfer function, and these signals may be output from the corresponding one of the speakers 2B of W1 to WN in the reproduction environment.
- N second transfer functions obtained by measuring an acoustic signal based on the sound source A with respect to the position a.
- the acoustic signal based on the sound source B is processed with N second transfer functions obtained by the measurement for the position b, and N signals are obtained.
- Get a signal The N signals obtained for the sound source A side and the sound source B side are added for each position (W1 to WN) of the speaker 2B, and the signal to be output from the speaker 2B at each position of W1 to WN. Get.
- FIG. 12 is a diagram for explaining a configuration of a signal processing system for realizing the signal processing technique according to the embodiment described above.
- the signal processing system according to the present embodiment includes at least M microphones 5B, a signal processing device 30, N speakers 2B, a display device 3, and a server device 25. Configured.
- the server device 25 stores map data 25A, image data 25B, first transfer function information 25C, correspondence relationship information 25D, and object base data 25E.
- the map data 25A is data used for displaying the above map information (map image). Further, the image data 25B is image data regarding a place to be reproduced, for example, image data obtained by photographing the state of each place to be reproduced.
- the first transfer function information 25C represents information on the first transfer function measured for each place to be reproduced by the measurement 1 described above.
- the object base data 25E comprehensively represents the object base data used in the sound field reproduction as the method 2.
- the object base data 25E includes second transfer function information 25E1 that is information of a second transfer function measured for each place to be reproduced in the previous measurement 2, and an object separation sound source 25E2.
- the object separation sound source 25E2 is a sound source that exists at a location to be reproduced, and this can be considered as a required sound source extracted from a recorded signal at a location to be reproduced, for example.
- noise removal and reverberation suppression are performed on the recorded signal. Thereby, it is possible to obtain sound source data having a good S / N (noise-to-noise ratio) and suppressing reverberation. That is, sound source data suitable for object-based sound field reproduction can be obtained.
- the correspondence relationship information 25D is information used for realizing the operation of the system to display an image corresponding to a place corresponding to the designated position information and reproduce the sound field corresponding to the place. As shown in FIG. 13, the location, the image to be displayed corresponding to the location, the first transfer function used in the sound field reproduction of Method 1 corresponding to the location, and the location The information is obtained by associating the object separation sound source (object sound source in the figure) and the second transfer function used in the sound field reproduction of the method 2 described above.
- the image data, the first transfer function, the second transfer function, and the object separation sound source are each managed by an ID.
- the correspondence information 25D the image data to be used corresponding to the place, the first transfer function, the second transfer function, and the ID for the object separation sound source are described. From the ID, the image data 25B, the first transfer Of the actual data stored as the function information 25C, the second transfer function information 25E1, and the object separation sound source 25E2, actual data actually used can be specified.
- correspondence information 25D shown in this figure two object-separated sound sources and second transfer functions are associated with one place for each of the data used in the sound field reproduction of method 2, This corresponds to a method of localizing two sound sources at different positions for each place.
- the signal processing device 30 includes a communication unit 44.
- data communication can be performed with the server device 25 via a network 26 such as the Internet.
- the signal processing device 30 has M terminal portions 31 (31-1 to 31-M) for connecting M microphones 5B and N terminal portions 39 for connecting N speakers 2B. (39-1 to 39-N) are provided.
- the signal processing device 30 is also provided with a terminal portion 43 for connecting the display device 3 shown in FIG.
- the signal processing apparatus 30 includes an ADC / amplifier unit 32, adders 33-1 to 33-M, howling control / echo cancel units 34 and 36, a matrix convolution unit 35, and adders 37-1 to 37-.
- N DAC / amplifier section 38, control section 40, operation section 41, display control section 42, communication section 44, memory 45, reference sound reproduction section 46, and bus 48 are provided.
- the matrix convolution unit 35, the control unit 40, the display control unit 42, the communication unit 44, the memory 45, the reference sound reproduction unit 46, and the rendering unit 47 are each connected to a bus 48, and are connected via the bus 48. Thus, mutual data communication can be performed.
- the collected sound signals from the microphones 5B input via the terminal units 31-1 to 31-M are A / D converted and amplified for each channel by the ADC / amplifier unit 32.
- the collected sound signal from each microphone 5B A / D converted and amplified for each channel by the ADC / amplifier unit 32 is input to the adder unit 33 of the corresponding channel among the adder units 33-1 to 33-M.
- the sound signal as the reference sound reproduced by the reference sound reproduction unit 46 is added to the collected sound signals of the channels V1 to VM. This will be explained later.
- the collected sound signals via the adding units 33-1 to 33-M are supplied to the howling control / echo canceling unit 34.
- This howling control / echo canceling unit 34 is provided together with the howling control / echo canceling unit 36 provided at the subsequent stage of the matrix convolution unit 35 in order to avoid feedback by feedback.
- these howling control / echo canceling units 34 and 36 are connected so that both can perform the cooperative processing.
- the microphone 5B and the speaker 2B are arranged in a reproduction environment, but the microphone 5B and the speaker 2B are arranged relatively close to each other. There is a possibility that an excessive oscillation operation may occur due to the action. Therefore, in this example, howling control / echo cancellation units 34 and 36 are provided to prevent the occurrence of such an excessive oscillation operation.
- the matrix convolution unit 35 performs processing based on the first transfer function on each signal picked up by each microphone 5B and input via the howling control / echo canceling unit 34, so that the sound field as the technique 1 is obtained. In order to realize reproduction, a signal to be output from each speaker 2B is generated. Specifically, the matrix convolution unit 35 applies the first transfer function (QR 11 ) instructed by the control unit 40 to the M signals (V 1 to V M ) input from the howling control / echo cancellation unit 34. ⁇ QR MN ) to generate N signals to be output from each speaker 2B in order to realize sound field reproduction as Method 1.
- FIG. 14 shows a specific internal configuration example of the matrix convolution unit 35.
- the FIR Finite Impulse
- the FIR Finite Impulse
- V 1 to V M represent signals input to the matrix convolution unit 35 via the howling control / echo cancellation unit 34, as can be understood from FIG.
- Signals W 1 to W N represent signals input from the matrix convolution unit 35 to the howling control / echo cancellation unit 36.
- the filter 50 in this case is an FIR digital filter.
- the matrix convolution unit 35 is provided with N filters 50 (the end is 1 to N) for each of the signals V 1 to V M.
- a filter 50-11 ⁇ 50-1N inputting signals V 1 and the filter 50-21 ⁇ 50-2N inputting signals V 2, and inputs the signal V M filter 50-M1 ⁇ 50-MN It is shown as a representative.
- filter coefficients based on the first transfer functions QR 11 to QR 1N corresponding to the position of V1 (Q1) are set in the filters 50-11 to 50-1N to which the signal V 1 is input.
- the filter 50-21 ⁇ 50-2N inputting signals V 2 the filter coefficient based on the first transfer function QR 21 ⁇ QR 2N is set corresponding to the position of the V2 (Q2), and inputs the signal V M
- Filter coefficients based on the first transfer functions QR M1 to QR MN corresponding to the position of VM (QM) are set in the filters 50-M1 to 50-MN.
- each of the N filters 50 for inputting other signals also has N first filters corresponding to the microphone 5B positions where the signals are collected. Filter coefficients based on the transfer function are respectively set.
- the matrix convolution unit 35 is provided with N addition units 51 (51-1 to 51-N). These adders 51-1 to 51-N input corresponding signals among the signals subjected to the filter processing based on the corresponding first transfer function in the respective filters 50, and obtain signals W 1 to W N. Add. Specifically, the signal obtained by the filter 50 ending in one of the filters 50 is input to the adder 51-1 and the signal obtained by the filter 50 ending in 2 is input to the adder 51-2. Signal is input. Further, the signal obtained by the filter 50 ending in N is input to the adder 51-N. That is, M signals processed by the first transfer function at positions corresponding to the last numerical value among the positions W1 to WN (R1 to RN) are input to the adders 51-1 to 51-N. Is. Each of the adders 51-1 to 51-N adds (synthesizes) the M signals thus input.
- time axis calculation may be performed as time axis calculation.
- frequency calculation multiplication by a transfer function is performed.
- the N signals (W 1 to W N ) obtained by the matrix convolution unit 35 are processed by the howling control / echo cancellation unit 36 for each channel, and correspond to the addition units 37-1 to 37-N.
- the signals are input to the channel addition units 37, respectively.
- the addition units 37-1 to 37-N add the signal input from the rendering unit 47 to the signal input from the howling control / echo cancellation unit 36 and output the result to the DAC / amplifier unit 38.
- the DAC / amplifier unit 38 performs D / A conversion and amplification on the output signals from the adders 37-1 to 37-N for each channel, and outputs them to the terminal units 39-1 to 39-N.
- the speakers 2B of the respective channels W1 to WN perform sound generation according to the acoustic signals of the corresponding channels.
- the rendering unit 47 is provided to perform signal processing for realizing sound field reproduction as the technique 2.
- the rendering unit 47 performs processing based on the second transfer function similarly transmitted from the server device 25 via the network 26 to the object separation sound source transmitted from the server device 25 via the network 26 according to the instruction from the control unit 40.
- N types of acoustic signals to be output from each speaker 2B are generated.
- the rendering unit 47 obtains the sound sources by processing each sound source with the corresponding second transfer function (N). By adding the N systems of acoustic signals for each channel, N systems of acoustic signals to be output from each speaker 2B are obtained.
- the display control unit 42 performs display control of the display device 3 connected via the terminal unit 43. Specifically, the display control unit 42 in this case is transmitted from the server device 25 via the network 26 or an image based on the map data transmitted from the server device 25 via the network 26 based on an instruction from the control unit 40. An image based on the obtained image data is displayed on the display device 3.
- the memory 45 stores various data.
- the memory 45 in this case is used for temporarily storing (buffering) the data transmitted from the server device 25.
- the control unit 40 is composed of, for example, a microcomputer including a CPU, a ROM, a RAM, and the like, and performs overall control of the signal processing device 30 by executing processing according to a program stored in the ROM or the like, for example.
- An operation unit 41 is connected to the control unit 40, and the control unit 40 receives operation information corresponding to the operation by the user 0 performed on the operation unit 41, and corresponds to the operation information. By executing the processing, an operation corresponding to the operation by the user 0 is realized.
- control unit 40 in this case achieves the reproduction operation as the embodiment by executing the processing shown in FIG.
- FIG. 15 is a flowchart showing the contents of processing to be executed in the present system in order to realize the reproduction operation as the embodiment.
- the processing indicated as the signal processing device is executed by the control unit 40 included in the signal processing device 30, and the processing indicated as the server device is performed by the control unit (not shown) provided in the server device 25. Is to be executed.
- the processing shown in this figure is started, it is assumed that the required position information has already been specified based on the operation input of the user 0 via the operation unit 41.
- control unit 40 of the signal processing device 30 performs a process for transmitting the designated position information to the server device 25 in step S101. That is, the communication unit 44 causes the designated position information to be transmitted to the server device 25 via the network 26.
- the control unit of the server device 25 specifies a location corresponding to the designated position information in step S201.
- the location is identified with reference to, for example, predetermined positional information and location correspondence information.
- the control unit of the server device 25 receives the image data, the first transfer function, the second transfer function, and the object separation sound source corresponding to the location specified in step S202 as the signal processing device 30. Send to. Specifically, based on the correspondence information 25D, the image data 25B, the first transfer function information 25C, the second transfer function information 25E1, and the image data stored as the object separation sound source 25E2, the first transfer function, the second Of the transfer function and the object separation sound source, the image data corresponding to the specified location, the first transfer function, the second transfer function, and the object separation sound source are transmitted to the signal processing device 30.
- step S102 the image display, Process execution control using the second transfer function is performed. That is, for the image data transmitted from the server device 25 side, the display control unit 42 is instructed so that the image data is displayed on the display device 3. For the first transfer function transmitted from the server device 25 side, the matrix convolution unit 35 is instructed to execute the calculation of Expression 2 based on the first transfer function. For the second transfer function and the object separation sound source transmitted from the server device 25 side, the rendering unit 47 performs rendering processing based on the second transfer function and the object separation sound source. Give instructions.
- an image corresponding to the place specified from the designated position information can be presented to the user 0, and the sound field felt as if the sound emitted by the user 0 was reverberated at the place specified from the designated position information. And the environment sound of the place can be perceived by the user 0 including the reverberation sound at the place.
- the reference sound reproduction unit 46 is provided to output the reference sound.
- the reference sound not the real-time recording sound at the site B but sound data prepared in advance (which may be based on the collected sound or may be an artificial sound) is used.
- the intention is an echo location as in Method 1, and even if the location to be reproduced is different, the same sound source material is continuously output, so that the space is indicated in acoustic information. Is possible. In this case, it is possible to grasp the structure of the place by acoustic information with higher reproducibility than when only the sound collected in real time is processed and output by the first transfer function.
- the reference sound reproduced by the reference sound reproducing unit 46 is collected by the adder units 33-1 to 33-M and collected by the microphones 5B (A / D conversion and ADC / amplifier unit 32). Each is added after amplification).
- the matrix convolution unit 35 performs the calculation according to Equation 2 based on the collected sound signals (V 1 to V M ) of each channel to which the reference sound is added in this way.
- N-system signals (W 1 to W N ) obtained by such processing by the matrix convolution unit 35 are transferred via a howling control / echo canceling unit 36 ⁇ adding unit 37 ⁇ DAC / amplifying unit 38 ⁇ terminal unit 39. Each is output by the corresponding speaker 2B.
- the rendering process for realizing the method 2 is executed by the signal processing device 30 placed on the reproduction environment side where the user 0 is present is illustrated, but the rendering process is performed in the reproduction environment. It can also be performed by a required server device on the network 26 (that is, performed in a so-called cloud) that is separated from the network.
- FIG. 16 shows a system configuration example in the case where rendering processing for method 2 is performed on the cloud.
- the server apparatus 25 which stores data, such as map data 25A and 1st transfer function information 25C, and the server apparatus which performs a rendering process And may be separate.
- a rendering unit 52 is provided in the server device 25.
- the signal processing device 30 includes an output control unit 53 instead of the rendering unit 47.
- the server device 25 performs rendering processing using the second transfer function and the object separation sound source corresponding to the location in the rendering unit 52 in response to the location based on the designated position information being specified.
- the rendered acoustic signal (N system) obtained by the rendering unit 52 is transmitted from the server device 25 to the signal processing device 30.
- the control unit 40 in the signal processing device 30 in this case corresponds to the N-system acoustic signals transmitted from the server device 25 in this way by the output control unit 53 among the addition units 37-1 to 37-N. Each of the channels is output to the channel addition unit 37.
- whether the rendering process is performed on the signal processing device 30 side (local side) or on the cloud may be appropriately switched according to the speed of the network, the ratio of the cloud / local processing capability, and the like.
- the first transfer function information 25C and the object base data 25E are all stored in the server device 25. However, at least one of these pieces of information is stored in the signal processing device 30 side. You may let them. In that case, in the signal processing device 30, information on the first transfer function, the object separation sound source, and the second transfer function at the location specified from the designated position information is acquired from the storage unit in the signal processing device 30 and used for processing. It will be.
- FIG. 17 shows an example of the relationship between the closed curved surface 1B and the closed curved surface 4B.
- FIG. 17A is an example in which the closed curved surface 1B is set so as to surround the user 0 and the closed curved surface 1B is set inside the closed curved surface 4B.
- FIG. 17B is an example in which the closed curved surface 1B and the closed curved surface 4B are closer to each other in the example shown in FIG. 17A.
- FIG. 17C is an example in which the closed curved surface 1B and the closed curved surface 4B are both set to surround the user 0, but a part of the closed curved surface 1B protrudes outside the closed curved surface 4A.
- FIG. 17A is an example in which the closed curved surface 1B is set so as to surround the user 0 and the closed curved surface 1B is set inside the closed curved surface 4B.
- FIG. 17B is an example in which the closed curved surface 1B and the closed curved surface 4B are closer to each other in the example shown
- 17D is set so that only the closed curved surface 4B surrounds the user 0 in the example of FIG. 17C.
- the closed curved surface 1B is set inside the closed curved surface 4B and the closed curved surface 4B is set to surround the user 0.
- the closed curved surface 1B is set to surround the user 0. It is not.
- the closed curved surface 1B and the closed curved surface 4B may be set so that at least a part of them overlaps with each other. If the user exists in the overlapping area, the present technology is appropriately applied. It holds.
- the shape of the closed curved surface formed by the microphone and the speaker is not particularly limited as long as it can surround the user 0.
- the closed curved surface 1B-2 or a polygonal closed curved surface 1B-3 may be used.
- 18 illustrates the shape of the closed curved surface 1B formed by the plurality of speakers 2B, but the same applies to the shape of the closed curved surface 4B formed by the plurality of microphones 5B.
- the arrangement intervals of the speakers and the microphones on the closed curved surface should be arranged at intervals of a half wavelength or less of the target frequency.
- the number of speakers and microphones may be enormous. In practice, it is desirable to experience the effect and set a realistic number.
- the closed curved surface 1B is inside the closed curved surface 4B, and the closed curved surface 4B is larger in size than the closed curved surface 1B. There is no problem even if the size is larger than the closed curved surface 4B.
- FIG. 19 shows a case where the closed curved surface 4B is set inside the closed curved surface 1B.
- the closed curved surface 4B is arranged inside the closed curved surface 1B in this way, in the site A as the measurement environment, the closed curved surface 4A on which the speaker 2A is arranged is arranged with the microphone 5A as shown in FIG. It is set inside the closed curved surface 1A.
- FIG. 21 shows an example of a configuration for obtaining an output equivalent to a directional microphone using the omnidirectional microphone 5A or 5B.
- microphones 5A or 5B are arranged in order from the end to the first to fifth as shown in the figure.
- two delay circuits each set of three, are provided (a set of delay circuits 54-11 to 54-13, and A set of delay circuits 54-21 to 54-23).
- the outputs from the delay circuits 54-11 to 54-13 are added by the adder 55-1, and the outputs from the delay circuits 54-21 to 54-23 are added by the adder 55-2 and output. Is done.
- the delay circuit 54-11 has the output of the first microphone 5A or 5B
- the delay circuit 54-12 has the output of the second microphone 5A or 5B
- the delay circuit 54-13 has the third microphone 5A or 5B.
- 5B outputs are input respectively.
- the delay circuit 54-21 has an output from the second microphone 5A or 5B
- the delay circuit 54-22 has an output from the third microphone 5A or 5B
- the delay circuit 54-23 has a fourth microphone 5A.
- the output of 5B is input.
- the sound collection signals of the first to third microphones 5A or 5B are output as the output of the adder 55-1.
- a sound pickup signal in a predetermined first direction that can be realized with the above can be obtained.
- the output of the adder 55-2 can be realized as a predetermined signal that can be realized by the collected sound signals of the second to fourth microphones 5A or 5B. In the second direction can be obtained.
- a microphone array By adding (synthesizing) the collected sound signals of the omnidirectional microphones arranged in this manner with an appropriate delay, a microphone array can be formed and an output equivalent to the directional microphone can be obtained.
- the collected sound signals from three microphones are delayed and added in order to realize one directivity direction. However, if the collected sound signals from at least two microphones are delayed and added. Directive expression is possible.
- FIG. 22 shows an example of a configuration for obtaining an output equivalent to a directional speaker by using the omnidirectional speaker 2A or 2B. Also in this case, it is assumed that the speakers 2A or 2B are arranged in order from the first to the fifth as shown in the figure. In addition to these first to fifth speakers 2A or 2B, two delay circuits each having a set of three are provided (a set of delay circuits 56-11 to 56-13 and a delay circuit 56-21 to 56). -23 pairs).
- acoustic signals to be output in the first direction are given to the delay circuits 56-11 to 56-13, and output in the second direction to the delay circuits 56-21 to 56-23.
- An acoustic signal to be given is given.
- the output of the delay circuit 56-11 is given to the first speaker 2A or 2B.
- the output of the delay circuit 56-12 and the output of the delay circuit 56-21 are added to the second speaker 2A or 2B by the adder 57-1 and given.
- the output from the delay circuit 56-13 and the output from the delay circuit 56-22 are added to the third speaker 2A or 2B by the adder 57-2.
- the output of the delay circuit 56-23 is given to the fourth speaker 2A or 2B.
- the delay amount of the delay circuits 56-11 to 56-13 the output sound from the first to third speakers 2A or 2B is output in a predetermined first direction. You can get a sound.
- an output sound in a predetermined second direction can be obtained as the output sound of the second to fourth speakers 2A or 2B. it can.
- the acoustic signal to be output in the first direction and the second direction is not supplied to the delay circuit 56 at the same time, but is given with a shifted timing.
- the measurement signal is given only to the delay circuits 56-11 to 56-13, not given to the delay circuits 56-21 to 56-23.
- the measurement signal is given only to the delay circuits 56-21 to 56-23 and not to the delay circuits 56-11 to 56-13. It is.
- a speaker array can be formed, and an action equivalent to that of a directional speaker can be obtained.
- FIG. 23 shows an example.
- the same closed curved surface 1B and closed curved surface 4B as those shown in FIG. 5 are set.
- the closed curved surface 1A having the same size and shape as the closed curved surface 1B and the closed curved surface 4A having the same size and same shape as the closed curved surface 4B are the closed curved surface, respectively.
- it should be set with the same positional relationship as the positional relationship between 1B and the closed curved surface 4B in practice this is very difficult.
- the speaker 2A disposed on the closed curved surface 4A ′ is an A-series measurement speaker.
- the microphone 5A arranged on the closed curved surface 1A ′ is a B-series measurement microphone.
- the speaker 2A arranged on the original closed curved surface 4A is the Q series and the microphone 5A arranged on the original closed curved surface 1A is the R series.
- the closed curved surface 4A ′ and the closed curved surface 4A are different in size and shape, the number of speakers 2A arranged is not necessarily the same.
- the number of speakers 2A arranged on the original closed curved surface 4A is M as described above, whereas the number of speakers 2A arranged on the closed curved surface 4A ′ is K.
- the number of microphones 5A arranged is not necessarily the same, and the number of microphones 5A arranged on the original closed curved surface 1A is the same as that described above.
- the number of microphones 5A arranged on the closed curved surface 4A ′ is L, whereas there are N as it is.
- M V-series microphones 5B are arranged on the closed curved surface 4B at the site B, and N W-series speakers 2B are arranged on the closed curved surface 1B.
- N W-series speakers 2B are arranged on the closed curved surface 1B.
- AB 11 to AB KL represent transfer functions from the A-series speaker positions (A1 to AK) to the B-series microphone positions (B1 to BL). These transfer functions of AB 11 to AB KL , like the previous transfer functions QR 11 to QR MN , sequentially output measurement sounds for each speaker position (in this case, K locations) in the measurement environment, and sequentially transfer them to each microphone. Each is measured from the result of sound collection at 5A (in this case, L).
- BR 11 to BR LN represent transfer functions from the B-sequence microphone positions (B1 to BL) to the R-sequence microphone positions (R1 to RN). These transfer functions BR 11 to BR LN can be used for a predetermined environment such as an anechoic room without actually constructing the closed curved surface 1A ′ and the closed curved surface 1A according to the positional relationship shown in FIG. Measurement is possible below. Specifically, when the closed curved surface 1A ′ and the closed curved surface 1A have the same size and shape as the closed curved surface 1a ′ and the closed curved surface 1a, the closed curved surface 1a ′ and the closed curved surface 1a are, for example, an anechoic chamber.
- QA 11 to QA MK represent transfer functions from the Q series speaker positions (Q1 to QM) to the A series speaker positions (A1 to AK). These transfer functions QA 11 to QA MK can also be measured, for example, in an anechoic room. Specifically, when the closed curved surface 4A and the closed curved surface 4A ′ have the same size and shape as the closed curved surface 4a and the closed curved surface 4a ′, the closed curved surface 4a and the closed curved surface 4a ′ are, for example, an anechoic chamber.
- the measurement sound is sequentially output from the respective positions (Q1 to QM) of the Q series as the closed curved surface 4a by the speakers.
- the microphones can be measured from the results of sound collection by microphones arranged at positions (A1 to AK) of the A series as the closed curved surface 4a ′.
- the transfer function group of the Q series ⁇ A series and the transfer function group of the B series ⁇ R series are separately measured, the size and shape of the closed curved surface are different between the measurement environment and the reproduction environment.
- the transfer function obtained in the measurement environment can be properly converted, and an appropriate sound field reproduction can be realized.
- Equation 3 above means that an appropriate sound field reproduction can be realized even when the number of microphones and speakers used in the reproduction environment and the measurement environment are different. For example, even in a case where a headphone device of L / R two channels is used in a reproduction environment, the same Q series ⁇ A series transfer function group and B series ⁇ R series transfer function group as described above. Thus, the sound field can be reproduced by converting the transfer function group obtained in the measurement environment into Equation 3 using these transfer function groups.
- the closed curved surface 1A is a Q series (M locations Q1 to QM), and the closed curved surface 1A ′ is a P sequence (J locations P1 to PJ).
- the transfer function measured at the site A which is the measurement environment in this case is the transfer function from the position to each of the microphone positions Q1 to QM. It becomes.
- These transfer functions are set as Q 1 to Q M. If the closed curved surface in the measurement environment and the closed curved surface in the reproduction environment have the same size and shape, the sound source S can be processed with the transfer functions Q 1 to Q M to reproduce an appropriate sound field.
- the transfer function group of the Q series ⁇ P series is measured under an environment such as an anechoic room, corresponding to the difference in size and shape between the closed curved surface 1A and the closed curved surface 1A ′.
- a closed curved surface 1A and a closed curved surface 1A ' are set in an anechoic chamber, and measurement sounds are sequentially output from the respective positions (Q1 to QM) of the Q series as the closed curved surface 1A by a speaker.
- the transfer functions QP 11 to QP MJ are measured from the results of sound collection by the microphones arranged at the respective positions (P1 to PJ) of the P series as the closed curved surface 1A ′.
- acoustic signals (X 1 to X J ) to be output from the J speakers (X 1 to XJ) arranged in the reproduction environment are obtained by the following Expression 4.
- method 2 can also cope with the case where the size and shape of the closed curved surface are different between the measurement environment and the reproduction environment (when the number of microphones in the measurement environment is different from the number of speakers in the reproduction environment). is there.
- FIG. 25 is an explanatory diagram of Measurement Example 1 using a moving object.
- Measurement Example 1 as shown in FIG. 25A, a plurality of speakers 2A and a plurality of microphones 5 The transfer function is measured by the vehicle 60 equipped with A.
- a plurality of speakers 2A and a plurality of microphones 5A having the arrangement shown in FIG. Measurement Example 1 is mainly suitable for measuring the first transfer function required in Method 1.
- the measurement and movement are repeated with the vehicle 60 as described above, and transfer functions at each location are sequentially acquired.
- FIG. 25B illustrates the contents of the database for the transfer function measured in Measurement Example 1.
- this database the correspondence between the transfer function ID, the sound generation position, the sound receiving position, the measurement date and time, and the data (impulse response measurement data) is taken.
- position information obtained by a GPS (Global Positioning System) receiver mounted on the vehicle 60 is used as the sound generation position information.
- the information of the sound receiving position is the identification number of the microphone 5A mounted on the vehicle 60.
- FIG. 26 is an explanatory diagram of Measurement Example 2 using a moving object.
- a plurality of microphones 5A are fixedly or semi-fixedly installed in the city. Examples of the installation position of the microphone 5A in the city include the ground, a power pole, a wall, and a sign. It is also conceivable to install the surveillance camera together.
- the vehicle 60 (mounted with the speaker 2A and the microphone 5A) used in Measurement Example 1 is used as the moving body.
- the first transfer function can be measured by the microphone 5A installed in the vehicle 60.
- the second transfer function is measured by receiving the measurement sound emitted from the speaker 2A installed in the vehicle 60 by the microphone 5A installed in the city (and the microphone A installed in the vehicle 60 may be used). Do it.
- the microphone 5A installed in the city
- many transfer functions can be obtained by one measurement.
- the database shown in FIG. 26B is different from the database shown in FIG. 25B in that the information on the sound receiving position is the absolute position information. This is because it is easy to specify the positional relationship with the pronunciation position when selecting a required transfer function from the database.
- FIG. 27 is an explanatory diagram of Measurement Example 3 and Measurement Example 4 using a moving body.
- Measurement examples 3 and 4 are measurement examples using a plurality of moving bodies.
- a vehicle 60, a vehicle 61 preceding the vehicle 60, and a vehicle 62 following the vehicle 60 are used as the moving body.
- a database as shown in FIG. 26B is constructed including the position (sound receiving position) of the microphone 5A on the vehicles 61 and 62.
- the first transfer function is measured using the microphone 5A in the city and the microphones 5A on the vehicles 61 and 62.
- the second transfer function it is possible to measure many transfer functions at a time using the microphone 5A in the city and the microphone 5A on the vehicles 61 and 62.
- the vehicle picks up sound while traveling, not when it is stopped. At that time, by recording the vehicle traveling speed at the time of sound collection in the database, the Doppler effect can be reduced later by signal processing.
- the microphone 5A when the microphone 5A is provided in the town, if the microphones 5A are directional microphones, it is very difficult to change the directivity direction after installation, and accordingly, the degree of freedom in measurement is hindered. . Considering this point, the directivity of the microphone 5A installed in the city can be changed by the above-described microphone array processing as a non-directional microphone. As a result, the degree of freedom of measurement can be improved, and this is very effective in obtaining a transfer function with more patterns.
- the sound field reproduction of the method 1 also performs noise removal, reverberation suppression, and the like on the collected sound signal by the microphone 5B. Can also be applied.
- a sound for reproducing the sound field is output from the speaker 2B arranged at the site B.
- the microphone 5B that picks up the sound emitted by the user 0 is disposed relatively close to the speaker 2B at the site B, the sound generated from the speaker 2B for reproducing the sound field is transmitted by the microphone 5B. Sound will be collected.
- the process based on the first transfer function should be performed only on the sound emitted by the user 0, but the process based on the first transfer function is performed on the sound to which the sound for reproducing the sound field is added. It means to end. Therefore, as described above, noise removal and reverberation suppression processing similar to those performed by the object-separated sound source is performed on the collected sound signal from the microphone 5B so that the sound component emitted from the user 0 is extracted. That is, the processing based on the first transfer function is performed on the sound source separated in this way. As a result, the S / N can be improved for the sound field reproduction of Method 1, and the quality of the sound field reproduction can be further improved.
- one image corresponding to one place is displayed.
- a different image may be displayed for each time zone.
- a plurality of images are taken and stored for each time zone at a place to be reproduced.
- the time zone according to the current time information timed by the signal processing device 30 placed in the reproduction environment, or the current time at the location to be reproduced (for example, the current time measured by the signal processing device 30).
- the image of the time zone according to (calculated from the time) is selected and displayed.
- an image in an arbitrary time zone designated by the user 0 may be selected and displayed.
- Such reproduction according to the time zone can also be applied to sound field reproduction as Method 2.
- a plurality of object-separated sound sources for each time zone are prepared for each location, and for example, a time zone corresponding to the current time in the reproduction environment or the location to be reproduced, or an arbitrary designated by the user 0
- the sound source in the time zone is output as a reproduced sound.
- the case where the location is reproduced according to the location information designated on the map is exemplified.
- information on the current location detected by the GPS may be used as the designated location information.
- the reproduction is performed for the place specified from the current position information detected by the GPS.
- this is suitable for a system in which a call partner of the user 0 who is in a reproduction environment is in a remote place and the sound field of the place where the call partner is located is reproduced.
- current position information detected by a mobile phone device used by the other party is transmitted to the server device 25, and the server device 25 identifies a corresponding location based on the current position information.
- a number of transfer functions are measured for various combinations of sound generation positions and sound reception positions in the city, and a transfer function required later is selected and used.
- a transfer function required later is selected and used.
- the microphone 5A when the microphone 5A is fixedly or semi-fixedly installed in the city, the sound of the place to be reproduced is picked up in real time by the microphone 5A, and this is signaled through the network 26 in a reproduction environment. 30 and may be output from the speaker 2B.
- An input unit for inputting a collected sound signal about the sound emitted by the user which is obtained by collecting sound with inward directivity by a plurality of microphones arranged so as to surround the user in a reproduction environment;
- a predetermined sound is generated from each of a plurality of positions set on the first closed curved surface in the measurement environment by a speaker in an outward directivity, and the sequentially generated sounds are sequentially generated in the second environment in the measurement environment.
- An acoustic signal processing unit for obtaining a reproduction signal for reproducing a sound field;
- a signal comprising: a sound generation control unit configured to sound a plurality of speakers arranged to surround the user in the reproduction environment and sounding with inward directivity based on the reproduction signal obtained by the acoustic signal processing unit Processing equipment.
- the acoustic signal processing unit is The signal processing apparatus according to (1), wherein a transfer function in which component balance of direct sound, early reflection sound, and reverberation sound is adjusted is used as the transfer function.
- the acoustic signal processing unit is The signal processing apparatus according to any one of (1) and (2), wherein a process based on the transfer function is performed after noise and reverberation suppression processing is performed on the collected sound signal.
- the acoustic signal processing unit is The signal processing device according to any one of (1) to (3), wherein a process based on the transfer function is performed on the collected sound signal to which the acoustic signal is added by the first adding unit.
- a second addition unit that adds an acoustic signal based on the sound source recorded in the measurement environment to the reproduction signal obtained by the processing based on the transfer function by the acoustic signal processing unit;
- the signal processing device according to any one of 1) to (4).
- a directional microphone is used as the plurality of microphones in the reproduction environment,
- the signal processing apparatus according to any one of (1) to (5), wherein the input unit inputs a sound collection signal from the directional microphone.
- An omnidirectional microphone is used as the plurality of microphones in the reproduction environment,
- the input section is The signal processing apparatus according to any one of (1) to (5), wherein a sound collection signal equivalent to a case where a directional microphone is used is obtained by performing delay adjustment of outputs of the plurality of omnidirectional microphones.
- a directional speaker is used as the plurality of speakers in the reproduction environment,
- the pronunciation control unit The signal processing device according to any one of (1) to (7), wherein the directional speaker is caused to emit sound based on the reproduction signal.
- An omnidirectional speaker is used as the plurality of speakers in the reproduction environment,
- the pronunciation control unit The signal processing apparatus according to any one of (1) to (7), wherein a sound equivalent to a case where a directional speaker is used is realized by adjusting a delay of a signal to be generated by the plurality of omnidirectional speakers.
- the acoustic signal processing unit is The closed surface having the same size and shape as the first closed surface is disposed in the third closed surface, the closed surface having the same size and shape as the second closed surface is disposed in the fourth closed surface, and the reproduction environment.
- a closed curved surface that is the same size and shape as the closed curved surface formed by surrounding the user with the plurality of microphones is a fifth closed curved surface, and is formed by surrounding the user with the plurality of speakers arranged in the reproduction environment.
- the closed surface that is the same size and shape as the closed surface is the sixth closed surface.
- a predetermined sound is generated from each of a plurality of positions set on the first closed curved surface in the measurement environment by a speaker in an outward directivity, and the sequentially generated sounds are sequentially generated in the second environment in the measurement environment.
- Sound generated from each of the plurality of positions on the first closed curved surface based on the result of collecting sound with a directivity directed outward at a plurality of positions set on the closed curved surface of the second
- a measurement method for measuring a transfer function representing how to transmit to each of the plurality of positions on the closed curved surface (12) The measurement method according to (11), wherein the transfer function is measured using a moving body on which at least one of a speaker and a microphone is mounted.
- Both the speaker and the microphone are mounted on the moving body, The measurement method according to (12), wherein the transfer function is measured based on a result of picking up a measurement signal emitted from the speaker of the moving body with the microphone of the moving body.
- a speaker is mounted on the moving body, A plurality of microphones are installed in the measurement environment.
- the measurement method according to (12), wherein the transfer function is measured based on a result of collecting a measurement signal emitted from the speaker of the moving body by the microphone installed in the measurement environment.
- An omnidirectional microphone is used as the microphone, and a sound pickup signal equivalent to the case where the directional microphone is used is obtained by adjusting the delay of the outputs of the plurality of omnidirectional microphones (11) to (14) The measuring method in any one.
- the omnidirectional speaker as the speaker and adjusting the delay of the input to the plurality of omnidirectional speakers, the sound generation equivalent to the case of using the directional speaker is realized (11) to (16) The measuring method in any one.
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Circuit For Audible Band Transducer (AREA)
- Stereophonic System (AREA)
Abstract
Description
これら特許文献に記載される従来技術は、何れも、閉曲面の外側で起こった事象の音の再現を行うものである。
このような没入感を聴覚的に与えるためには、対象とする或る場所について、その場所の印象(空間の印象)を音によってユーザに知覚させるように再現を行うことを要する。
しかしながら、対象とする或る場所についてさらなる臨場感・没入感をユーザに与えるためには、閉曲面の外側における事象に基づくのみでなく、閉曲面の内側で起こった事象に基づいてもその場所に自分がいるとの印象を与えることができるような技術が望まれる。
すなわち、本技術の信号処理装置は、再現環境においてユーザを取り囲むように配置された複数のマイクロフォンにより内向きの指向性で収音して得られた、上記ユーザの発した音についての収音信号を入力する入力部を備える。
また、測定環境における第1の閉曲面上に設定された複数の位置の各々から順次スピーカにより外向きの指向性で所定音を発音し、この順次発音される音を、順次、上記測定環境における第2の閉曲面上に設定された複数の位置でマイクロフォンにより外向きの指向
性で収音した結果に基づき測定された、上記第1の閉曲面上の上記複数の位置の各々から発せられた音が上記第2の閉曲面上の上記複数の位置の各々にそれぞれどのように伝達するかを表す伝達関数に基づき、上記入力部により入力された上記収音信号に処理を施して、上記測定環境における音場を再現するための再現用信号を得る音響信号処理部を備える。
また、上記音響信号処理部で得られた上記再現用信号に基づき、上記再現環境において上記ユーザを取り囲むように配置され内向きの指向性で発音を行う複数のスピーカを発音させる発音制御部を備えるものである。
つまり、本技術の信号処理方法は、再現環境においてユーザを取り囲むように配置された複数のマイクロフォンにより内向きの指向性で収音して得られた、上記ユーザの発した音についての収音信号を入力する入力手順を有する。
また、測定環境における第1の閉曲面上に設定された複数の位置の各々から順次スピーカにより外向きの指向性で所定音を発音し、この順次発音される音を、順次、上記測定環境における第2の閉曲面上に設定された複数の位置でマイクロフォンにより外向きの指向性で収音した結果に基づき測定された、上記第1の閉曲面上の上記複数の位置の各々から発せられた音が上記第2の閉曲面上の上記複数の位置の各々にそれぞれどのように伝達するかを表す伝達関数に基づき、上記入力手順により入力した上記収音信号に処理を施して、上記測定環境における音場を再現するための再現用信号を得る音響信号処理手順を有する。
また、上記音響信号処理手順により得た上記再現用信号に基づき、上記再現環境において上記ユーザを取り囲むように配置され内向きの指向性で発音を行う複数のスピーカを発音させる発音制御手順を有するものである。
つまり本技術の測定方法は、測定環境における第1の閉曲面上に設定された複数の位置の各々から順次スピーカにより外向きの指向性で所定音を発音し、この順次発音される音を、順次、上記測定環境における第2の閉曲面上に設定された複数の位置でマイクロフォンにより外向きの指向性で収音した結果に基づき、上記第1の閉曲面上の上記複数の位置の各々から発せられた音が上記第2の閉曲面上の上記複数の位置の各々にそれぞれどのように伝達するかを表す伝達関数を測定するものである。
すなわち本技術の測定装置は、測定環境における第1の閉曲面上に設定された複数の位置の各々から順次外向きの指向性で所定音が発音されるように、上記第1の閉曲面上に設置されたスピーカによる発音を実行させる発音制御部を備える。
また、上記測定環境における第2の閉曲面上に設定された複数の位置に設置されたマイクロフォンにより外向きの指向性で収音して得られる、上記発音制御部の制御により順次発音された音についての収音信号を順次入力し、それら収音信号に基づき、上記第1の閉曲面上の上記複数の位置の各々から発せられた音が上記第2の閉曲面上の上記複数の位置の各々にそれぞれどのように伝達するかを表す伝達関数を測定する測定部を備えるものである。
ここで、いわゆる「エコーロケーション」のように、自らが発した音がどう伝わるかを聴覚的に知覚認識することで、経験則から大体の空間構造をつかむことが可能である。このことから上記本技術によれば、ユーザは自らが発した音に基づき、音響的にその空間の
印象をより知覚し易くなる。つまりこの結果、或る場所についての臨場感や没入感を従来よりも増すことができる。
また上記本技術の測定方法(及び測定装置)によれば、このような音場再現の実現のために必要とされる伝達関数の測定を実現できる。
また、本技術の測定方法(及び測定装置)によれば、そのような音場再現の実現に必要とされる伝達関数の測定を実現できる。
<1.実施の形態の信号処理システムで実現する再現手法の概要>
<2.音場再現の手法>
<3.音場再現のための測定手法>
(3-1.測定手法の概要)
(3-2.測定1について)
(3-3.測定2について)
<4.伝達関数に基づく音場再現>
(4-1.第1伝達関数に基づく音場再現)
(4-2.第2伝達関数に基づく音場再現)
<5.信号処理システムの構成>
<6.変形例>
(6-1.閉曲面について)
(6-2.指向性について)
(6-3.測定環境と再現環境とで閉曲面のサイズ・形状が異なる場合の対処)
(6-4.移動体を用いた測定手法)
(6-5.その他の変形例)
先ずは図1により、本実施の形態の信号処理システムで実現する再現手法の概要について説明しておく。
図1において、サイトAとは、ユーザ0を没入させたい場所、つまりはその情景や音の広がり等を再現したい場所(再現対象とする場所)を意味するものである。
また図中のサイトBは、再現対象とする場所の情景や音の広がりの再現を行う場所を意味する。このサイトBは、例えばユーザ0自身の部屋などと考えればよい。
図のようにサイドB内には、ユーザ0を取り囲むように配置された複数のスピーカ2Bと、画像表示を行う表示装置3とが設置されている。
没入したい場所の画像と共にその場所の音場100をユーザ0に提示することで、その場所に対するユーザ0の没入感をより高めることができる。
再現したい場所の指定は、例えばユーザ0により行う。例えば、本システムによるサービスを享受するにあたっては、表示装置3上に表示された地図画像から、任意の位置を指定する。この指定された位置の位置情報から、該位置に対応する場所が特定され、該場所について上記のような画像や音による再現を行う。
後述するように、本実施の形態では、このように複数のスピーカで取り囲んだ空間の他にも、複数のマイクロフォンで取り囲んで形成される空間も存在することになる。
本明細書においては、このように複数個のスピーカ又はマイクロフォンで取り囲んで形成される空間の界面、換言すれば、それら複数個のスピーカ又はマイクロフォン同士を結んで形成される空間の界面を、「音響閉曲面」或いは単に「閉曲面」と称することとする。
図1に示すように、サイトB内の複数のスピーカ2Bによって形成される音響閉曲面は、閉曲面1Bと表記する。
上記のように本実施の形態では、サイトBにおいてサイトAの音場を再現するが、この音場再現の具体的な手法として、本実施の形態では、主に図3に示される2つの手法(手法1及び手法2)を提案する。
先ず、手法1としては、サイトBにおける閉曲面1Bの内側に居るユーザ0が発した音(例えばユーザ0が発した声、物を落とした時の衝突音、食事中であれば食器等が触れ合う時の音など)が、サイトAで反響したように感じられる音場100を複数のスピーカ2Bによって再現するものである。後に詳述するように、この手法1の実現のためには、ユーザ0を取り囲むように配置した複数のマイク5Bによってユーザ0の発した音をリアルタイムに収音し、対応する伝達関数で処理することで、音場再現用の音響信号(スピーカ2Bより出力すべき音響信号)を生成することになる。
ここで、図中に示すように閉曲面1BがサイトA内にあるものと仮定し、該サイトA内における閉曲面1Bの外側の或る位置にて音が発せられたとした場合、該音は、閉曲面1Bに直接到達する成分の他に、サイトA内における構造物や障害物を介した反射音・残響音(各材質・構造ごとに異なる)の成分を伴う場合もある。手法2では、このような反響音も含めて、サイトAにおける環境音を知覚させるものである。
(3-1.測定手法の概要)
図4は、実施の形態の音場再現を実現するための伝達関数の測定手法について説明するための図である。
図4Aは、測定のためにサイトA内に配置する複数のマイク5Aを模式的に表す。
図4Bは、手法1に対応する測定手法(測定1と表記する)、図4Cは手法2に対応する測定手法(測定2)をそれぞれ模式的に表す。なお図4Dは、サイトAの環境音を、該サイトAに配置した複数のマイク5Aによりそのまま収録する手法を模式的に表している。
具体的に該測定1では、サイトAに配置した測定用のスピーカ2Aから外向きに発せられた音(測定用信号)が、サイトAにおける反響の影響を受けて、同じくサイトAに配置した各マイク5Aにどのように到達するかを表す伝達関数(インパルス応答)を測定する。
従ってこの伝達関数を用いて、サイトBのマイク5Bにより収音した信号(ユーザ0が発した音)を加工してスピーカ2Bにより出力することで、該ユーザ0が発した音がサイトAで反響したように感じられる音場100をサイトBにて構築することができる。
しかしながら、このように単に収録した環境音を流すとした場合は、1つのサイトについて2種以上の環境音を再現しようとしたときに、そのサイトにて複数回の収録を行うことが必要とされる等の問題がある。
例えばCD(Compact Disc)やDVD(Digital Versatile Disc)など従来のメディアに収録される音は、制作側の意図の下、チャンネル毎に完成されたパッケージとされており、パッケージに納められた各チャンネルの音響信号は対応するスピーカのチャンネルに対応して鳴らすことで、概ね制作側の意図する音質・音場を実現してきた。
しかしながら近年、制作側の意図として「聞かせたい」音場・音質などを、「各音源の音響ストリーム信号」と「その音源がどう動くか、どういう位置にあるか」の「メタ情報」のセット(暫定的にオブジェクトと呼ぶ)を複数個重ねたものと考え、これをどう再生環境に応じて実現(レンダリング)するかを再生環境側に委ねた「オブジェクトベースのオーディオ(または音場表現)」の考え方が出てきた。
このようなオブジェクトベースの手法により、再生環境の多様化が進みつつある現状においてだけでなく、再生環境が将来的に飛躍的な性能向上を行った場合でも、制作者の意図に応じて再生環境の性質・性能に合わせて、音場・音質の再現が可能となる。
具体的に、該測定2では、複数のマイク5Aが配される閉曲面1Aの外側の任意位置に配置した測定用のスピーカ2Aから発された音(測定用信号)が、サイトAにおける反響の影響も含めて、各マイク5Aにどのように到達するかを表す伝達関数(インパルス応答)を測定する。
すなわち、閉曲面1Bに対して到達する音が該閉曲面1Bと交差するときの波面を想定したとき、該想定波面を、閉曲面1Bの内側に創造するように複数のスピーカ2Bから再生するというものである。
以下、測定1としての伝達関数の測定手法の具体的な例を図5~図7を参照して説明する。
先ず、図5に、ユーザ0の居るサイトB(再現環境)に配置された複数のスピーカ2B及び閉曲面1Bと、複数のマイク5B及び閉曲面4Bとを示す。先の説明からも理解されるように、サイトBに配置されるマイク5Bは、ユーザ0が発した音をリアルタイムに収
音するために設けられたものである。
このとき、マイク5Bとしては、閉曲面4Bの内側に居るユーザ0が発した音をサイトAにおける反響の影響を与えてスピーカ2Bから出力するというシステムを実現する上では、内向き(閉曲面4Bの内側方向)の指向性を有することを要する。このため本例では、各マイク5Bとして有指向性のマイクロフォンを用い、その指向方向が閉曲面4Bの内側方向に向くように設置するものとしている。
また、スピーカ2Bとしては、その発音方向が閉曲面1Bの内側方向に向くように設置する。すなわち、スピーカ2Bとしては有指向性スピーカを用い、その指向性を内向きに設定する。
なおこのとき、指向性の方向は、閉曲面に対して垂直であることが望ましい。
なお以下では、上記の各位置に配置されたマイク5Bを、その配置位置に対応させてそれぞれマイクV1,V2,V3,・・・,VMと表記することもある。同様に、スピーカ2Bについても、それぞれその配置位置に対応させてスピーカW1,W2,W3,・・・,WNと表記することもある。
これら図6,図7では、サイトA(測定環境)における複数のスピーカ2A及び閉曲面1Aと、複数のマイク5A及び閉曲面4Aとを示している。
またサイトAの閉曲面1A上に配置されるマイク5Aの数はN個であるとし、それらの配置位置は図のようにR1,R2,R3,・・・,RNであるとする。
なおサイトAについても、上記の各位置に配置されたスピーカ2Aをその配置位置に対応させてそれぞれスピーカQ1,Q2,Q3,・・・,QMと表記し、またマイク5Aについてもそれぞれその配置位置に対応させてマイクR1,R2,R3,・・・,RNと表記することがある。
また、サイトAにおける閉曲面1Aは、サイトBにおける閉曲面1Bとそのサイズ・形
状が同じで、且つ閉曲面1A上における各マイク5Aの位置関係(R1,R2,R3,・・・,RNの並び順及びそれらの配置間隔)は、閉曲面1B上における各スピーカ2Bの位置関係(W1,W2,W3,・・・,WNの並び順及びそれらの配置間隔)と同じであるとする。
このようにして得られる各マイク5Aの収音信号に基づき、Q1の位置のスピーカ2AからR1~RNの各マイク5AまでのN個の伝達関数を得ることができる。
このようにして得られる各マイク5Aの収音信号に基づき、Q2の位置のスピーカ2AからR1~RNの各マイク5Aまでのインパルス応答を測定する。これにより、Q2の位置のスピーカ2AからR1~RNの各マイク5AまでのN個の伝達関数を得ることができる。
すなわち、1つのスピーカ2Aを順次Q1,Q2,Q3,・・・,QMの各位置に配置・発音することで、上記のM×N個の伝達関数を求めるのに必要な測定を行うことができる。
但し、測定ごとにスピーカ2Aを移動させるには煩わしさを伴うので、本例では、Q1~QMの各位置にスピーカ2Aを配置し、それらのスピーカ2Aのうち測定音を出力するスピーカ2Aを順次選択することで、M×N個の伝達関数の測定を行うものとする。
この図8に示されるように、測定1の実現のためには、M個のスピーカ2Aと、N個のマイク5Aと、測定装置10とを設ける。
セレクタ18は、DAC/アンプ部17から入力された測定用信号を、端子部11-1~11-Mのうち制御部15により指示された端子部11(つまりスピーカ2A)に択一的に出力する。
伝達関数測定部14は、制御部15からの指示に応じて、ADC/アンプ部13から入力された各マイク5Aからの収音信号に基づいてインパルス応答(伝達関数)の測定を行う。
特にこの場合の制御部15は、先に説明した測定1としての測定動作が実現されるように、測定用信号出力部16、セレクタ18、伝達関数測定部14に対する制御を行う。具体的には、Q1,Q2,Q3,・・・,QMの各スピーカ2Aより測定用信号に基づく発音が順次行われるように測定用信号出力部16及びセレクタ18に対する制御を行うと共に、各スピーカ2Aによる発音のタイミングに同期して、各マイク5Aによる収音信号に基づく伝達関数の測定が行われるように、伝達関数測定部14による測定タイミングを制御する。
これにより、前述したM×N個の伝達関数の測定が実現される。
イクの指向性によっては、図9のように残響音成分の他にも直接音や初期反射音を含んでおり、場合によってはこれらが臨場感演出の阻害要因になる可能性もある。
なお確認のため述べておくと、直接音とは、スピーカ2Aから発せられ(サイトAでの反射を介さず)直接的にマイク5Aに到達する音を意味するものである。
図10にそのための構成を示した。
図中のインパルス応答測定データは、マイク5Aによる収音信号に基づき測定したインパルス応答のデータ(時間軸波形データ)を意味している。
このインパルス応答測定データを、図のように信号成分分解処理部19によって時間軸上で直接音、初期反射音、残響音に分解する。
直接音、初期反射音については、それぞれ乗算部20,21でそのバランスを変更(レベル調整)する。このようにバランス調整された直接音、初期反射音の成分と、信号成分分解処理部19で得られた残響音成分とを、加算部22により加算する。
本例で用いる伝達関数は、測定された(生の)インパルス応答データについて上記のような成分分解・バランス調整が行われたものであるとする。
図11は、測定2としての伝達関数の測定の具体的な手法についての説明図である。
前述のように測定2は、閉曲面1Bの外側の任意位置に定位されるべき音源を、該位置に定位させ、且つ該位置より発せられる音がサイトAでの反響を受けたかたちでユーザ0に知覚されるようにするべく、閉曲面1Aの外側の任意位置に配置した測定用のスピーカ2Aから発された音が、サイトAにおける反響の影響も含めて、各マイク5Aにどのように到達するかを表す伝達関数(インパルス応答)を測定するものである。
このように音源を「定位させたい位置」が複数ある場合には、その「定位させたい位置」ごとの伝達関数の測定を行う。
但しこの場合、スピーカ2Aの接続数は、音源を定位させたい位置の数に応じた数となる。具体的に、音源を定位させたい位置の数だけスピーカ2Aを接続した場合には、制御部15としては、測定音を出力すべきスピーカ2Aをセレクタ18に順次選択させ、且つ測定音の出力タイミングに同期して伝達関数の測定処理を実行するように伝達関数測定部14を制御することになる。
(4-1.第1伝達関数に基づく音場再現)
前述のように、第1伝達関数は、Q1のスピーカ2AからR1~RNの各マイク5AまでのN個の伝達関数(QR11~QR1N)、Q2のスピーカ2AからR1~RNの各マイク5AまでのN個の伝達関数(QR21~QR2N)、・・・,QMのスピーカ2AからR1~RNの各マイク5AまでのN個の伝達関数(QRM1~QRMN)の合計M×N個である。
この前提の下で、例えばW1の位置から出力すべき音響信号を考えてみると、このW1位置からは、ユーザ0から閉曲面4B上のV1~VMの各方向に発せられ、それぞれサイトAによる反響の影響を受けて該W1位置まで戻って来る音が出力されるべきものとなる。
すなわち、W1位置のスピーカ2Bより出力されるべき音響信号を信号W1とすると、該信号W1は、
W1=V1×QR11+V2×QR21+V3×QR31+・・・+VM×QRM1
と表すことができる。但し上式において、V1~VMはマイクV1~VMの収音信号を意味するものであるとする。
このようにW1信号としては、V1~VM(Q1~QM)の各方向に出た音を、それぞれW1(R1)への伝達関数(QR11,QR21,・・・,QRM1)のうち対応する1の伝達関数で処理して得られるM個の信号を足し合わせたものとなる。
W2=V1×QR12+V2×QR22+V3×QR32+・・・+VM×QRM2
W3=V1×QR13+V2×QR23+V3×QR33+・・・+VM×QRM3
と表すことができる。すなわち、W2信号としては、V1~VM(Q1~QM)の各方向に出た音をそれぞれW2(R2)への伝達関数(QR12,QR22,・・・,QRM2)のうち対応する1の伝達関数で処理して得られるM個の信号を足し合わせたものであり、またW3信号は、V1~VM(Q1~QM)の各方向に出た音をそれぞれW3(R3)への伝達関数(QR13,QR23,・・・,QRM3)のうち対応する1の伝達関数で処理して得られるM個の信号を足し合わせたものとなる。
先の説明からも理解されるように、第2伝達関数を用いる手法2は、サイトAにおける環境音を該サイトAでの反響も含めてユーザ0に知覚させるものであって、手法1のように、マイク5Bによる収音信号に対して伝達関数による処理を施すものではない。
手法2では、マイク5Bによる収音信号ではなく、予め収録等された所定の音源に対して第2伝達関数による処理を施すことになる。
例えば最も簡易的な例として、或る1つの音源を或る1つの位置に定位させるとした場合には、該音源に基づく音響信号をそれぞれR1~RNの各位置の収音信号に基づき測定した第2伝達関数で処理してN個の信号を得、これを再現環境におけるW1~WNのスピーカ2Bのうちそれぞれ対応する1のスピーカ2Bより出力すればよい。
或いは、音源Aを位置a、音源Bを位置bにそれぞれ定位させるといったときは、音源A側については、該音源Aに基づく音響信号を位置aについての測定で得たN個の第2伝達関数でそれぞれ処理してN個の信号を得、また音源B側については、該音源Bに基づく音響信号を位置bについての測定で得たN個の第2伝達関数でそれぞれ処理してN個の信号を得る。そして、これら音源A側、音源B側についてそれぞれ得たN個の信号を、スピーカ2Bの各位置(W1~WN)ごとに加算して、W1~WNの各位置のスピーカ2Bより出力すべき信号を得る。
図12は、上記により説明した実施の形態としての信号処理手法を実現するための信号処理システムの構成について説明するための図である。
この図12に示すように、本実施の形態の信号処理システムは、M個のマイク5Bと、信号処理装置30と、N個のスピーカ2Bと、表示装置3と、サーバ装置25とを少なく
とも有して構成される。
具体的に、サーバ装置25には、地図データ25A、画像データ25B、第1伝達関数情報25C、対応関係情報25D、及びオブジェクトベースデータ25Eが格納されている。
オブジェクト分離音源25E2は、再現対象とする場所に存在する音源であり、これは、例えば再現対象とする場所での収録信号から所要の音源を抽出したものと考えればよい。この音源の抽出の処理としては、上記収録信号に対して、ノイズ除去や残響抑制などを行う。これにより、S/N(ノイズ対雑音比)の良い、残響感も抑制された音源データを得ることができる。すなわち、オブジェクトベースの音場再現に適した音源データを得ることができる。
対応関係情報25Dには、その場所に対応して用いられるべき画像データ、第1伝達関数、第2伝達関数、オブジェクト分離音源についてのIDが記述され、該IDから、画像データ25B、第1伝達関数情報25C、第2伝達関数情報25E1、オブジェクト分離音源25E2として格納される実データのうち実際に用いる実データを特定できるようになっている。
上記のサーバ装置25との間で、例えばインターネットなどのネットワーク26を介したデータ通信を行うことが可能とされる。
また信号処理装置30には、先の図1にも示した表示装置3を接続するための端子部43も設けられる。
また、信号処理装置30内部には、ADC/アンプ部32、加算部33-1~33-M、ハウリング制御/エコーキャンセル部34,36、マトリクスコンボリューション部35、加算部37-1~37-N、DAC/アンプ部38、制御部40、操作部41、表示制御部42、通信部44、メモリ45、リファレンス音再生部46、及びバス48が設けられる。
ここで、マトリクスコンボリューション部35、制御部40、表示制御部42、通信部44、メモリ45、リファレンス音再生部46、レンダリング部47は、それぞれバス48に接続されており、該バス48を介して相互にデータ通信を行うことが可能とされる。
該加算部33-1~33-Mによっては、V1~VMの各チャンネルの収音信号に対し、リファレンス音再生部46により再生されたリファレンス音としての音響信号が加算されるが、これについては後に改めて説明する。
このハウリング制御/エコーキャンセル部34は、マトリクスコンボリューション部35の後段に設けられたハウリング制御/エコーキャンセル部36と共に、フィードバックによるハウリングを避けるために設けられる。図のようにこれらハウリング制御/エコーキャンセル部34,36は、両者が連携処理できるように接続されている。
ここで、本システムでは、再現環境下においてマイク5Bとスピーカ2Bとを配置するが、これらマイク5Bとスピーカ2Bとについては比較的近接して配置されることになるため、場合によっては、両者の作用で過剰な発振動作が生じてしまう虞がある。そこで、本例ではハウリング制御/エコーキャンセル部34,36を設けて、このような過剰な発振動作の発生の防止を図るものとしている。
具体的にマトリクスコンボリューション部35は、ハウリング制御/エコーキャンセル部34より入力されたM個の信号(V1~VM)に対し、制御部40からの指示された第1伝達関数(QR11~QRMN)に基づく処理を施して、手法1としての音場再現の実現のために各スピーカ2Bより出力されるべきN個の信号を生成する。
なおこの図では、第1伝達関数を時間軸表現(インパルス応答化)したものを係数とす
るFIR(Finite Impulse
Response)デジタルフィルタを使った場合の構成例を示している。
またこの図において、信号V1~VMは、先の図12からも理解されるようにハウリング制御/エコーキャンセル部34を介してマトリクスコンボリューション部35に入力される信号を表すものであり、また信号W1~WNはマトリクスコンボリューション部35からハウリング制御/エコーキャンセル部36に入力される信号を表すものとなる。
この場合のマトリクスコンボリューション部35には、信号V1~VMの各信号ごとに、それぞれN個のフィルタ50(末尾が1~Nとなる)が設けられる。この図では、信号V1を入力するフィルタ50-11~50-1Nと、信号V2を入力するフィルタ50-21~50-2Nと、信号VMを入力するフィルタ50-M1~50-MNとを代表して示している。
また信号V2を入力するフィルタ50-21~50-2Nには、V2(Q2)の位置に対応する第1伝達関数QR21~QR2Nに基づくフィルタ係数が設定され、信号VMを入力するフィルタ50-M1~50-MNには、VM(QM)の位置に対応する第1伝達関数QRM1~QRMNに基づくフィルタ係数が設定される。
図示は省略しているが、他の信号(V3~VM-1)を入力する各N個のフィルタ50にも、その信号が収音されるマイク5B位置に対応するN個の第1伝達関数に基づくフィルタ係数がそれぞれ設定されることになる。
具体的に、加算部51-1には、各フィルタ50のうち、末尾が1のフィルタ50で得られた信号が入力され、また加算部51-2には末尾が2のフィルタ50で得られた信号が入力される。また加算部51-Nには、末尾がNのフィルタ50で得られた信号が入力される。
つまり加算部51-1~51-Nには、W1~WN(R1~RN)の位置のうち、その末尾の数値に応じた位置の第1伝達関数で処理されたM個の信号が入力されるものである。
加算部51-1~51-Nの各々は、このように入力されたM個の信号をそれぞれ加算(合成)するものである。
マトリクスコンボリューション部35で得られたN個の信号(W1~WN)は、チャンネルごとにハウリング制御/エコーキャンセル部36による処理を経て、加算部37-1~37-Nのうち対応するチャンネルの加算部37にそれぞれ入力される。
レンダリング部47は、制御部40による指示に従って、ネットワーク26経由でサーバ装置25より送信されたオブジェクト分離音源に対し、同じくネットワーク26経由でサーバ装置25より送信された第2伝達関数に基づく処理を施すことで、サイトAにおける環境音を該サイトAでの反響も含めてユーザ0に知覚させるために各スピーカ2Bより出力されるべきN系統の音響信号を生成する。
なお先の説明からも理解されるように、複数の音源をそれぞれ別の位置に定位させる場合には、レンダリング部47は、各音源を対応する第2伝達関数(N個)で処理して得たN系統の音響信号を、チャンネルごとに加算することで、各スピーカ2Bより出力されるべきN系統の音響信号を得ることになる。
この制御部40には操作部41が接続されており、制御部40は、該操作部41に対して行われたユーザ0による操作に応じた操作情報の受付を行い、該操作情報に応じた処理を実行することで、ユーザ0による操作に応じた動作を実現する。
なお図15において、信号処理装置と示した処理は、信号処理装置30が備える制御部40によって実行されるものであり、サーバ装置と示した処理はサーバ装置25が備える制御部(不図示)によって実行されるものである。
また、この図に示す処理が開始されるにあたっては、既に、操作部41を介したユーザ0の操作入力に基づき、所要の位置情報の指定が為された状態にあるとする。
。この場所の特定は、例えば予め定められた位置情報と場所との対応関係情報を参照して行う。
具体的には、対応関係情報25Dに基づき、画像データ25B、第1伝達関数情報25C、第2伝達関数情報25E1、オブジェクト分離音源25E2としてそれぞれ格納されている画像データ、第1伝達関数、第2伝達関数、オブジェクト分離音源のうちの、特定された場所と対応する画像データ、第1伝達関数、第2伝達関数、オブジェクト分離音源を信号処理装置30に対して送信する。
このリファレンス音としては、サイトBでのリアルタイムの収録音ではなく、予め準備された音データ(収音した音を元にしたものでも良いし、人工音でも良い)を使用する。
意図としては、手法1と同様にエコーロケーションであり、再現対象とする場所が異なっても、同じ音源素材を引き続き出力することで、その場所がどのような空間になっているか音響情報的に提示することが可能である。この場合、単にリアルタイム収音した音のみを第1伝達関数で処理して出力する場合よりも、高い再現性により音響情報による場所の構造等の把握が可能である。
マトリクスコンボリューション部35は、このようにリファレンス音が加算された各チャンネルの収音信号(V1~VM)に基づき先の式2による演算を行う。このようなマトリクスコンボリューション部35による処理で得られたN系統の信号(W1~WN)がハウリング制御/エコーキャンセル部36→加算部37→DAC/アンプ部38→端子部39を介して対応するスピーカ2Bによりそれぞれ出力される。
なおこの図では、レンダリング処理をサーバ装置25にて行う場合の構成例を示しているが、地図データ25Aや第1伝達関数情報25Cなどのデータを格納するサーバ装置とレンダリング処理を実行するサーバ装置とが別体であってもよい。
この場合、信号処理装置30に対しては、該レンダリング部52にて得られたレンダリング処理後の音響信号(N系統)がサーバ装置25より送信されてくる。
(6-1.閉曲面について)
ここで、これまでの説明では特に言及しなかったが、上記により説明した実施の形態としての音場再現手法を考慮すると、再現環境で複数のスピーカ2Bが配される閉曲面1Bと、同じく再現環境で複数のマイク5Bが配される閉曲面4Bとしては、少なくとも、それぞれがユーザ0を取り囲むように設定されていればよく、閉曲面1Bと閉曲面4Bは交差しても良いものである。
図17Aは、閉曲面1Bがユーザ0を取り囲むように設定され且つ閉曲面1Bが閉曲面4Bの内側に設定された例である。図17Bは図17Aに示す例において、閉曲面1Bと閉曲面4Bとがより近接した例である。また図17Cは閉曲面1Bと閉曲面4Bとが共にユーザ0を取り囲むように設定されるが、閉曲面1Bの一部が閉曲面4Aの外側にはみ出している例である。
また図17Dに示す例は、図17Cの例において、閉曲面4Bのみがユーザ0を取り囲むように設定されたものである。また図17Eに示す例は、閉曲面1Bが閉曲面4Bの内側に設定され且つ閉曲面4Bがユーザ0を取り囲むように設定されているが、閉曲面1Bがユーザ0を取り囲むようには設定されていないものである。
このように閉曲面1Bと閉曲面4Bとは、少なくともそれらの一部同士が重なる領域が形成されるように設定されればよく、該重なる領域内にユーザが存在すれば、本技術が適正に成り立つ。
なお図18では複数のスピーカ2Bによる閉曲面1Bの形状を例示したが、複数のマイク5Bによる閉曲面4Bの形状についても同様である。
実際においては、効果を体感してみて、現実的な数を設定することが望ましいものとなる。
このように閉曲面4Bが閉曲面1Bの内側に配置される場合には、測定環境としてのサイトAでは、図20に示すように、スピーカ2Aを配置する閉曲面4Aを、マイク5Aを配置する閉曲面1Aの内側に設定することになる。
これまでの説明では、マイク5A,5Bに関して、有指向性のマイクを用いる場合を例示したが、これらマイク5A,5Bに関しては、必ずしもデバイス単体として有指向性を有するものである必要性はなく、無指向性のマイクを用いることもできる。
その場合は、複数の無指向性マイクを用いていわゆるマイクアレーを形成することで、有指向性マイクと等価な出力を得ることが可能である。
ための構成の例を示している。
図のようにマイク5A又は5Bが端から順に1番~5番まで配置されているとする。また、これら1番~5番のマイク5A又は5Bと共に、この場合は3つ1組とされた遅延回路が2つ設けられているとする(遅延回路54-11~54-13の組、及び遅延回路54-21~54-23の組)。図のように遅延回路54-11~54-13による出力は加算部55-1にて加算され、また遅延回路54-21~54-23による出力は加算部55-2にて加算されて出力される。
遅延回路54-11には1番のマイク5A又は5Bの出力が、また遅延回路54-12には2番のマイク5A又は5Bの出力が、遅延回路54-13には3番のマイク5A又は5Bの出力がそれぞれ入力される。また遅延回路54-21には2番のマイク5A又は5Bの出力が、また遅延回路54-22には3番のマイク5A又は5Bの出力が、遅延回路54-23には4番のマイク5A又は5Bの出力がそれぞれ入力される。
なお、図21の例では1つの指向方向を実現するために3つのマイクからの収音信号を遅延・加算するものとしたが、少なくとも2以上のマイクからの収音信号を遅延・加算すれば、指向性の表現は可能である。
図22は、無指向性のスピーカ2A又は2Bを用いて有指向性スピーカと等価な出力を得るための構成の例を示している。
この場合も図のようにスピーカ2A又は2Bが端から順に1番~5番まで配置されているとする。また、これら1番~5番のスピーカ2A又は2Bと共に、3つ1組とされた遅延回路が2つ設けられる(遅延回路56-11~56-13の組、及び遅延回路56-21~56-23の組)。図のように遅延回路56-11~56-13に対しては、第1方向に出力すべき音響信号が与えられ、また遅延回路56-21~56-23に対しては第2方向に出力すべき音響信号が与えられる。
1番のスピーカ2A又は2Bには、遅延回路56-11の出力が与えられる。また、2番のスピーカ2A又は2Bには、遅延回路56-12の出力と遅延回路56-21の出力とが加算部57-1で加算されて与えられる。また3番のスピーカ2A又は2Bには、遅延回路56-13による出力と遅延回路56-22による出力とが加算部57-2で加算されて与えられる。また4番のスピーカ2A又は2Bには、遅延回路56-23の出力が与えられる。
出力すべき音響信号を遅延回路56に同時に与えず、タイミングをずらして与えることになる。例えば、第1方向に測定音を出力する際には、測定用信号を遅延回路56-11~56-13に対してのみ与え、遅延回路56-21~56-23に対しては与えず、逆に第2方向に測定音を出力する際には測定用信号を遅延回路56-21~56-23に対してのみ与え、遅延回路56-11~56-13には与えないようにするものである。
これまでの説明では便宜上、サイトBとサイトAとの関係において、閉曲面1B,1Aの組と閉曲面4B,4Aの組とがそれぞれ同サイズ・同形状とされる場合を例示したが、実際には、再現環境のマイク・スピーカの配置に対して、測定環境でのスピーカ・マイク位置を正確に合わせるのは困難である。
図23に示すサイトBでは、先の図5に示したものと同じ閉曲面1B及び閉曲面4Bが設定されているとする。
この場合、測定環境としてのサイトAでは、理想的には、それぞれ閉曲面1Bと同サイズ・同形状による閉曲面1Aと、閉曲面4Bと同サイズ・同形状による閉曲面4Aとが、閉曲面1Bと閉曲面4Bとの位置関係と同じ位置関係で設定されるべきであるが、実際にはこれは非常に困難である。
この図の例ではサイトAにおいて、図のように閉曲面1Aとサイズ・形状の異なる閉曲面1A’と、閉曲面4Aとサイズ・形状が異なる閉曲面4A’とが設定されたものとする。
この場合、閉曲面4A’と閉曲面4Aとはサイズ・形状が異なるので、配置されるスピーカ2Aの数は同数とは限らない。本来の閉曲面4A上に配置されるスピーカ2Aの数は前述の通りM個であるのに対し、閉曲面4A’上に配置されるスピーカ2Aの数はK個とおく。
同様に、閉曲面1A’と閉曲面1Aとはサイズ・形状が異なるので配置されるマイク5Aの数は同数とは限らず、本来の閉曲面1A上に配置されるマイク5Aの数は前述の通りN個であるのに対し、閉曲面4A’上に配置されるマイク5Aの数はL個とおく。
この前提の下で、手法1としての適正な音場再現を実現するためには、次の式3に示すような伝達関数の変換を伴う演算を行って、各スピーカ2Bより出力すべき音響信号を得るものとすればよい。
これら伝達関数BR11~BRLNは、図中に示す位置関係による閉曲面1A’と閉曲面1AとをサイトAとしての測定環境に実際に構築せずとも、例えば無響室などの所定の環境下において測定が可能である。具体的には、閉曲面1A’、閉曲面1Aとそれぞれ同サイズ・同形状の閉曲面を閉曲面1a’、閉曲面1aとしたとき、これら閉曲面1a’と閉曲面1aを例えば無響室にて図中に示す閉曲面1A’と閉曲面1Aと同じ位置関係で設定し、閉曲面1a’としてのB系列の各位置(B1~BL)からスピーカにより順次測定音を出力し、それらを順次、閉曲面1aとしてのR系列の各位置(R1~RN)に配置したマイクで収音した結果からそれぞれ測定することができる。
これら伝達関数QA11~QAMKとしても、例えば無響室などで測定可能である。具体的には、閉曲面4A、閉曲面4A’とそれぞれ同サイズ・同形状の閉曲面を閉曲面4a、閉曲面4a’としたとき、これら閉曲面4aと閉曲面4a’を例えば無響室にて図中に示す閉曲面4Aと閉曲面4A’と同じ位置関係で設定し、閉曲面4aとしてのQ系列の各位置(Q1~QM)からスピーカにより順次測定音を出力し、それらを順次、閉曲面4a’としてのA系列の各位置(A1~AK)に配置したマイクで収音した結果からそれぞれ測定することができるものである。
数群を変換することで、測定環境と再現環境とで閉曲面のサイズ・形状が異なる場合の対処が可能である。
具体的な手法については、本発明者らの提案による特許4775487号公報にも開示されているが、確認のため、以下にその手法の概要を説明しておく。説明は、先の図11を参照して行う
例えば、或る音源Sを定位させたい位置が1箇所であるとすると、この場合の測定環境であるサイトAで測定される伝達関数は、該位置からQ1~QMの各マイク位置までの伝達関数となる。これらの伝達関数をQ1~QMとおく。測定環境の閉曲面と再現環境の閉曲面とが同サイズ・同形状であれば、上記音源Sを該伝達関数Q1~QMで処理することで、適正な音場再現が可能である。
実施の形態としての再現動作の実現のためには、多くの場所で、伝達関数の測定を行うことが望ましい。再現可能な場所をより多くできるためである。
多くの場所で効率良く伝達関数の測定を行うためには、スピーカ又はマイクを搭載した車輌などの移動体を用いることが有効である。
以下では、移動体を用いた測定手法の例について説明しておく。
この測定例1では、図25Aに示されるように、複数のスピーカ2Aと複数のマイク5
Aとを搭載した車輌60により、伝達関数の測定を行う。この例では、先の図6に示した配置による複数のスピーカ2Aと複数のマイク5Aとが車輌60に搭載されている。測定例1は、主に、手法1で必要とされる第1伝達関数の測定に好適なものである。
図のようにこのデータベースでは、伝達関数IDと、発音位置と、受音位置と、測定日時と、データ(インパルス応答測定データ)との対応が取られる。この場合、発音位置の情報は、車輌60に搭載されたGPS(Global Positioning System)受信装置による位置情報を用いる。また、この場合の受音位置の情報は、車輌60に搭載されたマイク5Aの識別番号としている。
図26Aに示されるように、この測定例2では、街の中に固定的又は半固定的に複数のマイク5Aが設置される。街中におけるマイク5Aの設置位置としては、例えば地面、電柱、壁、標識などを挙げることができる。また、監視カメラに対して併せて設置するなども考えられる。
この車輌60に設置のマイク5Aにより、第1伝達関数の測定を行うことができる。
この図26Bに示すデータベースについて、先の図25Bに示したデータベースとの違いは、受音位置の情報が絶対位置情報とされる点である。これは、データベースから必要とされる伝達関数を選ぶ際に、発音位置との位置関係の特定を容易とするためである。
測定例3,4は、複数の移動体を用いた測定例となる。
図27Aに示す測定例3では、移動体として、車輌60と、車輌60に対して先行する車輌61と、車輌60に対して後行する車輌62とを用いている。
データベースを構築する。
この場合は、街中のマイク5Aと、車輌61,62上のマイク5Aとを用いて第1伝達関数の測定を行うことになる。
また、この場合も第2伝達関数については、街中のマイク5Aと車輌61,62上のマイク5Aとを用いて、1度に数多くの伝達関数の測定が可能となる。
ここで、本技術については、以下のような変形例も可能である。
これまでの説明では、手法2の音場再現に関して、オブジェクト分離音源を用いる場合を例示したが、手法1の音場再現についても、マイク5Bによる収音信号に対して、ノイズ除去や残響抑制などの処理を施すこともできる。
ここで、手法1では、サイトBに配置されたスピーカ2Bより音場再現のための音が出力される。このとき、サイトBではユーザ0の発した音を収音するマイク5Bがスピーカ2Bに比較的近接して配置されるので、上記音場再現のためにスピーカ2Bよりされた音が、マイク5Bによって収音されることになる。これは、本来はユーザ0が発した音についてのみ第1伝達関数による処理が施されるべきであるのに、音場再現用の音が加わった音について第1伝達関数による処理が施されてしまうことを意味する。
そこで、上記のようにマイク5Bによる収音信号に対しオブジェクト分離音源と同様のノイズ除去や残響抑制の処理を施して、ユーザ0から発せられた音の成分が抽出されるようにする。すなわち、このようにオブジェクト分離した音源に対して第1伝達関数による処理が施されるようにするものである。これにより、手法1の音場再現について、S/Nの向上が図られ、音場再現の品質をさらに向上することができる。
このような時間帯に応じた再現を実現することで、より臨場感を増すことができる。
これは例えば、再現環境に居るユーザ0の通話相手が遠隔地に居て、該通話相手の居る場所の音場を再現するといったシステムに好適なものである。この場合は、例えば通話相手の使用する携帯電話装置などで検出された現在位置情報がサーバ装置25に送信され、該現在位置情報に基づきサーバ装置25が対応する場所を特定することになる。
(1)
再現環境においてユーザを取り囲むように配置された複数のマイクロフォンにより内向きの指向性で収音して得られた、上記ユーザの発した音についての収音信号を入力する入力部と、
測定環境における第1の閉曲面上に設定された複数の位置の各々から順次スピーカにより外向きの指向性で所定音を発音し、この順次発音される音を、順次、上記測定環境における第2の閉曲面上に設定された複数の位置でマイクロフォンにより外向きの指向性で収音した結果に基づき測定された、上記第1の閉曲面上の上記複数の位置の各々から発せられた音が上記第2の閉曲面上の上記複数の位置の各々にそれぞれどのように伝達するかを表す伝達関数に基づき、上記入力部により入力された上記収音信号に処理を施して、上記測定環境における音場を再現するための再現用信号を得る音響信号処理部と、
上記音響信号処理部で得られた上記再現用信号に基づき、上記再現環境において上記ユーザを取り囲むように配置され内向きの指向性で発音を行う複数のスピーカを発音させる発音制御部と
を備える信号処理装置。
(2)
上記音響信号処理部は、
上記伝達関数として、直接音、初期反射音、残響音の成分バランスが調整された伝達関数を用いる
上記(1)に記載の信号処理装置。
(3)
上記音響信号処理部は、
上記収音信号にノイズ及び残響の抑制処理を施した上で上記伝達関数に基づく処理を施す
上記(1)又は(2)何れかに記載の信号処理装置。
(4)
上記収音信号に対して所要の音響信号を加算する第1の加算部をさらに備え、
上記音響信号処理部は、
上記第1の加算部により上記音響信号が加算された上記収音信号に対して上記伝達関数に基づく処理を施す
上記(1)乃至(3)何れかに記載の信号処理装置。
(5)
上記測定環境にて収録された音源に基づく音響信号を、上記音響信号処理部による上記伝達関数に基づく処理で得られた上記再現用信号に対して加算する第2の加算部をさらに備える
上記(1)乃至(4)何れかに記載の信号処理装置。
(6)
上記再現環境における上記複数のマイクロフォンとして有指向性マイクロフォンが用いられ、
上記入力部は、該有指向性マイクロフォンによる収音信号を入力する
上記(1)乃至(5)何れかに記載の信号処理装置。
(7)
上記再現環境における上記複数のマイクロフォンとして無指向性マイクロフォンが用いられ、
上記入力部は、
複数の上記無指向性マイクロフォンの出力の遅延調整を行うことで有指向性マイクロフォンを用いた場合と等価な収音信号を得る
上記(1)乃至(5)何れかに記載の信号処理装置。
(8)
上記再現環境における上記複数のスピーカとして有指向性スピーカが用いられ、
上記発音制御部は、
上記再現用信号に基づき上記有指向性スピーカを発音させる
上記(1)乃至(7)何れかに記載の信号処理装置。
(9)
上記再現環境における上記複数のスピーカとして無指向性スピーカが用いられ、
上記発音制御部は、
複数の上記無指向性スピーカに発音させる信号の遅延調整を行うことで有指向性スピーカを用いた場合と等価な発音を実現する
上記(1)乃至(7)何れかに記載の信号処理装置。
(10)
上記音響信号処理部は、
上記第1の閉曲面とサイズ・形状が同一の閉曲面を第3の閉曲面、上記第2の閉曲面とサイズ・形状が同一の閉曲面を第4の閉曲面、上記再現環境に配置された上記複数のマイクロフォンにより上記ユーザを取り囲んで形成される閉曲面とサイズ・形状が同一の閉曲面を第5の閉曲面、上記再現環境に配置された上記複数のスピーカにより上記ユーザを取り囲んで形成される閉曲面とサイズ・形状が同一の閉曲面を第6の閉曲面としたとき、
これら第3~第6の閉曲面が同一環境下に設定された場合における、上記第5の閉曲面
上の各位置から上記第3の閉曲面上の各位置までの間の伝達関数と、上記第6の閉曲面上の各位置から上記第4の閉曲面上の各位置までの間の伝達関数とに基づき、上記測定環境で測定された伝達関数を変換して得られた伝達関数に基づいて、上記収音信号に対する処理を行う
上記(1)乃至(9)何れかに記載の信号処理装置。
(11)
測定環境における第1の閉曲面上に設定された複数の位置の各々から順次スピーカにより外向きの指向性で所定音を発音し、この順次発音される音を、順次、上記測定環境における第2の閉曲面上に設定された複数の位置でマイクロフォンにより外向きの指向性で収音した結果に基づき、上記第1の閉曲面上の上記複数の位置の各々から発せられた音が上記第2の閉曲面上の上記複数の位置の各々にそれぞれどのように伝達するかを表す伝達関数を測定する
測定方法。
(12)
スピーカ又はマイクロフォンの少なくとも何れかを搭載した移動体を用いて上記伝達関数の測定を行う
上記(11)に記載の測定方法。
(13)
上記移動体にはスピーカ及びマイクロフォンの双方が搭載され、
該移動体の上記スピーカから発した測定用信号を該移動体の上記マイクロフォンで収音した結果に基づき上記伝達関数の測定を行う
上記(12)に記載の測定方法。
(14)
上記移動体にはスピーカが搭載され、
上記測定環境には複数のマイクロフォンが設置されており、
上記移動体の上記スピーカより発した測定用信号を上記測定環境に設置された上記マイクロフォンで収音した結果に基づき、上記伝達関数の測定を行う
上記(12)に記載の測定方法。
(15)
上記マイクロフォンとして有指向性マイクロフォンを用いる
上記(11)乃至(14)何れかに記載の測定方法。
(16)
上記マイクロフォンとして無指向性マイクロフォンを用い、複数の上記無指向性マイクロフォンの出力の遅延調整を行うことで有指向性マイクロフォンを用いた場合と等価な収音信号を得る
上記(11)乃至(14)何れかに記載の測定方法。
(17)
上記スピーカとして有指向性スピーカを用いる
上記(11)乃至(16)何れかに記載の測定方法。
(18)
上記スピーカとして無指向性スピーカを用い、複数の上記無指向性スピーカへの入力の遅延調整を行うことで有指向性スピーカを用いた場合と等価な発音を実現する
上記(11)乃至(16)何れかに記載の測定方法。
表示装置、5A,5B マイク、10 測定装置、11-1~11-M,12-1~12-N,39-1~39-N,43 端子部、13,32 ADC/アンプ部、14 伝達関数測定部、15,40 制御部、16 測定用信号出力部、17,38 DAC/アンプ部、18 セレクタ、19 信号成分分解処理部19、20,21 乗算部、22,31-1~33-M,37- 1~37-N,51-1~51-N,55-1,55-2,57-1,57-2 加算部、25 サーバ装置、26 ネットワーク、30 信号処理装置、34,36 ハウリング制御/エコーキャンセル部、41 操作部、42 表示制御部、44 通信部、45 メモリ、46 リファレンス音再生部、47,52 レンダリング部、50-11~50-1N,50-21~50-2N,50-M1~50-MN フィルタ、53 出力制御部、54-11~54-13,54-21~54-23,56-11~56-13,56-21~56-23 遅延回路
Claims (20)
- 再現環境においてユーザを取り囲むように配置された複数のマイクロフォンにより内向きの指向性で収音して得られた、上記ユーザの発した音についての収音信号を入力する入力部と、
測定環境における第1の閉曲面上に設定された複数の位置の各々から順次スピーカにより外向きの指向性で所定音を発音し、この順次発音される音を、順次、上記測定環境における第2の閉曲面上に設定された複数の位置でマイクロフォンにより外向きの指向性で収音した結果に基づき測定された、上記第1の閉曲面上の上記複数の位置の各々から発せられた音が上記第2の閉曲面上の上記複数の位置の各々にそれぞれどのように伝達するかを表す伝達関数に基づき、上記入力部により入力された上記収音信号に処理を施して、上記測定環境における音場を再現するための再現用信号を得る音響信号処理部と、
上記音響信号処理部で得られた上記再現用信号に基づき、上記再現環境において上記ユーザを取り囲むように配置され内向きの指向性で発音を行う複数のスピーカを発音させる発音制御部と
を備える信号処理装置。 - 上記音響信号処理部は、
上記伝達関数として、直接音、初期反射音、残響音の成分バランスが調整された伝達関数を用いる
請求項1に記載の信号処理装置。 - 上記音響信号処理部は、
上記収音信号にノイズ及び残響の抑制処理を施した上で上記伝達関数に基づく処理を施す
請求項1に記載の信号処理装置。 - 上記収音信号に対して所要の音響信号を加算する第1の加算部をさらに備え、
上記音響信号処理部は、
上記第1の加算部により上記音響信号が加算された上記収音信号に対して上記伝達関数に基づく処理を施す
請求項1に記載の信号処理装置。 - 上記測定環境にて収録された音源に基づく音響信号を、上記音響信号処理部による上記伝達関数に基づく処理で得られた上記再現用信号に対して加算する第2の加算部をさらに備える
請求項1に記載の信号処理装置。 - 上記再現環境における上記複数のマイクロフォンとして有指向性マイクロフォンが用いられ、
上記入力部は、該有指向性マイクロフォンによる収音信号を入力する
請求項1に記載の信号処理装置。 - 上記再現環境における上記複数のマイクロフォンとして無指向性マイクロフォンが用いられ、
上記入力部は、
複数の上記無指向性マイクロフォンの出力の遅延調整を行うことで有指向性マイクロフォンを用いた場合と等価な収音信号を得る
請求項1に記載の信号処理装置。 - 上記再現環境における上記複数のスピーカとして有指向性スピーカが用いられ、
上記発音制御部は、
上記再現用信号に基づき上記有指向性スピーカを発音させる
請求項1に記載の信号処理装置。 - 上記再現環境における上記複数のスピーカとして無指向性スピーカが用いられ、
上記発音制御部は、
複数の上記無指向性スピーカに発音させる信号の遅延調整を行うことで有指向性スピーカを用いた場合と等価な発音を実現する
請求項1に記載の信号処理装置。 - 上記音響信号処理部は、
上記第1の閉曲面とサイズ・形状が同一の閉曲面を第3の閉曲面、上記第2の閉曲面とサイズ・形状が同一の閉曲面を第4の閉曲面、上記再現環境に配置された上記複数のマイクロフォンにより上記ユーザを取り囲んで形成される閉曲面とサイズ・形状が同一の閉曲面を第5の閉曲面、上記再現環境に配置された上記複数のスピーカにより上記ユーザを取り囲んで形成される閉曲面とサイズ・形状が同一の閉曲面を第6の閉曲面としたとき、
これら第3~第6の閉曲面が同一環境下に設定された場合における、上記第5の閉曲面上の各位置から上記第3の閉曲面上の各位置までの間の伝達関数と、上記第6の閉曲面上の各位置から上記第4の閉曲面上の各位置までの間の伝達関数とに基づき、上記測定環境で測定された伝達関数を変換して得られた伝達関数に基づいて、上記収音信号に対する処理を行う
請求項1に記載の信号処理装置。 - 再現環境においてユーザを取り囲むように配置された複数のマイクロフォンにより内向きの指向性で収音して得られた、上記ユーザの発した音についての収音信号を入力する入力手順と、
測定環境における第1の閉曲面上に設定された複数の位置の各々から順次スピーカにより外向きの指向性で所定音を発音し、この順次発音される音を、順次、上記測定環境における第2の閉曲面上に設定された複数の位置でマイクロフォンにより外向きの指向性で収音した結果に基づき測定された、上記第1の閉曲面上の上記複数の位置の各々から発せられた音が上記第2の閉曲面上の上記複数の位置の各々にそれぞれどのように伝達するかを表す伝達関数に基づき、上記入力手順により入力した上記収音信号に処理を施して、上記測定環境における音場を再現するための再現用信号を得る音響信号処理手順と、
上記音響信号処理手順により得た上記再現用信号に基づき、上記再現環境において上記ユーザを取り囲むように配置され内向きの指向性で発音を行う複数のスピーカを発音させる発音制御手順と
を有する信号処理方法。 - 測定環境における第1の閉曲面上に設定された複数の位置の各々から順次スピーカにより外向きの指向性で所定音を発音し、この順次発音される音を、順次、上記測定環境における第2の閉曲面上に設定された複数の位置でマイクロフォンにより外向きの指向性で収音した結果に基づき、上記第1の閉曲面上の上記複数の位置の各々から発せられた音が上記第2の閉曲面上の上記複数の位置の各々にそれぞれどのように伝達するかを表す伝達関数を測定する
測定方法。 - スピーカ又はマイクロフォンの少なくとも何れかを搭載した移動体を用いて上記伝達関数の測定を行う
請求項12に記載の測定方法。 - 上記移動体にはスピーカ及びマイクロフォンの双方が搭載され、
該移動体の上記スピーカから発した測定用信号を該移動体の上記マイクロフォンで収音した結果に基づき上記伝達関数の測定を行う
請求項13に記載の測定方法。 - 上記移動体にはスピーカが搭載され、
上記測定環境には複数のマイクロフォンが設置されており、
上記移動体の上記スピーカより発した測定用信号を上記測定環境に設置された上記マイクロフォンで収音した結果に基づき、上記伝達関数の測定を行う
請求項13に記載の測定方法。 - 上記マイクロフォンとして有指向性マイクロフォンを用いる
請求項12に記載の測定方法。 - 上記マイクロフォンとして無指向性マイクロフォンを用い、複数の上記無指向性マイクロフォンの出力の遅延調整を行うことで有指向性マイクロフォンを用いた場合と等価な収音信号を得る
請求項12に記載の測定方法。 - 上記スピーカとして有指向性スピーカを用いる
請求項12に記載の測定方法。 - 上記スピーカとして無指向性スピーカを用い、複数の上記無指向性スピーカへの入力の遅延調整を行うことで有指向性スピーカを用いた場合と等価な発音を実現する
請求項12に記載の測定方法。 - 測定環境における第1の閉曲面上に設定された複数の位置の各々から順次外向きの指向性で所定音が発音されるように、上記第1の閉曲面上に設置されたスピーカを発音させる発音制御部と、
上記測定環境における第2の閉曲面上に設定された複数の位置に設置されたマイクロフォンにより外向きの指向性で収音して得られる、上記発音制御部の制御により順次発音された音についての収音信号を順次入力し、それら収音信号に基づき、上記第1の閉曲面上の上記複数の位置の各々から発せられた音が上記第2の閉曲面上の上記複数の位置の各々にそれぞれどのように伝達するかを表す伝達関数を測定する測定部と
を備える測定装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014544374A JP6281493B2 (ja) | 2012-11-02 | 2013-09-12 | 信号処理装置、信号処理方法、測定方法、測定装置 |
US14/437,884 US9602916B2 (en) | 2012-11-02 | 2013-09-12 | Signal processing device, signal processing method, measurement method, and measurement device |
EP13850571.4A EP2916567B1 (en) | 2012-11-02 | 2013-09-12 | Signal processing device and signal processing method |
CN201380055939.1A CN104756526B (zh) | 2012-11-02 | 2013-09-12 | 信号处理装置、信号处理方法、测量方法及测量装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-242875 | 2012-11-02 | ||
JP2012242875 | 2012-11-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014069111A1 true WO2014069111A1 (ja) | 2014-05-08 |
Family
ID=50627028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/074734 WO2014069111A1 (ja) | 2012-11-02 | 2013-09-12 | 信号処理装置、信号処理方法、測定方法、測定装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9602916B2 (ja) |
EP (1) | EP2916567B1 (ja) |
JP (1) | JP6281493B2 (ja) |
CN (1) | CN104756526B (ja) |
WO (1) | WO2014069111A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021140929A1 (ja) * | 2020-01-07 | 2021-07-15 | ソニーグループ株式会社 | 信号処理装置および方法、音響再生装置、並びにプログラム |
US11259116B2 (en) | 2017-07-07 | 2022-02-22 | Yamaha Corporation | Sound processing method, remote conversation method, sound processing device, remote conversation device, headset, and remote conversation system |
WO2022220036A1 (ja) * | 2021-04-12 | 2022-10-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 音響特徴量推定方法、音響特徴量推定システム、プログラム、及び、レンダリング方法 |
WO2024042643A1 (ja) * | 2022-08-24 | 2024-02-29 | 日本電信電話株式会社 | エリア再生のための再生制御装置、再生制御方法、およびプログラム |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104756525B (zh) | 2012-11-02 | 2017-04-12 | 索尼公司 | 信号处理装置和信号处理方法 |
WO2017061278A1 (ja) * | 2015-10-09 | 2017-04-13 | ソニー株式会社 | 信号処理装置、信号処理方法及びコンピュータプログラム |
US9693169B1 (en) * | 2016-03-16 | 2017-06-27 | Sony Corporation | Ultrasonic speaker assembly with ultrasonic room mapping |
CN106255031B (zh) * | 2016-07-26 | 2018-01-30 | 北京地平线信息技术有限公司 | 虚拟声场产生装置和虚拟声场产生方法 |
US10034092B1 (en) * | 2016-09-22 | 2018-07-24 | Apple Inc. | Spatial headphone transparency |
WO2018061720A1 (ja) * | 2016-09-28 | 2018-04-05 | ヤマハ株式会社 | ミキサ、ミキサの制御方法およびプログラム |
EP3579225A4 (en) | 2017-01-31 | 2020-02-19 | Sony Corporation | SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD AND COMPUTER PROGRAM |
WO2018179250A1 (ja) * | 2017-03-30 | 2018-10-04 | 東芝三菱電機産業システム株式会社 | プレイバックシミュレーション試験システム |
WO2018199347A1 (ko) * | 2017-04-25 | 2018-11-01 | 주식회사 제이디솔루션 | 초지향성 및 무지향성 동시 신호출력이 가능한 복합스피커시스템 |
CN109190140B (zh) * | 2018-07-03 | 2023-08-11 | 天津大学 | 基于浸入式边界方法的连续元音生成方法 |
CN109767769B (zh) | 2019-02-21 | 2020-12-22 | 珠海格力电器股份有限公司 | 一种语音识别方法、装置、存储介质及空调 |
US11102572B2 (en) | 2019-03-29 | 2021-08-24 | Asahi Kasei Kabushiki Kaisha | Apparatus for drawing attention to an object, method for drawing attention to an object, and computer readable non-transitory storage medium |
US10841690B2 (en) | 2019-03-29 | 2020-11-17 | Asahi Kasei Kabushiki Kaisha | Sound reproducing apparatus, sound reproducing method, and computer readable storage medium |
US10999677B2 (en) | 2019-05-29 | 2021-05-04 | Asahi Kasei Kabushiki Kaisha | Sound reproducing apparatus having multiple directional speakers and sound reproducing method |
US10945088B2 (en) | 2019-06-05 | 2021-03-09 | Asahi Kasei Kabushiki Kaisha | Sound reproducing apparatus capable of self diagnostic and self-diagnostic method for a sound reproducing apparatus |
JP7362320B2 (ja) * | 2019-07-04 | 2023-10-17 | フォルシアクラリオン・エレクトロニクス株式会社 | オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム |
JP7447533B2 (ja) | 2020-02-19 | 2024-03-12 | ヤマハ株式会社 | 音信号処理方法および音信号処理装置 |
JP7600526B2 (ja) * | 2020-02-19 | 2024-12-17 | ヤマハ株式会社 | 音信号処理方法および音信号処理装置 |
CN114034379B (zh) * | 2021-11-08 | 2023-04-14 | 北京理工大学 | 一种基于直达声场的封闭空腔噪声试验平台搭建方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000099061A (ja) * | 1998-09-25 | 2000-04-07 | Sony Corp | 効果音付加装置 |
JP2007124023A (ja) * | 2005-10-25 | 2007-05-17 | Sony Corp | 音場再現方法、音声信号処理方法、音声信号処理装置 |
JP2008227773A (ja) * | 2007-03-09 | 2008-09-25 | Advanced Telecommunication Research Institute International | 音響空間共有装置 |
JP4674505B2 (ja) | 2005-08-01 | 2011-04-20 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
JP4725234B2 (ja) | 2005-08-05 | 2011-07-13 | ソニー株式会社 | 音場再現方法、音声信号処理方法、音声信号処理装置 |
JP2011138151A (ja) * | 2011-02-15 | 2011-07-14 | Sony Corp | 音声信号処理方法、音場再現システム |
JP4735108B2 (ja) | 2005-08-01 | 2011-07-27 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
JP4775487B2 (ja) | 2009-11-24 | 2011-09-21 | ソニー株式会社 | 音声信号処理方法、音声信号処理装置 |
JP4883197B2 (ja) | 2010-02-15 | 2012-02-22 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL8800745A (nl) | 1988-03-24 | 1989-10-16 | Augustinus Johannes Berkhout | Werkwijze en inrichting voor het creeren van een variabele akoestiek in een ruimte. |
JPH08272380A (ja) | 1995-03-30 | 1996-10-18 | Taimuuea:Kk | 仮想3次元空間音響の再生方法および装置 |
CA2328885C (en) * | 1998-04-23 | 2009-06-23 | Industrial Research Limited | An in-line early reflection enhancement system for enhancing acoustics |
JP3584800B2 (ja) | 1999-08-17 | 2004-11-04 | ヤマハ株式会社 | 音場再現方法およびその装置 |
JP2003323179A (ja) * | 2002-02-27 | 2003-11-14 | Yamaha Corp | インパルス応答測定方法、音場再生方法、インパルス応答測定装置および音場再生装置 |
US20080056517A1 (en) | 2002-10-18 | 2008-03-06 | The Regents Of The University Of California | Dynamic binaural sound capture and reproduction in focued or frontal applications |
JP4449670B2 (ja) | 2004-09-14 | 2010-04-14 | ノーリツ鋼機株式会社 | 写真処理装置 |
WO2006050353A2 (en) | 2004-10-28 | 2006-05-11 | Verax Technologies Inc. | A system and method for generating sound events |
DE102007031677B4 (de) | 2007-07-06 | 2010-05-20 | Sda Software Design Ahnert Gmbh | Verfahren und Vorrichtung zum Ermitteln einer raumakustischen Impulsantwort in der Zeitdomäne |
EP2294573B1 (en) | 2008-06-30 | 2023-08-23 | Constellation Productions, Inc. | Methods and systems for improved acoustic environment characterization |
JP5092974B2 (ja) | 2008-07-30 | 2012-12-05 | 富士通株式会社 | 伝達特性推定装置、雑音抑圧装置、伝達特性推定方法及びコンピュータプログラム |
KR101285391B1 (ko) * | 2010-07-28 | 2013-07-10 | 주식회사 팬택 | 음향 객체 정보 융합 장치 및 방법 |
US8767968B2 (en) | 2010-10-13 | 2014-07-01 | Microsoft Corporation | System and method for high-precision 3-dimensional audio for augmented reality |
US9084068B2 (en) | 2011-05-30 | 2015-07-14 | Sony Corporation | Sensor-based placement of sound in video recording |
NL2006997C2 (en) | 2011-06-24 | 2013-01-02 | Bright Minds Holding B V | Method and device for processing sound data. |
US9392363B2 (en) | 2011-10-14 | 2016-07-12 | Nokia Technologies Oy | Audio scene mapping apparatus |
US10148903B2 (en) | 2012-04-05 | 2018-12-04 | Nokia Technologies Oy | Flexible spatial audio capture apparatus |
US9495591B2 (en) | 2012-04-13 | 2016-11-15 | Qualcomm Incorporated | Object recognition using multi-modal matching scheme |
US9615173B2 (en) | 2012-07-27 | 2017-04-04 | Sony Corporation | Information processing system and storage medium |
US9264799B2 (en) | 2012-10-04 | 2016-02-16 | Siemens Aktiengesellschaft | Method and apparatus for acoustic area monitoring by exploiting ultra large scale arrays of microphones |
CN104756525B (zh) | 2012-11-02 | 2017-04-12 | 索尼公司 | 信号处理装置和信号处理方法 |
-
2013
- 2013-09-12 CN CN201380055939.1A patent/CN104756526B/zh not_active Expired - Fee Related
- 2013-09-12 WO PCT/JP2013/074734 patent/WO2014069111A1/ja active Application Filing
- 2013-09-12 US US14/437,884 patent/US9602916B2/en active Active
- 2013-09-12 EP EP13850571.4A patent/EP2916567B1/en active Active
- 2013-09-12 JP JP2014544374A patent/JP6281493B2/ja not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000099061A (ja) * | 1998-09-25 | 2000-04-07 | Sony Corp | 効果音付加装置 |
JP4674505B2 (ja) | 2005-08-01 | 2011-04-20 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
JP4735108B2 (ja) | 2005-08-01 | 2011-07-27 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
JP4725234B2 (ja) | 2005-08-05 | 2011-07-13 | ソニー株式会社 | 音場再現方法、音声信号処理方法、音声信号処理装置 |
JP2007124023A (ja) * | 2005-10-25 | 2007-05-17 | Sony Corp | 音場再現方法、音声信号処理方法、音声信号処理装置 |
JP2008227773A (ja) * | 2007-03-09 | 2008-09-25 | Advanced Telecommunication Research Institute International | 音響空間共有装置 |
JP4775487B2 (ja) | 2009-11-24 | 2011-09-21 | ソニー株式会社 | 音声信号処理方法、音声信号処理装置 |
JP4883197B2 (ja) | 2010-02-15 | 2012-02-22 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
JP2011138151A (ja) * | 2011-02-15 | 2011-07-14 | Sony Corp | 音声信号処理方法、音場再現システム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11259116B2 (en) | 2017-07-07 | 2022-02-22 | Yamaha Corporation | Sound processing method, remote conversation method, sound processing device, remote conversation device, headset, and remote conversation system |
WO2021140929A1 (ja) * | 2020-01-07 | 2021-07-15 | ソニーグループ株式会社 | 信号処理装置および方法、音響再生装置、並びにプログラム |
WO2022220036A1 (ja) * | 2021-04-12 | 2022-10-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 音響特徴量推定方法、音響特徴量推定システム、プログラム、及び、レンダリング方法 |
WO2024042643A1 (ja) * | 2022-08-24 | 2024-02-29 | 日本電信電話株式会社 | エリア再生のための再生制御装置、再生制御方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US9602916B2 (en) | 2017-03-21 |
JPWO2014069111A1 (ja) | 2016-09-08 |
US20150296290A1 (en) | 2015-10-15 |
CN104756526A (zh) | 2015-07-01 |
EP2916567A4 (en) | 2016-10-19 |
EP2916567A1 (en) | 2015-09-09 |
EP2916567B1 (en) | 2020-02-19 |
CN104756526B (zh) | 2017-05-17 |
JP6281493B2 (ja) | 2018-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6281493B2 (ja) | 信号処理装置、信号処理方法、測定方法、測定装置 | |
JP6361809B2 (ja) | 信号処理装置、信号処理方法 | |
KR101812862B1 (ko) | 오디오 장치 | |
JP2009194682A (ja) | 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置 | |
EP3799035A1 (en) | Acoustic program, acoustic device, and acoustic system | |
FI129335B (en) | Acoustic room mode control | |
JP4080987B2 (ja) | エコー・雑音抑制方法および多チャネル拡声通話システム | |
CN109923877A (zh) | 对立体声音频信号进行加权的装置和方法 | |
CN114945977B (zh) | 现场数据传送方法、现场数据传送系统、其传送装置、现场数据播放装置及其播放方法 | |
US11057706B2 (en) | Speaker driving device | |
JP7403436B2 (ja) | 異なる音場の複数の録音音響信号を合成する音響信号合成装置、プログラム及び方法 | |
WO2022176417A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP7613479B2 (ja) | ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 | |
US20240404502A1 (en) | Sound Processing Method, Sound Processing Apparatus, and Non-transitory Computer-Readable Storage Medium Storing Program | |
JP7524613B2 (ja) | 音信号処理方法、音信号処理装置および音信号処理プログラム | |
JP2010178373A (ja) | 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置 | |
JP2024007669A (ja) | 音源及び受音体の位置情報を用いた音場再生プログラム、装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13850571 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2014544374 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2013850571 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14437884 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |