EP1872620B9 - Apparatus and method for controlling a plurality of loudspeakers by means of a graphic user interface - Google Patents
Apparatus and method for controlling a plurality of loudspeakers by means of a graphic user interface Download PDFInfo
- Publication number
- EP1872620B9 EP1872620B9 EP06762422A EP06762422A EP1872620B9 EP 1872620 B9 EP1872620 B9 EP 1872620B9 EP 06762422 A EP06762422 A EP 06762422A EP 06762422 A EP06762422 A EP 06762422A EP 1872620 B9 EP1872620 B9 EP 1872620B9
- Authority
- EP
- European Patent Office
- Prior art keywords
- directional
- source
- path
- compensation
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Not-in-force
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/40—Visual indication of stereophonic sound image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R27/00—Public address systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/13—Application of wave-field synthesis in stereophonic audio systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
Definitions
- the present invention relates to audio engineering, and more particularly to the positioning of sound sources in systems comprising delta stereophonic systems (DSS) or wave field synthesis systems or both systems.
- DSS delta stereophonic systems
- wave field synthesis systems or both systems.
- Typical public address systems for supplying a relatively large environment such as in a conference room on the one hand or a concert hall in a hall or even in the open air on the other hand all suffer from the problem that due to the commonly used small number of speaker channels a faithful reproduction of the sound sources anyway eliminated , But even if a left channel and a right channel are used in addition to the mono channel, you always have the problem of the level. So, of course, the back seats, so the seats that are far away from the stage, need to be sounded as well as the seats that are close to the stage. If z. B.
- a single monaural loudspeaker does not allow directional perception in a conference room. It only allows directional perception if the location of the loudspeaker corresponds to the direction. This is inherent in the fact that there is only one loudspeaker channel. However, even if there are two stereo channels, you can at most between the left and the right channel back and forth, so to speak panning. This may be beneficial if there is only one source. However, if there are several sources, the localization is only roughly possible in a small area of the auditorium, as with two stereo channels. You also have a sense of direction in stereo, but only in the sweet spot. In the case of several sources, this directional impression becomes more and more blurred, especially as the number of sources increases.
- the loudspeakers in such medium to large auditoriums which are supplied with stereo or mono mixes, are arranged above the listeners, so that they can not reproduce any directional information of the source anyway.
- support loudspeakers are also used, which are positioned near a sound source. This is an attempt to restore the natural hearing location.
- These support speakers are normally driven without delay, while the stereo sound is delayed through the supply speakers, so that the support speaker is first perceived and thus according to the law of the first wavefront localization is possible.
- support speakers also have the problem that they are perceived as a point source. This leads, on the one hand, to a difference to the actual position of the sound emitter and, moreover, there is the danger that everything is too loud for the front viewers, while everything is too quiet for the back viewers.
- support speakers only allow a real direction perception when the sound source, so z.
- a speaker is located directly in the vicinity of the support speaker. This would work if a support speaker is installed in the lectern, and a speaker is always on the lectern, and in this playback room it is impossible that somebody stands next to the lectern and plays something for the audience.
- support loudspeakers usually use conventional loudspeakers, which in turn have the acoustic properties of a point source-just as the supply loudspeakers-resulting in an excessive level which is often perceived as unpleasant in the immediate vicinity of the systems.
- the aim is to create an auditory perception of source positions for public address scenarios, as they take place in the theater / drama area, whereby conventional normal sound systems, which are only designed to provide sufficient coverage of the entire audience area with loudness directional speaker systems and their control should be added.
- medium to large auditoriums are supplied with stereo or mono and occasionally with 5.1 surround technology.
- the speakers are located beside or above the listener and can play correct directional information of the sources only for a small audience area. Most listeners get a wrong directional impression.
- DSS delta stereophonic systems
- the DD 242954 A3 discloses a large-capacity public address system for larger rooms and areas in which the action or performance and reception or listening rooms are directly adjacent to each other or identical.
- the sound is made according to the principles of running time. In particular occurring misalignments and jump effects in movements, which are particularly disturbing for important solo sound sources, are avoided by a maturity graduation is realized without limited source areas and the sound power of the sources is taken into account.
- a control device which is connected to the deceleration or amplification means, controls this analogous to the sound paths between the source and Schallstrahlerorten. For this purpose, a position of a source is measured and used to adjust loudspeakers according to gain and delay accordingly.
- a playback scenario comprises a plurality of mutually delimited speaker groups, which are each controlled.
- Delta stereophony means that one or more directional loudspeakers are present in the vicinity of the real sound source (eg on a stage), which detect a locator in large parts of the audience area. It is an almost natural direction perception possible. These speakers are timed to the directional speaker to realize the location reference. This is always the direction-giving Speakers perceived and thus a localization possible, this relationship is also referred to as the "law of the first wave front".
- the support speakers are perceived as a point source. There is a difference to the actual position of the sound emitter, that is, the original source when e.g. a soloist is not directly in front of or next to the support speaker, but is located away from the support speaker.
- wave direction synthesis systems can be used to achieve a real directional reference via virtual sound sources.
- WFS wave field synthesis
- Applied to the acoustics can be simulated by a large number of speakers, which are arranged side by side (a so-called speaker array), any shape of an incoming wavefront.
- a so-called speaker array any shape of an incoming wavefront.
- the audio signals of each speaker must be fed with a time delay and amplitude scaling so that the radiated sound fields of each speaker properly overlap.
- the contribution to each speaker is calculated separately for each source and the resulting signals added together. If the sources to be reproduced are in a room with reflective walls, reflections must also be reproduced as additional sources via the loudspeaker array. The cost of the calculation therefore depends heavily on the number of sound sources, the reflection characteristics of the recording room and the number of speakers.
- the advantage of this technique is in particular that a natural spatial sound impression over a large area of the playback room is possible.
- the direction and distance of sound sources are reproduced very accurately.
- virtual sound sources can even be positioned between the real speaker array and the listener.
- wavefield synthesis works well for environments whose characteristics are known, irregularities occur when the texture changes, or when wave field synthesis is performed based on environmental conditions that do not match the actual nature of the environment.
- An environmental condition can be described by the impulse response of the environment.
- the space compensation using wavefield synthesis would be to first determine the reflection of that wall to determine when a sound signal reflected from the wall will return to the loudspeaker and what amplitude this reflected sound signal will be Has. If the reflection from this wall is undesirable, then with the wave field synthesis it is possible to eliminate the reflection from this wall by impressing the loudspeaker with a signal of opposite amplitude to the reflection signal in addition to the original audio signal, so that the traveling compensating wave is the Reflectance wave extinguished, so that the reflection from this wall in the environment that is considered, is eliminated. This can be done by first computing the impulse response of the environment and determining the nature and position of the wall based on the impulse response of that environment, the wall being interpreted as a source of mirrors, that is, a sound source reflecting an incident sound.
- Wavefield synthesis (WFS or sound field synthesis), as developed at the TU Delft in the late 1980s, represents a holographic approach to sound reproduction. The basis for this is the Kirchhoff-Helmholtz integral. This states that any sound fields within a closed volume can be generated by means of a distribution of monopole and dipole sound sources (loudspeaker arrays) on the surface of this volume. Details can be found in MM Boone, ENG Verheijen, PF.
- a synthesis signal for each loudspeaker of the loudspeaker array is calculated from an audio signal that emits a virtual source at a virtual position, the synthesis signals being designed in such a way that amplitude and phase Wave resulting from the superposition of the individual sound waves output by the loudspeakers present in the loudspeaker array corresponding to the wave that would originate from the virtual source at the virtual position, if this virtual source at the virtual position is a real source with a real position would.
- multiple virtual sources exist at different virtual locations.
- the computation of the synthesis signals is performed for each virtual source at each virtual location, typically resulting in one virtual source in multiple speaker synthesis signals. Seen from a loudspeaker, this loudspeaker thus receives several synthesis signals, which go back to different virtual sources. A superimposition of these sources, which is possible due to the linear superposition principle, then gives the reproduced signal actually emitted by the speaker.
- the quality of the audio playback increases with the number of speakers provided. This means that the audio playback quality is the better and more realistic is the more speakers in the loudspeaker array (s) are present.
- the finished and analog-to-digital converted reproduction signals for the individual loudspeakers could, for example, be transmitted via two-wire lines from the wave field synthesis central unit to the individual loudspeakers.
- the wave field synthesis central unit could always be made only for a special reproduction room or for a reproduction with a fixed number of loudspeakers.
- the delta stereophony is particularly problematic, since position artifacts due to phase and level errors occur when fading between different sound sources. Furthermore, phase errors and mislocalizations occur at different moving speeds of the sources. Moreover, the crossfading from one support speaker to another support speaker is associated with a great deal of programming, while at the same time there are problems maintaining the overview of the entire audio scene, especially when multiple sources are faded from different support speakers, and when In particular, many support speakers that can be controlled differently, exist.
- the delta stereophony is much less expensive in terms of calculating the loudspeaker signals than the wave field synthesis.
- wave field synthesis arrays can not be widely used because of space requirements and the requirement for an array of closely spaced loudspeakers.
- wave field synthesis does not predetermine a fixed grid of supporting loudspeakers, but instead a movement of a virtual source can take place continuously.
- a support speaker can not move. However, the movement of the support speaker can be generated virtually by directional glare.
- delta stereophony limits the number of possible support speakers, which are housed in a stage, for reasons of expense (depending on the set) and sound management reasons is limited.
- each support speaker if it is to work on the principle of the first wavefront, requires additional speakers that produce the necessary volume. This is precisely the advantage of delta stereophony, which is actually a relatively small and thus well placed speaker for localization
- many other nearby loudspeakers are designed to produce the necessary volume for the listener, who can sit quite aft in a relatively large audience room.
- each directional area having a localization loudspeaker (or a small group of simultaneously controlled localization loudspeakers) which is driven without or with only a slight delay, while the other loudspeakers of the directional group have the same signal, but timed to produce the required volume while the localization speaker had delivered the well-defined localization.
- each directional area next to the localization speaker also requires enough loudspeakers to generate sufficient volume, the number of directional areas is limited when a stage space is divided into contiguous non-overlapping directional areas, where each directional area is a localization speaker or a small one Group of closely adjacent Lokalisationslaut Maschinenern is assigned.
- Typical delta stereophonic concepts are based on blending between two locations when a source is to move from one location to another. This concept is problematic when z. B. should be intervened manually in a programmed set-up, or if an error correction has to take place. For example, it turns out that a singer does not follow the If the agreed route is over the stage, but rather different, there will be an increasing difference between the perceived position and the actual position of the singer, which of course is not desirable.
- the object of the present invention is to provide a flexible yet artifact-reduced concept for controlling a plurality of loud speakers.
- the present invention is based on the recognition that an artifact-reduced and rapid manual intervention in the course of the movement of sources is achieved by allowing a compensation path on which a source can move.
- the compensation path differs from the normal source path in that it does not begin at a direction group position, but begins at a connection line between two directional groups, at any point in that connection line, and extends from there to a new destination directional group.
- the source must be described by at least three directional groups, wherein in a preferred embodiment of the present invention, a position description of the source identification of the three directional groups involved and two blend Factors, where the first blend factor indicates where on the source path has been "bent", and where the second blend factor indicates where the source is currently on the compensation path, that is, how far the source already is from the source path or how long the source has to run until the new target direction.
- the means for calculating the weighting factors is configured to calculate weighting factors that depend linearly on the glare factors.
- alternative concepts such as non-linear dependencies in terms of a sine 2 function or a cosine 2 function can also be used.
- a division of the stage space is made in overlapping directional areas, thereby creating the situation that a speaker may belong not only to a single directional area, but to a plurality of directional areas, such as at least the first directional area and the second directional area and if applicable to a third or a further fourth directional area.
- the affiliation of a loudspeaker to a directional area is experienced by the loudspeaker in that, if it belongs to a directional area, it is assigned a specific loudspeaker parameter which is determined by the directional area.
- a speaker parameter may be a delay which will be small for the localization speakers of the directional area and will be greater for the other speakers of the directional area.
- Another parameter can be a scaling or a filter curve, which can be determined by a filter parameter (equalizer parameter).
- each loudspeaker on a stage will have its own loudspeaker parameter, depending on which direction it belongs to.
- These values of loudspeaker parameters, which depend on which directional area the loudspeaker belongs to, typically become heuristic in a sound check by a sound engineer, partly empirical for a particular room and then when the speaker is working, inserted.
- the speaker parameter speaker has two different values. So a loudspeaker, if it belongs to directional area A, would have a first delay DA. However, if the speaker belongs to the directional area B, the speaker would have a different delay value DB.
- the speaker parameters are used. to use the audio signal for this speaker and for the currently viewed audio source.
- the actually indissoluble contradiction namely that a loudspeaker has two different delay settings, scaling settings or filter settings, is eliminated by using the loudspeaker parameter values for all directional groups involved for calculating the audio signal to be output by the loudspeaker become.
- the calculation of the audio signal depends on the distance measure, that is, the spatial position between the two direction group positions
- the distance measure will typically be a factor lying between zero and one, where a factor of zero determines that the speaker is at the direction group position A is, while a factor of one determines that the speaker is on the direction group position B.
- a transition is preferred, which leads to comb filter effects, but which are not or barely audible due to the fast transition.
- interpolation is preferred in order to avoid the comb filter effects associated with slow crossfades, which are also clearly audible.
- the switching is not abruptly made, ie from one sample to the next, but a transition is effected, controlled by a switching parameter within a fade range that will include multiple samples based on a fade function, which is preferably linear but which may be nonlinear, e.g. B. may be trigonometric, made.
- a graphical user interface is provided that graphically illustrates ways of a sound source from one directional area to another directional area.
- compensation paths are also taken into account to allow rapid changes in the path of a source, or hard ones Jumps from sources, as they might occur in scene breaks, to avoid.
- the compensation path ensures that a path of a source can not only be changed when the source is in the directional position, but also when the source is between two directional positions. This ensures that a source can turn off its programmed path between two directional positions. In other words, this is achieved in particular by the fact that the position of a source can be defined by three (adjacent) directional areas, in particular by identification of the three directional areas as well as the indication of two glare factors.
- a wave field synthesis array is mounted in the sound space, which also represents a directional region having a directional location position by indicating a virtual position (e.g., in the center of the array).
- a user-friendly and flexible system which allows a flexible division of a space into directional groups, as directional group overlaps are allowed, with loudspeakers in such an overlapping zone being supplied with loudspeaker parameters derived from the loudspeaker parameters corresponding to the directional areas, with respect to their loudspeaker parameters
- Derivative is preferably done by interpolation or crossfading.
- a hard decision could be made, for example, when the source is closer to the one directional area, the to take a loudspeaker parameter so as to take the other loudspeaker parameter when the source is closer to the other directional field, whereby the then occurring hard jump for artifact reduction could simply be smoothed.
- pitch-controlled blending or pitch-controlled interpolation is preferred.
- Fig. 1 shows a schematic representation of a stage space, which is divided into three directional areas RGA, RGB and RGC, each directional area comprises a geometric area 10a, 10b, 10c of the stage, the range limits are not critical. The only thing that matters is whether there are loudspeakers in the various areas that are in Fig. 1 are shown. In area I located speakers belong to the in Fig. 1 shown example only to the directional group A, wherein the position of the directional group A is designated at 11a.
- the directional group RGA is assigned the position 11a at which preferably the loudspeaker of the directional group A is present, which according to the law of the first wavefront has a delay which is smaller than the delays of all other loudspeakers assigned to the directional group A.
- area II there are speakers, which are assigned only to the direction group RGB, the by definition has a direction group position 11b at which the support loudspeaker of the directional group RGB is located, which has a smaller delay than all other loudspeakers of the directional group RGB.
- the directional group C having by definition a position 11c at which the supporting loudspeaker of the directional group RGC is arranged, with a shorter delay than all the other loudspeakers of the directional group RGC will send.
- Fig. 1 shows division of the stage space in direction areas an area IV, in which speakers are arranged, which are assigned to both the directional group RGA and the directional group RGB. Accordingly, a region V exists in which loudspeakers are arranged which are assigned to both the directional group RGA and the directional group RGC.
- each speaker in a stage setting is assigned a speaker parameter or a plurality of speaker parameters by the sound engineer or sound director.
- speaker parameters include, as in Fig. 2a in column 12, a delay parameter, a scale parameter and an EQ filter parameter.
- the delay parameter D indicates how much of an audio signal that is output from this speaker will be relative to a reference value (which is true for another speaker, but not necessarily real) must be) is delayed.
- the Scale parameter indicates how much of an audio signal is amplified or attenuated by this speaker compared to a reference value.
- the EQ filter parameter specifies how the frequency response of an audio signal to be output from a speaker should look like.
- the EQ filter parameter would indicate a frequency response in which the high frequencies are attenuated with respect to the low frequencies ,
- any frequency response can be set for each speaker via an EQ filter parameter.
- the audio signal for a loudspeaker in the ranges I, II and III is simply calculated taking into account the corresponding loudspeaker parameter or the corresponding loudspeaker parameters.
- each speaker has two associated speaker parameter values for each speaker parameter. For example, if only the speakers in the directional group RGA are active, ie if a source is located exactly at the direction group position A (11a), only the speakers of the directional group A will play for this audio source. In this case, to calculate the audio signal for the speaker uses the column of parameter values assigned to the direction group RGA.
- the audio signal is now calculated taking into account both parameter values and preferably taking into account the distance measure, as will be explained later.
- an interpolation or cross-fading between the parameter values Delay and Scale is made.
- Fig. 9a the case shows that a source moves from the directional area A (11a) to the directional area C (11c).
- the loudspeaker signal LsA for a loudspeaker in the directional area A becomes dependent on the position of the source between A and B, ie of BlendAC in Fig. 9a S1 is decreasing linearly from 1 to 0, while at the same time the source C loudspeaker signal is attenuated less and less.
- S 2 increases linearly from 0 to 1.
- the blending factors S 1 , S 2 are chosen so that at any time the sum of the two factors 1.
- Alternative transitions, such as non-linear transitions, can also be used.
- BlendAC value the sum of the blending factors for the speakers concerned is equal to one.
- non-linear functions are, for example, a COS 2 function for the factor S1, while a SIN 2 function is used for the weighting factor S2.
- Other functions are known in the art.
- the under Fig. 3b The equations shown represent the three weighting factors g 1 , g 2 , g 3 which provide the fading property for the loudspeakers in the directional areas A, B, C. It should again be pointed out that the directional area-specific loudspeaker parameters have already been taken into account again in the audio signal AS for the individual directional areas. For the areas I, II, III, the audio signals AS A, AS B can AS c of the original audio signal AS simply by using the data stored for the corresponding speaker speaker parameter in the column 16a Fig. 2a are calculated, and then finally perform the final fading weighting with the weighting factor g 1 .
- these weights do not have to be split into different multiplications but will typically take place in one and the same multiplication, in which case the scale factor Sk is multiplied by the weighting factor g 1 in order then to obtain a multiplier that will eventually match the audio signal is multiplied to obtain the speaker signal LS a .
- the same weighting g 1 , g 2 , g 3 is used, but in order to calculate the underlying audio signal AS a , AS b or AS c, an interpolation / mixing of the loudspeaker parameter values predetermined for one and the same loudspeaker, instead of finding, as explained below.
- Fig. 4 shows a device for driving a plurality of loudspeakers, wherein the loudspeakers are grouped into directional groups, wherein a first directional group is assigned a first direction group position, wherein a second direction group is assigned a second direction group position, wherein at least one speaker of the first and the second directional group is assigned and wherein the loudspeaker is associated with a loudspeaker parameter having a first parameter value for the first directional group and a second parameter value for the second directional group.
- the apparatus first comprises means 40 for providing a source position between two directional group positions, that is, for example, for providing a source position between the directional group position 11a and the directional group position 11b as indicated by BlendAB in FIG Fig. 3b is specified.
- the device further comprises means 42 for calculating a loudspeaker signal for the at least one loudspeaker based on the first parameter value provided above a first parameter value input 42a which applies to the directional group RGA and based on a second parameter value corresponding to a second parameter value Parameter value input 42b is provided, and applies to the directional group RGB. Furthermore, the means 42 for calculating receives the audio signal via an audio signal input 43 in order then to supply the loudspeaker signal for the relevant loudspeaker in the range IV, V, VI or VII on the output side. The output of device 42 at output 44 will be the actual audio signal if the speaker being viewed is active only due to a single audio source.
- the loudspeaker is active due to several audio sources, as it is in Fig. 7 for each source by means of a processor 71, 72 or 73 a component for the loudspeaker signal of the considered loudspeaker due to this one audio source 70a, 70b, 70c calculated, and then finally the in Fig. 7 N summed component signals in a summer 74.
- the temporal synchronization here takes place via a control processor 75, which, like the DSS processors 71, 72, 73, is preferably designed as a DSP (digital signal processor).
- DSP application specific hardware
- FIG. 7 a sample-wise calculation is shown.
- Summer 74 performs sample-by-sample summation, while delta stereophonic processors 71, 72, 73 also issue sample by sample, and the audio signal is further provided sample by sample.
- all processing can be performed in the frequency domain as well, namely when summing 74 spectra together.
- certain processing may be performed in the frequency domain or the time domain, depending on which implementation is more favorable for the particular application.
- processing can also take place in the filter bank domain, which then requires an analysis filter bank and a synthesis filter bank.
- Fig. 5 a more detailed embodiment of the device 42 for calculating a loudspeaker signal from Fig. 4 explained.
- the audio signal which is assigned to an audio source, is first supplied to a filter mixing block 44 via the audio signal input 43.
- the filter blend block 44 is configured to take into account all three filter parameter settings EQ1, EQ2, EQ3 when considering a speaker in region VII.
- the output of the filter blend block 44 then represents an audio signal which has been filtered in appropriate proportions, as will be described later, to some extent have influences from the filter parameter settings of all three directional regions involved.
- This audio signal at the output of the filter mix block 44 is then supplied to a delay processing stage 45.
- the delay processing stage 45 is designed to generate a delayed audio signal whose delay is now based on an interpolated delay value or, if no interpolation is possible, whose signal shape depends on the three delays D1, D2, D3.
- the three delays associated with a loudspeaker for the three directional groups are provided to a delay interpolation block 46 to calculate an interpolated delay value D int , which is then fed to the delay processing block 45.
- a scaling 47 is performed, wherein the scaling 47 is performed using a total scaling factor that depends on the three scaling factors associated with the same loudspeaker due to the fact that the loudspeaker belongs to several directional groups.
- This total scaling factor is calculated in a scaling interpolation block 48.
- the scaling interpolation block 48 is also given the weighting factor which describes the total fading for the directional area and in connection with Fig. 3b is also fed, as shown by an input 49, so that the scaling in block 47, the final speaker signal component is output on the basis of a source for a loudspeaker, which is at the in Fig. 5 shown embodiment may belong to three different directional groups.
- All speakers of the other directional groups except for the three affected directional groups by which a source is defined will not output signals for that source, but may of course be active for other sources.
- weighting factors may be used to interpolate the delay D int or to interpolate the scaling factor S as used for fading, as indicated by the equations in FIG Fig. 5 set out in addition to the blocks 45 and 47, respectively.
- the filters EQ1, EQ2, EQ3 may be digital filters that convolve an audio signal with the impulse response of the corresponding filter, or there may be transform means, wherein a weighting of spectral coefficients is performed by frequency transfer functions.
- the signals filtered with the equalizer settings in EQ1, EQ2, EQ3, all of which go back to one and the same audio signal, as shown by a distribution point 441 then weighted in respective scaling blocks with the weighting factors g 1 , g 2 , g 3 to then sum up the results of the weights in a summer.
- the part of the delay processing 45 of Fig. 5 is.
- the equalizer parameters EQ1, EQ2, EQ3 do not become directly as shown in the table in FIG Fig. 2a is taken, but it is preferably carried out an interpolation of the equalizer parameters, which is done in a block 442.
- Block 442 on the input side, actually receives the equalizer coefficient associated with a loudspeaker, as indicated by a block 443 in FIG Fig. 6 is shown.
- the interpolation task of the Filter Ramping block effectively performs low pass filtering of successive Equalizer coefficients to avoid artifacts due to rapidly changing Equalizer filter parameters EQ1, EQ2, EQ3.
- the sources can thus be blinded over several directional areas, these directional areas are characterized by different settings for the equalizer. Between the different equalizer settings is dazzled, taking as it is in Fig. 6 is shown in block 44, all equalizers go through in parallel and the outputs are superimposed.
- the position interpolator does not have to be provided.
- the position update rate is arbitrarily adjustable. For example, a new weighting factor could be calculated for each sample. However, this is not preferred. Instead, it has been found that the weighting factor update rate also needs to be made at a fraction of the sampling frequency, even in terms of meaningful artifact avoidance.
- the scaling calculation used in Fig. 5 has been illustrated by blocks 47 and 48 is in Fig. 6 only partially shown.
- the calculation of the total scaling factor shown in block 48 of FIG Fig. 5 has been made, does not find in the in Fig. 6 DSP instead of, but in an upstream control DSP.
- the overall scaling factor, as shown by "Scales" 64, is already input and interpolated in a scaling / interpolation block 65 to finally perform a final scaling in block 66a before then, as shown in block 67a is to the summer 74 of Fig. 7 is gone.
- the device according to the invention allows two delay processing.
- One delay processing is the delay mix 451, while the other delay processing is the delay interpolation performed by an IIR all pass 452.
- the output of the block 44 which has been stored in the ring buffer 450 is provided in the delay mix with three different delays explained below, the delays with which the delay blocks are driven in block 451 are the non-smoothed delays that in the table, based on Fig. 2a has been explained for a speaker, are specified.
- This fact is also clarified by a block 66b, which indicates that the direction group delays are input here, whereas in a block 67b not the direction group delays are input, but at a time only one loudspeaker a delay, namely the interpolated one Delay value Dint coming from block 46 in Fig. 5 is produced.
- the audio signal with three different delays in block 451 then becomes, respectively, as shown in FIG Fig. 6
- weighting factors are now preferably not the weighting factors generated by linear blending, as shown in FIG Fig. 3b is shown. Instead, it is preferred to perform a loudness correction of the weights in a block 453 to achieve a nonlinear three-dimensional crossfade here. It has been found that then the audio quality in the delay mixing becomes better and artifact-free, although the weighting factors g 1 , g 2 , g 3 could also be used to drive the scaler in the delay mixing block 451. The output signals of the scaler in the delay-mixing block are then summed to obtain a delay-mix audio signal at an output 453.
- the delay processing of the invention (block 45 in FIG Fig. 5 ) also perform a delay interpolation.
- an audio signal having the (interpolated) delay provided via block 67b and additionally smoothed in delay ramping block 68 is read from ring buffer 450.
- the same audio signal, but delayed by a sample less also read.
- These two audio signals or just considered samples of the audio signals are then fed to an IIR filter for interpolation in order to obtain at an output 453b an audio signal which has been generated due to an interpolation.
- the audio signal at input 453a has little filter artifact due to the delay mix.
- the audio signal at output 453b is hardly filter artifact-free.
- this audio signal may have frequency level shifts. If the delay is interpolated from a long delay value to a short delay value, the frequency shift will be a shift to higher frequencies, while if the delay is interpolated from a short delay to a long delay, the frequency shift will be a shift to lower frequencies ,
- the output 453a and the output 453b in the crossfade block 457 controlled by a control signal which comes from the block 65 and whose calculation will be discussed, are switched back and forth.
- the delay calculation algorithm therefore switches over too slow or too fast movements.
- the same physical speaker is present in two directional areas with different level and delay settings.
- the level is blinded and the delay is interpolated by means of an Alpass filter, ie the signal is taken at the output 453b.
- this interpolation of the delay results in a pitch change of the signal which, however, is not critical in slow changes.
- the speed of the interpolation exceeds a certain value, such as 10 ms per second, then these pitch changes can be perceived.
- the delay is therefore no longer interpolated, but the signals with the two constant different delays are blinded, as shown in block 451. This will indeed cause comb filter artifacts. However, these will not be audible due to the high shutter speed.
- the switching between the two outputs 453a and 453b takes place, depending on the movement of the source or, more precisely, depending on the delay value to be interpolated. If much delay has to be interpolated, the output 453a is switched through block 457. If, on the other hand, little delay has to be interpolated in a certain period of time, the output 453b is taken.
- the DSP system part of which leads into Fig. 6 is shown, to calculate from the audio matrix at each Maxtrixddling a delay and a level, the level scaling value by AmP in Fig. 11a and Fig. 11b while the delay is designated by "dynamic-interval delay interpolation" or "static-source delay".
- metering 80 may also compute the overall level of a single sound source from multiple sound sources across all of the directional areas that are active for that sound source. This result would result if the matrix points for an input source be summed up for all outputs. In contrast, a contribution of a directional group to a switching source can be achieved by summing up the outputs of the total number of outputs belonging to the considered directional group, while disregarding the other outputs.
- the top hierarchy area are directional area presets, such that for certain audio objects / applications, certain directional areas taken together may be considered as an "over-directional area" on the user interface.
- means 810 for calculating the weighting factors are configured to operate based on the source path, the stored value of the source path parameter, and information about the compensation path, wherein information about the compensation path includes either only the new destination, ie the directional area C, or wherein the information about the compensation path additionally comprises a position of the source on the compensation path, that is to say the compensation path parameter. It should be noted that this information of the position on the compensation path is not necessary if the compensation path is not yet taken, but the source is still on the source path.
- the compensation path is made possible by the fact that a position is no longer determined by two directional areas and a factor, but that a position is defined by three directional areas and two factors, such that also points other than the direct connection lines between two direction group positions can be "driven" by a source.
- Fig. 9a shows a rule case in which a source is located on a connecting line between the start-up area 11a and the aiming direction area 11c.
- the exact position of the source between the start and target directional regions is described by a blend factor Blend AC.
- the directional area A remains.
- the directional area C becomes the directional area B and the glare factor BlendAC becomes the blend area AB, and the new destination area is written in the destination area C.
- the glare factor BlendAC at the time the direction change is to take place that is to say at the time when the source is to leave the source path and swivel onto the compensation path, is stored by means 806 and for the subsequent calculation as blend used.
- the new destination area is written in direction area C.
- Fig. 9d is shown, and InPathTriple, as it is in Fig. 9e is shown.
- Fig. 9e also shows the case that real and ideal position the source is not between two but between three directional areas.
- the in Fig. 9e compensation strategy used In particular shows Fig. 9e the case where the source is already on a compensation path and this compensation path goes back to reach a certain point on the source path.
- each directional area may be connected to each directional area, that is, the source to be from one directional area to another never to cross a third directional area, but from each directional area to every other directional area there exists a programmable source pathway.
- BlendAC BlendAC is set to zero then the source should be at the beginning of the path. If BlendAC equals 1 then the source should be positioned at the end of the path. Furthermore, the user should not be "bothered” with compensation sectors or default sectors when entering them. On the other hand, setting the value for BlendAC depends on whether the source is in the compensation sector or in the default sector. Generally, the in Fig. 10c above-described equation for BlendAC.
- Fig. 10d shows the determination of the parameters BlendAB and BlendAbC, depending on BlendAC, whereby a distinction is made in points 1 and 2, whether the source is in the default sector or in the compensation sector, and where in point 3 the values for the default sector while in point 4 the values for the compensation sector are calculated.
- Each directional area may in this case contain any number of loudspeakers and always exactly one wave field synthesis source, which is held by its virtual position at a fixed position within the loudspeaker array or with respect to the loudspeaker array and in this respect the (real) position of the support loudspeaker in a delta stereophonic System corresponds.
- the wave field synthesis source then represents a channel of the wave field synthesis system, wherein in a wave field synthesis system, as it is known, per channel own audio object, so a separate source can be processed.
- the wave field synthesis source is characterized by corresponding wave field synthesis-specific parameters.
- a new position can be interpolated from the entered fixed positions, which is then actually provided as a virtual position to a wave field synthesis renderer, so that a virtual position is generated without crossfading and true wave field synthesis, which in directional areas that are on the Base of delta stereophony work, of course, is not possible.
- the concept according to the invention is further distinguished by an intuitive user interface which decreases the user as much as possible, and therefore enables secure operation even by users who are not proficient in all depths of the system.
- a combination of the wave field synthesis with the delta stereophony is achieved via a common user interface, wherein in preferred embodiments, dynamic filtering is achieved in swelling movements due to the equalizer parameters and switched between two blend algorithms to produce artifact generation due to the transition from one direction region to another avoid the next directional area.
- dynamic filtering is achieved in swelling movements due to the equalizer parameters and switched between two blend algorithms to produce artifact generation due to the transition from one direction region to another avoid the next directional area.
- it is ensured that no level dips occur during the dimming between the directional areas, Furthermore, a dynamic glare is provided to reduce further artifacts.
- the provision of a compensation path allows for live application capability since there are now opportunities to intervene, for example, to respond to the tracking of sounds when an actor leaves the specified path that has been programmed.
- the present invention is particularly advantageous in the sound in theaters, musical stages, open-air stages with mostly larger auditoriums or in concert venues.
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Stereophonic System (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
Die vorliegende Erfindung bezieht sich auf die Audiotechnik und insbesondere auf die Positionierung von Schallquellen in Systemen, die Delta-Stereophonie-Systeme (DSS) oder Wellenfeldsynthesesysteme oder beide Systeme umfassen.The present invention relates to audio engineering, and more particularly to the positioning of sound sources in systems comprising delta stereophonic systems (DSS) or wave field synthesis systems or both systems.
Typische Beschallungsanlagen zum Versorgen einer relativ großen Umgebung, wie beispielsweise in einem Konferenzraum einerseits oder einer Konzertbühne in einer Halle oder sogar unter freiem Himmel andererseits leiden alle unter der Problematik, dass auf Grund der üblicherweise verwendeten geringen Anzahl von Lautsprecherkanälen eine ortgetreue Wiedergabe der Schallquellen ohnehin ausscheidet. Doch auch dann, wenn ein Links-Kanal und ein Rechts-Kanal zusätzlich zum Monokanal verwendet werden, hat man immer die Problematik des Pegels. So müssen natürlich die hinteren Plätze, also die Plätze, die weit entfernt von der Bühne sind, genauso mit Schall versorgt werden, wie die Plätze, die nah an der Bühne sind. Wenn z. B. nur vorne am Zuhörerraum oder an den Seiten des Zuhörerraums Lautsprecher angeordnet sind, so ist inhärent problematisch, dass Personen, die nahe am Lautsprecher sitzen, den Lautsprecher als übertrieben laut wahrnehmen, damit die Personen ganz hinten noch etwas hören. Anders ausgedrückt werden auf Grund der Tatsache, dass einzelne Versorgungslautsprecher in einem solchen Beschallungsszenario als Punktquellen wahrgenommen werden, immer Personen vorhanden sein, die sagen, dass es zu laut ist, während die anderen Personen sagen, dass es zu leise ist. Die Personen, denen es normalerweise immer zu laut ist, sind die Personen sehr nahe an den punktquellenartigen Lautsprechern, während die Personen, denen es zu leise ist, sehr weit entfernt von den Lautsprechern sitzen werden.Typical public address systems for supplying a relatively large environment, such as in a conference room on the one hand or a concert hall in a hall or even in the open air on the other hand all suffer from the problem that due to the commonly used small number of speaker channels a faithful reproduction of the sound sources anyway eliminated , But even if a left channel and a right channel are used in addition to the mono channel, you always have the problem of the level. So, of course, the back seats, so the seats that are far away from the stage, need to be sounded as well as the seats that are close to the stage. If z. B. speakers are arranged only at the front of the auditorium or on the sides of the audience, it is inherently problematic that people who sit close to the speaker perceive the speaker as exaggeratedly loud, so that people hear something at the very back. In other words, due to the fact that individual utility loudspeakers are perceived as point sources in such a sounding scenario, there will always be people who say that it is too loud while the other people say that it is too quiet. The people who are usually too loud are the people very close to the point source type speakers, while those who are too quiet will be very far away from the speakers.
Um dieser Problematik wenigstens etwas aus dem Weg zu gehen, wird daher versucht, die Lautsprecher höher anzuordnen, also über den Personen, die nahe an den Lautsprechern sitzen, so dass sie wenigstens nicht den kompletten Schall voll mitbekommen, sondern dass sich eine beträchtliche Menge des Schalls des Lautsprechers über den Köpfen der Zuschauer ausbreitet und damit einerseits von den Zuschauern vorne nicht wahrgenommen wird und andererseits dennoch für die Zuschauer weiter hinten einen ausreichenden Pegel liefert. Ferner wird dieser Problematik durch die Lineararraytechnik begegnet.In order to at least somewhat avoid this problem, it is therefore attempted to arrange the loudspeakers higher, that is, above the persons who are sitting close to the loudspeakers, so that they at least do not fully hear the complete sound, but that a considerable amount of the sound is lost Sound of the speaker spreads over the heads of the audience and thus on the one hand not perceived by the audience in front and on the other hand still provides for the audience further back a sufficient level. Furthermore, this problem is countered by the linear array technique.
Andere Möglichkeiten bestehen darin, dass man, um die Personen in den vorderen Reihen, also nahe an den Lautsprechern, nicht überzubelasten, einen geringen Pegel fährt, so dass natürlich dann, weiter hinten im Raum, die Gefahr besteht, dass alles wieder zu leise ist.Other possibilities are that in order not to overload the people in the front rows, so close to the speakers, a low level, so of course, further back in the room, there is a risk that everything is again too quiet ,
Bezüglich der Richtungswahrnehmung ist die ganze Sache noch problematischer. So erlaubt ein einziger Monolautsprecher beispielsweise in einem Konferenzsaal keine Richtungswahrnehmung. Er erlaubt nur dann eine Richtungswahrnehmung, wenn der Ort des Lautsprechers der Richtung entspricht. Dies liegt inhärent an der Tatsache, dass es nur einen einzigen Lautsprecherkanal gibt. Selbst wenn jedoch zwei Stereokanäle vorhanden sind, kann man höchstens zwischen dem linken und dem rechten Kanal hin- und herblenden, also gewissermaßen ein Panning machen. Dies mag von Vorteil sein, wenn es nur eine einzige Quelle gibt. Gibt es jedoch mehrere Quellen, so ist die Lokalisation wie bei zwei Stereokanälen nur grob in einem kleinen Bereich des Zuschauerraums möglich. Man hat zwar auch bei Stereo eine Richtungswahrnehmung, jedoch nur im Sweet-Spot. Bei mehreren Quellen wird insbesondere bei steigender Quellenzahl dieser Richtungseindruck immer mehr verwaschen.Regarding direction perception, the whole thing is even more problematic. For example, a single monaural loudspeaker does not allow directional perception in a conference room. It only allows directional perception if the location of the loudspeaker corresponds to the direction. This is inherent in the fact that there is only one loudspeaker channel. However, even if there are two stereo channels, you can at most between the left and the right channel back and forth, so to speak panning. This may be beneficial if there is only one source. However, if there are several sources, the localization is only roughly possible in a small area of the auditorium, as with two stereo channels. You also have a sense of direction in stereo, but only in the sweet spot. In the case of several sources, this directional impression becomes more and more blurred, especially as the number of sources increases.
In anderen Szenarien sind die Lautsprecher in solchen mittleren bis großen Auditorien, die mit Stereo- oder Mono-Mischungen versorgt werden, über den Zuhörern angeordnet, so dass sie ohnehin keine Richtungsinformationen der Quelle wiedergeben können.In other scenarios, the loudspeakers in such medium to large auditoriums, which are supplied with stereo or mono mixes, are arranged above the listeners, so that they can not reproduce any directional information of the source anyway.
Obgleich sich die Schallquelle, also z. B. ein Sprecher oder ein Theaterspieler auf der Bühne befindet, wird er aus den seitlichen oder mittig angeordneten Lautsprechern wahrgenommen. Auf eine natürliche Richtungswahrnehmung wird hier bisher nach wie vor verzichtet. Man ist bereits zufrieden, wenn es für die hinteren Zuschauer noch ausreichend laut ist, und wenn es für die vorderen Zuschauer nicht unerträglich laut ist.Although the sound source, so z. For example, when a speaker or theater player is on stage, he is perceived from the side or center loudspeakers. On a natural direction perception is still omitted here so far. One is already satisfied when it is still loud enough for the rear viewers, and when it is not unbearably loud for the front viewers.
Bei bestimmten Szenarien wird auch mit so genannten "Stützlautsprechern" gearbeitet, die in der Nähe einer Schallquelle positioniert sind. Damit wird versucht, die natürliche Gehör-Ortung wieder herzustellen. Diese Stützlautsprecher werden normalerweise ohne Verzögerung angesteuert, während die Stereobeschallung über die Versorgungslautsprecher verzögert ist, so dass der Stützlautsprecher zuerst wahrgenommen wird und somit nach dem Gesetz der ersten Wellenfront eine Lokalisation möglich wird. Auch Stützlautsprecher haben jedoch die Problematik, dass sie als Punktquelle wahrgenommen werden. Dies führt zum einen dazu, dass sich eine Differenz zur tatsächlichen Position des Schallemitters ergibt und dass ferner die Gefahr besteht, dass für die vorderen Zuschauer wieder alles zu laut ist, während für die hinteren Zuschauer alles zu leise ist.In certain scenarios, so-called "support loudspeakers" are also used, which are positioned near a sound source. This is an attempt to restore the natural hearing location. These support speakers are normally driven without delay, while the stereo sound is delayed through the supply speakers, so that the support speaker is first perceived and thus according to the law of the first wavefront localization is possible. However, support speakers also have the problem that they are perceived as a point source. This leads, on the one hand, to a difference to the actual position of the sound emitter and, moreover, there is the danger that everything is too loud for the front viewers, while everything is too quiet for the back viewers.
Andererseits erlauben Stützlautsprecher nur dann eine reale Richtungswahrnehmung, wenn sich die Schallquelle, also z. B. ein Sprecher unmittelbar in der Nähe des Stützlautsprechers befindet. Dies würde dann funktionieren, wenn ein Stützlautsprecher im Rednerpult eingebaut ist, und ein Redner immer am Rednerpult steht, und in diesem Wiedergaberaum es ausgeschlossen ist, dass einmal jemand neben dem Rednerpult steht und etwas für die Zuhörerschaft wiedergibt.On the other hand support speakers only allow a real direction perception when the sound source, so z. B. a speaker is located directly in the vicinity of the support speaker. This would work if a support speaker is installed in the lectern, and a speaker is always on the lectern, and in this playback room it is impossible that somebody stands next to the lectern and plays something for the audience.
So stellt sich bei einer lokalen Differenz zwischen Stützlautsprecher und Schallquelle beim Hörer ein Winkelfehler in der Richtungswahrnehmung ein, der insbesondere für Zuhörer, die Stützlautsprecher vielleicht nicht gewohnt sind, sondern eine Stereowiedergabe gewohnt sind, zur weiteren Verunsicherung führt. Es hat sich herausgestellt, dass insbesondere dann, wenn man mit dem Gesetz der ersten Wellenfront arbeitet und einen Stützlautsprecher verwendet, es besser ist, den Stützlautsprecher zu deaktivieren, wenn sich die reale Schallquelle, also der Sprecher z. B. zu weit vom Stützlautsprecher entfernt hat. Anders ausgedrückt ist dieser Punkt mit der Problematik verwandt, dass der Stützlautsprecher nicht bewegt werden kann, so dass, um nicht die oben bezeichnete Verunsicherung bei der Zuhörerschaft zu erzeugen, der Stützlautsprecher ganz deaktiviert wird, wenn sich der Sprecher zu weit vom Stützlautsprecher entfernt hat.Thus, in the case of a local difference between the support loudspeaker and the sound source, an angle error occurs in the direction perception which leads to further uncertainty, especially for listeners who are perhaps not accustomed to supporting loudspeakers, but are used to stereo reproduction. It has been found that especially when working with the law of the first wave front and uses a support speaker, it is better to disable the support speakers when the real sound source, so the speaker z. B. has removed too far from the support speakers. In other words, this point is related to the problem that the support speaker can not be moved, so that in order not to create the above-mentioned uncertainty in the audience, the support speaker is completely disabled when the speaker has moved too far from the support speaker.
Wie es bereits ausgeführt worden ist, werden bei Stützlautsprechern üblicherweise konventionelle Lautsprecher eingesetzt, die wiederum die akustischen Eigenschaften einer Punktquelle - genau so wie die Versorgungslautsprecher - aufweisen, wodurch sich in unmittelbarer Nähe der Systeme ein überhöhter oft als unangenehm empfundener Pegel ergibt.As has already been stated, support loudspeakers usually use conventional loudspeakers, which in turn have the acoustic properties of a point source-just as the supply loudspeakers-resulting in an excessive level which is often perceived as unpleasant in the immediate vicinity of the systems.
Generell besteht also das Ziel, für Beschallungsszenarien, wie sie im Theater/Schauspiel-Bereich stattfinden, eine auditive Wahrnehmung von Quellpositionen zu schaffen, wobei übliche normale Beschallungsanlagen, die lediglich darauf ausgerichtet sind, eine ausreichende Versorgung des gesamten Zuhörerbereichs mit Lautstärke zu schaffen, durch richtungsgebende Lautsprechersysteme und deren Steuerung ergänzt werden sollen.In general, therefore, the aim is to create an auditory perception of source positions for public address scenarios, as they take place in the theater / drama area, whereby conventional normal sound systems, which are only designed to provide sufficient coverage of the entire audience area with loudness directional speaker systems and their control should be added.
Typischerweise werden mittlere bis große Auditorien mit Stereo oder Mono und vereinzelt mit 5.1-Surround-Technik versorgt. Typischerweise sind die Lautsprecher neben oder über dem Zuhörer angeordnet und können richtige Richtungsinformationen der Quellen nur für einen kleinen Zuhörerbereich wiedergeben. Die meisten Zuhörer erhalten einen falschen Richtungseindruck.Typically, medium to large auditoriums are supplied with stereo or mono and occasionally with 5.1 surround technology. Typically, the speakers are located beside or above the listener and can play correct directional information of the sources only for a small audience area. Most listeners get a wrong directional impression.
Darüber hinaus existieren jedoch auch Delta-Stereophoniesysteme (DSS), die einen Richtungsbezug entsprechend dem Gesetz der ersten Schallwellenfront erzeugen. Die
Die Delta-Stereophonie führt dazu, dass in der Nähe der realen Schallquelle (z. B. auf einer Bühne) eine oder mehrere richtungsgebende Lautsprecher vorhanden sind, welche in weiten Teilen des Zuschauergebiets einen Ortungsbezug realisieren. Es ist eine annähernd natürliche Richtungswahrnehmung möglich. Diese Lautsprecher sind zeitlich nach dem richtungsgebenden Lautsprecher angesteuert, um den Ortsbezug zu realisieren. Dadurch wird immer erst der richtungsgebende Lautsprecher wahrgenommen und somit eine Lokalisation möglich, wobei dieser Zusammenhang auch als das "Gesetz der ersten Wellenfront" bezeichnet wird.Delta stereophony means that one or more directional loudspeakers are present in the vicinity of the real sound source (eg on a stage), which detect a locator in large parts of the audience area. It is an almost natural direction perception possible. These speakers are timed to the directional speaker to realize the location reference. This is always the direction-giving Speakers perceived and thus a localization possible, this relationship is also referred to as the "law of the first wave front".
Die Stützlautsprecher werden als Punktquelle wahrgenommen. Es ergibt sich eine Differenz zur tatsächlichen Position des Schallemitters, also der Originalquelle, wenn z.B. ein Solist nicht direkt vor oder neben dem Stützlautsprecher steht, sondern von dem Stützlautsprecher entfernt angeordnet ist.The support speakers are perceived as a point source. There is a difference to the actual position of the sound emitter, that is, the original source when e.g. a soloist is not directly in front of or next to the support speaker, but is located away from the support speaker.
Bewegt sich daher eine Schallquelle zwischen zwei Stützlautsprechern, so muss zwischen unterschiedlich angeordneten solchen Stützlautsprechern geblendet werden. Dies betrifft sowohl den Pegel als auch die Zeit. Dagegen kann durch Wellenfeldsynthese-Anlagen ein realer Richtungsbezug über virtuelle Schallquellen erreicht werden.If, therefore, a sound source moves between two supporting loudspeakers, then it must be dazzled between differently arranged such support loudspeakers. This affects both the level and the time. In contrast, wave direction synthesis systems can be used to achieve a real directional reference via virtual sound sources.
Nachfolgend wird zum besseren Verständnis der vorliegenden Erfindung auf die Wellenfeldsynthese-Technik näher eingegangen.For a better understanding of the present invention, the wave field synthesis technique will be discussed in more detail below.
Ein besserer natürlicher Raumeindruck sowie eine stärkere Einhüllung bei der Audiowiedergabe kann mit Hilfe einer neuen Technologie erreicht werden. Die Grundlagen dieser Technologie, die so genannte Wellenfeldsynthese (WFS; WFS = Wave-Field Synthesis), wurden an der TU Delft erforscht und erstmals in den späten 80er-Jahren vorgestellt (
Infolge der enormen Anforderungen dieser Methode an Rechnerleistung und Übertragungsraten wurde die Wellenfeldsynthese bis jetzt nur selten in der Praxis angewendet. Erst die Fortschritte in den Bereichen der Mikroprozessortechnik und der Audiocodierung gestatten heute den Einsatz dieser Technologie in konkreten Anwendungen. Erste Produkte im professionellen Bereich werden dieses Jahr erwartet. In wenigen Jahren sollen auch erste Wellenfeldsynthese-Anwendungen für den Consumerbereich auf den Markt kommen.Due to the enormous demands of this method on computer performance and transmission rates, wave field synthesis has rarely been used in practice. Only the advances in the areas of microprocessor technology and audio coding allow today the use of this technology in concrete applications. The first professional products are expected this year. In some Years should also come first wave field synthesis applications for the consumer sector on the market.
Die Grundidee von WFS basiert auf der Anwendung des Huy-gens'schen Prinzips der Wellentheorie:The basic idea of WFS is based on the application of Huygens' principle of wave theory:
Jeder Punkt, der von einer Welle erfasst wird, ist Ausgangspunkt einer Elementarwelle, die sich kugelförmig bzw. kreisförmig ausbreitet.Every point, which is detected by a wave, is the starting point of an elementary wave, which spreads in a spherical or circular manner.
Angewandt auf die Akustik kann durch eine große Anzahl von Lautsprechern, die nebeneinander angeordnet sind (einem so genannten Lautsprecherarray), jede beliebige Form einer einlaufenden Wellenfront nachgebildet werden. Im einfachsten Fall, einer einzelnen wiederzugebenden Punktquelle und einer linearen Anordnung der Lautsprecher, müssen die Audiosignale eines jeden Lautsprechers mit einer Zeitverzögerung und Amplitudenskalierung so gespeist werden, dass sich die abgestrahlten Klangfelder der einzelnen Lautsprecher richtig überlagern. Bei mehreren Schallquellen wird für jede Quelle der Beitrag zu jedem Lautsprecher getrennt berechnet und die resultierenden Signale addiert. Befinden sich die wiederzugebenden Quellen in einem Raum mit reflektierenden Wänden, dann müssen auch Reflexionen als zusätzliche Quellen über das Lautsprecherarray wiedergegeben werden. Der Aufwand bei der Berechnung hängt daher stark von der Anzahl der Schallquellen, den Reflexionseigenschaften des Aufnahmeraums und der Anzahl der Lautsprecher ab.Applied to the acoustics can be simulated by a large number of speakers, which are arranged side by side (a so-called speaker array), any shape of an incoming wavefront. In the simplest case, a single point source to be reproduced and a linear arrangement of the speakers, the audio signals of each speaker must be fed with a time delay and amplitude scaling so that the radiated sound fields of each speaker properly overlap. With multiple sound sources, the contribution to each speaker is calculated separately for each source and the resulting signals added together. If the sources to be reproduced are in a room with reflective walls, reflections must also be reproduced as additional sources via the loudspeaker array. The cost of the calculation therefore depends heavily on the number of sound sources, the reflection characteristics of the recording room and the number of speakers.
Der Vorteil dieser Technik liegt im Besonderen darin, dass ein natürlicher räumlicher Klangeindruck über einen großen Bereich des Wiedergaberaums möglich ist. Im Gegensatz zu den bekannten Techniken werden Richtung und Entfernung von Schallquellen sehr exakt wiedergegeben. In beschränktem Maße können virtuelle Schallquellen sogar zwischen dem realen Lautsprecherarray und dem Hörer positioniert werden.The advantage of this technique is in particular that a natural spatial sound impression over a large area of the playback room is possible. In contrast to the known techniques, the direction and distance of sound sources are reproduced very accurately. To a limited extent, virtual sound sources can even be positioned between the real speaker array and the listener.
Obgleich die Wellenfeldsynthese für Umgebungen gut funktioniert, deren Beschaffenheiten bekannt sind, treten doch Unregelmäßigkeiten auf, wenn sich die Beschaffenheit ändert bzw. wenn die Wellenfeldsynthese auf der Basis einer Umgebungsbeschaffenheit ausgeführt wird, die nicht mit der tatsächlichen Beschaffenheit der Umgebung übereinstimmt.Although wavefield synthesis works well for environments whose characteristics are known, irregularities occur when the texture changes, or when wave field synthesis is performed based on environmental conditions that do not match the actual nature of the environment.
Eine Umgebungsbeschaffenheit kann durch die Impulsantwort der Umgebung beschrieben werden.An environmental condition can be described by the impulse response of the environment.
Dies wird anhand des nachfolgenden Beispiels näher dargelegt. Es wird davon ausgegangen, dass ein Lautsprecher ein Schallsignal gegen eine Wand aussendet, deren Reflexion unerwünscht ist. Für dieses einfache Beispiel würde die Raumkompensation unter Verwendung der Wellenfeldsynthese darin bestehen, dass zunächst die Reflexion dieser Wand bestimmt wird, um zu ermitteln, wann ein Schallsignal, das von der Wand reflektiert worden ist, wieder beim Lautsprecher ankommt, und welche Amplitude dieses reflektierte Schallsignal hat. Wenn die Reflexion von dieser Wand unerwünscht ist, so besteht mit der Wellenfeldsynthese die Möglichkeit, die Reflexion von dieser Wand zu eliminieren, indem dem Lautsprecher ein zu dem Reflexionssignal gegenphasiges Signal mit entsprechender Amplitude zusätzlich zum ursprünglichen Audiosignal eingeprägt wird, so dass die hinlaufende Kompensationswelle die Reflexionswelle auslöscht, derart, dass die Reflexion von dieser Wand in der Umgebung, die betrachtet wird, eliminiert ist. Dies kann dadurch geschehen, dass zunächst die Impulsantwort der Umgebung berechnet wird und auf der Basis der Impulsantwort dieser Umgebung die Beschaffenheit und Position der Wand bestimmt wird, wobei die Wand als Spiegelquelle interpretiert wird, also als Schallquelle, die einen einfallenden Schall reflektiert.This will be explained in more detail with reference to the following example. It is assumed that a loudspeaker emits a sound signal against a wall whose reflection is undesirable. For this simple example, the space compensation using wavefield synthesis would be to first determine the reflection of that wall to determine when a sound signal reflected from the wall will return to the loudspeaker and what amplitude this reflected sound signal will be Has. If the reflection from this wall is undesirable, then with the wave field synthesis it is possible to eliminate the reflection from this wall by impressing the loudspeaker with a signal of opposite amplitude to the reflection signal in addition to the original audio signal, so that the traveling compensating wave is the Reflectance wave extinguished, so that the reflection from this wall in the environment that is considered, is eliminated. This can be done by first computing the impulse response of the environment and determining the nature and position of the wall based on the impulse response of that environment, the wall being interpreted as a source of mirrors, that is, a sound source reflecting an incident sound.
Wird zunächst die Impulsantwort dieser Umgebung gemessen und wird dann das Kompensationssignal berechnet, das dem Audiosignal überlagert dem Lautsprecher eingeprägt werden muss, so wird eine Aufhebung der Reflexion von dieser Wand stattfinden, derart, dass ein Hörer in dieser Umgebung schallmäßig den Eindruck hat, dass diese Wand überhaupt nicht existiert.If the impulse response of this environment is first measured and then the compensation signal is calculated, which must be impressed on the audio signal superimposed on the loudspeaker, then the reflection from this wall is canceled take place in such a way that a listener in this environment has the sound impression that this wall does not exist at all.
Entscheidend für eine optimale Kompensation der reflektierten Welle ist jedoch, dass die Impulsantwort des Raums genau bestimmt wird, damit keine Über- oder Unterkompensation auftritt.Decisive for an optimal compensation of the reflected wave, however, is that the impulse response of the room is accurately determined, so that no overcompensation or undercompensation occurs.
Die Wellenfeldsynthese ermöglicht somit eine korrekte Abbildung von virtuellen Schallquellen über einen großen Wiedergabebereich. Gleichzeitig bietet sie dem Tonmeister und Toningenieur neues technisches und kreatives Potential bei der Erstellung auch komplexer Klanglandschaften. Die Wellenfeldsynthese (WFS oder auch Schallfeldsynthese), wie sie Ende der 80-er Jahre an der TU Delft entwickelt wurde, stellt einen holographischen Ansatz der Schallwiedergabe dar. Als Grundlage hierfür dient das Kirchhoff-Helmholtz-Integral. Dieses besagt, dass beliebige Schallfelder innerhalb eines geschlossenen Volumens mittels einer Verteilung von Monopol- und Dipolschallquellen (Lautsprecherarrays) auf der Oberfläche dieses Volumens erzeugt werden können. Details hierzu finden sich in
Bei der Wellenfeldsynthese wird aus einem Audiosignal, das eine virtuelle Quelle an einer virtuellen Position aussendet, eine Synthesesignal für jeden Lautsprecher des Lautsprecherarrays berechnet, wobei die Synthesesignale derart hinsichtlich Amplitude und Phase gestaltet sind, dass eine Welle, die sich aus der Überlagerung der einzelnen durch die im Lautsprecherarray vorhandenen Lautsprecher ausgegebenen Schallwelle ergibt, der Welle entspricht, die von der virtuellen Quelle an der virtuellen Position herrühren würde, wenn diese virtuelle Quelle an der virtuellen Position eine reale Quelle mit einer realen Position wäre.In the wave field synthesis, a synthesis signal for each loudspeaker of the loudspeaker array is calculated from an audio signal that emits a virtual source at a virtual position, the synthesis signals being designed in such a way that amplitude and phase Wave resulting from the superposition of the individual sound waves output by the loudspeakers present in the loudspeaker array corresponding to the wave that would originate from the virtual source at the virtual position, if this virtual source at the virtual position is a real source with a real position would.
Typischerweise sind mehrere virtuelle Quellen an verschiedenen virtuellen Positionen vorhanden. Die Berechnung der Synthesesignale wird für jede virtuelle Quelle an jeder virtuellen Position durchgeführt, so dass typischerweise eine virtuelle Quelle in Synthesesignalen für mehrere Lautsprecher resultiert. Von einem Lautsprecher aus betrachtet empfängt dieser Lautsprecher somit mehrere Synthesesignale, die auf verschiedene virtuelle Quellen zurückgehen. Eine Überlagerung dieser Quellen, die aufgrund des linearen Superpositionsprinzips möglich ist, ergibt dann das von dem Lautsprecher tatsächlich ausgesendete Wiedergabesignal.Typically, multiple virtual sources exist at different virtual locations. The computation of the synthesis signals is performed for each virtual source at each virtual location, typically resulting in one virtual source in multiple speaker synthesis signals. Seen from a loudspeaker, this loudspeaker thus receives several synthesis signals, which go back to different virtual sources. A superimposition of these sources, which is possible due to the linear superposition principle, then gives the reproduced signal actually emitted by the speaker.
Die Möglichkeiten der Wellenfeldsynthese können um so besser ausgeschöpft werden, je geschlossener die Lautsprecherarrays sind, d. h. um so mehr einzelne Lautsprecher möglichst nah beieinander angeordnet werden können. Damit steigt jedoch auch die Rechenleistung, die eine Wellenfeldsyntheseeinheit vollbringen muss, da typischerweise auch Kanalinformationen berücksichtigt werden müssen. Dies bedeutet im einzelnen, dass von jeder virtuellen Quelle zu jedem Lautsprecher prinzipiell ein eigener Übertragungskanal vorhanden ist, und dass prinzipiell der Fall vorhanden sein kann, dass jede virtuelle Quelle zu einem Synthesesignal für jeden Lautsprecher führt, bzw. dass jeder Lautsprecher eine Anzahl von Synthesesignalen erhält, die gleich der Anzahl von virtuellen Quellen ist.The possibilities of wave field synthesis can be better exploited the more closed the speaker arrays are, ie. H. the more individual speakers can be arranged as close to each other as possible. However, this also increases the computing power which a wave field synthesis unit has to accomplish, since channel information also typically has to be taken into account. This means in more detail that from each virtual source to each speaker in principle a separate transmission channel is present, and that in principle there may be the case that each virtual source leads to a synthesis signal for each speaker, or that each speaker a number of synthesis signals which equals the number of virtual sources.
Darüber hinaus sei an dieser Stelle angemerkt, dass die Qualität der Audiowiedergabe mit der Anzahl der zur Verfügung gestellten Lautsprecher steigt. Dies bedeutet, dass die Audiowiedergabequalität um so besser und realistischer wird, um so mehr Lautsprecher in dem bzw. den Lautsprecherarrays vorhanden sind.In addition, it should be noted at this point that the quality of the audio playback increases with the number of speakers provided. This means that the audio playback quality is the better and more realistic is the more speakers in the loudspeaker array (s) are present.
Im obigen Szenario könnten die fertig gerenderten und Analog-Digital-gewandelten Wiedergabesignale für die einzelnen Lautsprecher beispielsweise über Zweidrahtleitungen von der Wellenfeldsynthese-Zentraleinheit zu den einzelnen Lautsprechern übertragen werden. Dies hätte zwar den Vorteil, dass nahezu sichergestellt ist, dass alle Lautsprecher synchron arbeiten, so dass hier zu Synchronisationszwecken keine weiteren Maßnahmen erforderlich wären. Andererseits könnte die Wellenfeldsynthese-Zentraleinheit immer nur für einen speziellen Wiedergaberaum bzw. für eine Wiedergabe mit einer festgelegten Anzahl von Lautsprechern hergestellt werden. Dies bedeutet, dass für jeden Wiedergaberaum eine eigene Wellenfeldsynthese-Zentraleinheit gefertigt werden müsste, die ein erhebliches Maß an Rechenleistung zu vollbringen hat, da die Berechnung der Audiowiedergabesignale insbesondere im Hinblick auf viele Lautsprecher bzw. viele virtuelle Quellen zumindest teilweise parallel und in Echtzeit erfolgen muss.In the above scenario, the finished and analog-to-digital converted reproduction signals for the individual loudspeakers could, for example, be transmitted via two-wire lines from the wave field synthesis central unit to the individual loudspeakers. Although this would have the advantage that it is almost ensured that all speakers work in sync, so that here for synchronization purposes, no further action would be required. On the other hand, the wave field synthesis central unit could always be made only for a special reproduction room or for a reproduction with a fixed number of loudspeakers. This means that a separate wave field synthesis central unit would have to be produced for each reproduction space, which has to accomplish a considerable amount of computing power, since the calculation of the audio reproduction signals has to be at least partially parallel and in real time, in particular with regard to many loudspeakers or many virtual sources ,
Die Delta-Stereophonie ist insbesondere problematisch, da sich beim Überblenden zwischen unterschiedlichen Schallquellen Positionen-Artefakte durch Phasen- und Pegelfehler einstellen. Ferner kommen bei unterschiedlichen Bewegungsgeschwindigkeiten der Quellen Phasenfehler und Fehllokalisationen vor. Darüber hinaus ist das Überblenden von einem Stützlautsprecher zu einem anderen Stützlautsprecher mit einem sehr großen Aufwand an Programmierung verbunden, wobei zugleich Probleme bestehen, die Übersicht über die ganze Audioszene zu bewahren, insbesondere wenn mehrere Quellen von verschiedenen Stützlautsprechern hin- und hergeblendet werden, und wenn insbesondere viele Stützlautsprecher, die unterschiedlich angesteuert werden können, existieren.The delta stereophony is particularly problematic, since position artifacts due to phase and level errors occur when fading between different sound sources. Furthermore, phase errors and mislocalizations occur at different moving speeds of the sources. Moreover, the crossfading from one support speaker to another support speaker is associated with a great deal of programming, while at the same time there are problems maintaining the overview of the entire audio scene, especially when multiple sources are faded from different support speakers, and when In particular, many support speakers that can be controlled differently, exist.
Ferner sind die Wellenfeldsynthese einerseits und die Delta-Stereophonie andererseits eigentlich gegenläufige Verfahren, während jedoch beide Systeme in unterschiedlichen Anwendungen Vorteile haben können.Furthermore, on the one hand wave field synthesis on the one hand and delta stereophony on the other hand are actually opposing methods, while both systems can have advantages in different applications.
So ist die Delta-Stereophonie wesentlich weniger aufwendig bezüglich der Berechnung der Lautsprechersignale als die Wellenfeldsynthese. Andererseits kann aufgrund der Wellenfeldsynthese artefaktfrei gearbeitet werden. Jedoch können Wellenfeldsynthesearrays wegen des Platzbedarfs und der Anforderung an ein Array mit eng beabstandeten Lautsprechern nicht überall eingesetzt werden. Insbesondere im Bereich der Bühnentechnik ist es sehr problematisch, auf der Bühne ein Lautsprecherband oder ein Lautsprecherarray anzuordnen, da solche Lautsprecherarrays schlecht versteckt werden können und damit sichtbar sind und den visuellen Eindruck der Bühne beeinträchtigen. Dies ist insbesondere dann problematisch, wenn, wie es bei Theater/Musical-Aufführungen normalerweise der Fall ist, der visuelle Eindruck einer Bühne Vorrang vor allen anderen Angelegenheiten, und insbesondere vor dem Ton bzw. der Tonerzeugung hat. Andererseits ist durch die Wellenfeldsynthese kein festes Raster an Stützlautsprechern vorgegeben, sondern es kann kontinuierlich eine bewegung einer virtuellen Quelle stattfinden. Ein Stützlautsprecher kann sich dagegen nicht bewegen. Die Bewegung des Stützlautsprechers kann jedoch durch Richtungsblendung virtuell erzeugt werden.Thus, the delta stereophony is much less expensive in terms of calculating the loudspeaker signals than the wave field synthesis. On the other hand, it is possible to work without artifacts due to wave field synthesis. However, wave field synthesis arrays can not be widely used because of space requirements and the requirement for an array of closely spaced loudspeakers. Particularly in the field of stage technology, it is very problematic to arrange a loudspeaker band or a loudspeaker array on the stage, since such loudspeaker arrays can be badly hidden and thus are visible and impair the visual impression of the stage. This is especially problematic when, as is usually the case with theater / musical performances, the visual impression of a stage takes precedence over all other matters, and more particularly, from tone or tone generation. On the other hand, wave field synthesis does not predetermine a fixed grid of supporting loudspeakers, but instead a movement of a virtual source can take place continuously. A support speaker, however, can not move. However, the movement of the support speaker can be generated virtually by directional glare.
Beschränkungen der Delta-Stereophonie liegen also insbesondere darin, dass die Anzahl der möglichen Stützlautsprecher, die in einer Bühne untergebracht werden, aus Aufwandsgründen (abhängig vom Bühnenbild) und Soundverwaltungsgründen begrenzt ist. Darüber hinaus benötigt jeder Stützlautsprecher, wenn er nach dem Prinzip der ersten Wellenfront arbeiten soll, weitere Lautsprecher, die die nötige Lautstärke erzeugen. Hierin besteht gerade der Vorteil der Delta-Stereophonie, dass eigentlich ein relativ kleiner und damit gut unterbringbarer Lautsprecher zur Lokalisationserzeugung ausreicht, während jedoch viele weitere Lautsprecher, die in der Nähe angeordnet sind, dazu dienen, die nötige Lautstärke für den Zuhörer zu erzeugen, der ja in einem relativ großen Zuhörerraum ziemlich weit hinten sitzen kann.Limitations of delta stereophony are thus in particular that the number of possible support speakers, which are housed in a stage, for reasons of expense (depending on the set) and sound management reasons is limited. In addition, each support speaker, if it is to work on the principle of the first wavefront, requires additional speakers that produce the necessary volume. This is precisely the advantage of delta stereophony, which is actually a relatively small and thus well placed speaker for localization However, while many other nearby loudspeakers are designed to produce the necessary volume for the listener, who can sit quite aft in a relatively large audience room.
Man kann daher sämtliche Lautsprecher auf der Bühne unterschiedlichen Richtungsgebieten zuordnen, wobei jedes Richtungsgebiet einen Lokalisationslautsprecher (oder eine kleine Gruppe von gleichzeitig angesteuerten Lokalisationslautsprechern) hat, der ohne oder mit nur einer geringen Delay angesteuert wird, während die anderen Lautsprecher der Richtungsgruppe mit demselben Signal, aber zeitverzögert angesteuert werden, um die nötige Lautstärke zu erzeugen, während der Lokalisationslautsprecher die genau definierte Lokalisation geliefert hatte.It is thus possible to assign all loudspeakers on the stage to different directional areas, each directional area having a localization loudspeaker (or a small group of simultaneously controlled localization loudspeakers) which is driven without or with only a slight delay, while the other loudspeakers of the directional group have the same signal, but timed to produce the required volume while the localization speaker had delivered the well-defined localization.
Nachdem man eine ausreichende Lautstärke braucht, ist die Anzahl der Lautsprecher in einer Richtungsgruppe nach unten hin nicht beliebig reduzierbar. Andererseits hätte man gerne sehr viele Richtungsgebiete, um eine kontinuierliche Schallversorgung wenigstens anzustreben. Aufgrund der Tatsache, dass jedes Richtungsgebiet neben dem Lokalisationslautsprecher auch genügend Lautsprecher benötigt, um eine ausreichende Lautstärke zu erzeugen, ist die Anzahl der Richtungsgebiete begrenzt, wenn ein Bühnenraum in aneinander angrenzende nicht-überlappende Richtungsgebiete eingeteilt wird, wobei jedem Richtungsgebiet ein Lokalisationslautsprecher oder eine kleine Gruppe von eng aneinander benachbarten Lokalisationslautsprechern zugeordnet ist.After you need a sufficient volume, the number of speakers in a direction group downwards is not arbitrarily reducible. On the other hand, one would like to have many directional areas in order to at least strive for a continuous sound supply. Due to the fact that each directional area next to the localization speaker also requires enough loudspeakers to generate sufficient volume, the number of directional areas is limited when a stage space is divided into contiguous non-overlapping directional areas, where each directional area is a localization speaker or a small one Group of closely adjacent Lokalisationslautsprechern is assigned.
Typische Delta-Stereophonie-Konzepte basieren darauf, dass zwischen zwei Orten übergeblendet wird, wenn sich eine Quelle von einem Ort zum anderen Ort bewegen soll. Dieses Konzept ist dann problematisch, wenn z. B. manuell in ein programmiertes Set-Up eingegriffen werden soll, oder wenn eine Fehlerkorrektur stattzufinden hat. Stellt sich nämlich beispielsweise heraus, dass sich ein Sänger nicht an die vereinbarte Route über die Bühne hält, sondern anders läuft, so wird zunehmend eine Abweichung zwischen der wahrgenommenen Position und der tatsächlichen Position des Sängers stattfinden, was natürlich nicht erstrebenswert ist.Typical delta stereophonic concepts are based on blending between two locations when a source is to move from one location to another. This concept is problematic when z. B. should be intervened manually in a programmed set-up, or if an error correction has to take place. For example, it turns out that a singer does not follow the If the agreed route is over the stage, but rather different, there will be an increasing difference between the perceived position and the actual position of the singer, which of course is not desirable.
Wird für einen solchen Fall eine Korrektureingriffsmöglichkeit gewünscht, so könnte ein Benutzer zu Korrekturzwecken eingeben, dass die Audio-Position zu einem bestimmten Zeitpunkt oder unmittelbar der tatsächlichen Position des Sängers auf der Bühne entsprechen soll. Dies würde jedoch einen harten Quellensprung mit sich führen, der unter Umständen zu noch größeren Artefakten führen würde als die Nicht-Übereinstimmung der Audioquelle und der wahrgenommenen Audioquelle.If a corrective intervention option is desired for such a case, a user could enter for correction purposes that the audio position should correspond at a certain time or directly to the actual position of the singer on the stage. However, this would entail a hard swap of the source, which in some circumstances would lead to even greater artifacts than the audio source and perceived audio source mismatch.
Um einen solchen Sprung zu vermeiden, könnte man den bereits angefangenen Überblendungsprozess vollenden, um dann, ausgehend von einer Position innerhalb eines Richtungsgebiets also nach einem kompletten Überblendvorgang das Ziel des nächsten Überblendvorgangs zu korrigieren. Damit würde sichergestellt werden, dass keine harten Sprünge auftreten. Allerdings ist an diesem Konzept nachteilhaft, dass keine Möglichkeit besteht, innerhalb eines Überblendvorgangs einzugreifen. Es wird also zu einer erheblichen Verzögerung kommen, insbesondere dann, wenn ein relativ langer Überblendvorgang gerade läuft, nämlich z. B. von einer Quelle ganz links auf der Bühne zu einer Quelle ganz rechts auf einer großen Bühne. Dies führt dazu, dass ein relativ langer Zeitabschnitt existiert, in dem die wahrgenommene von der tatsächlichen Position der Audioquelle abweicht. Ferner muss natürlich die tatsächliche Position, die vielleicht bereits wieder in Bewegung ist, eingeholt werden, was nur durch einen relativ schnellen Durchlauf einer Quelle über die Bühne zur gesuchten Position bewerkstelligt werden kann. Dieser sehr schnelle Durchlauf kann wiederum zu Artefakten führen, oder führt zumindest dazu, dass sich ein Benutzer wundert, warum sich die wahrgenommenen Audioposition so stark bewegt, obgleich sich der Sänger selbst nicht oder nur wenig bewegt hat.In order to avoid such a jump, one could complete the transition process that has already begun, and then, starting from a position within a directional area, that is, after a complete crossfading operation, correct the target of the next crossfading operation. This would ensure that no hard jumps occur. However, it is disadvantageous in this concept that there is no possibility of intervening within a crossfading process. So it will come to a significant delay, especially if a relatively long crossfade process is currently running, namely z. From a source on the far left of the stage to a source on the right on a large stage. As a result, there is a relatively long period of time in which the perceived one deviates from the actual position of the audio source. Furthermore, of course, the actual position, which may already be moving again, must be obtained, which can only be accomplished by a relatively fast passage of a source across the stage to the sought position. This very fast sweep, in turn, can lead to artifacts, or at least result in a user wondering why the perceived audio position moved so strongly, although the singer himself did not move or only slightly.
Die Aufgabe der vorliegenden Erfindung besteht darin, ein flexibles und doch Artefakt-reduziertes Konzept zum Steuern einer Mehrzahl von Lautsprechern zu schaffen.The object of the present invention is to provide a flexible yet artifact-reduced concept for controlling a plurality of loud speakers.
Diese Aufgabe wird durch eine Vorrichtung zum Steuern einer Mehrzahl von Lautsprechern gemäß Patentanspruch 1, ein Verfahren zum Steuern einer Mehrzahl von Lautsprechern gemäß Patentanspruch 15 oder ein Computer-Programm gemäß Patentanspruch 16 gelöst.This object is achieved by a device for controlling a plurality of loudspeakers according to
Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass eine Artefakt-reduzierte und schnelle manuelle Eingriffsmöglichkeit in den Verlauf der Bewegung von Quellen dadurch erreicht wird, dass ein Kompensationspfad zugelassen wird, auf dem sich eine Quelle bewegen kann. Der Kompensationspfad unterscheidet sich vom normalen Quellenpfad dadurch, dass er nicht an einer Richtungsgruppenposition beginnt, sondern dass er an einer Verbindungslinie zwischen zwei Richtungsgruppen, und zwar an irgendeiner beliebigen Stelle dieser Verbindungslinie beginnt und sich von dort zu einer neuen Ziel-Richtungsgruppe erstreckt. Dadurch ist es nicht mehr möglich, eine Quelle durch die Angabe von zwei Richtungsgruppen zu beschreiben, sondern die Quelle muss durch wenigstens drei Richtungsgruppen beschrieben werden, wobei bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung eine Positionsbeschreibung der Quelle eine Identifikation der drei beteiligten Richtungsgruppen sowie zwei Blend-Faktoren umfasst, wobei der erste Blend-Faktor angibt, wo auf dem Quellenpfad "abgebogen" worden ist, und wobei der zweite Blend-Faktor angibt, wo sich die Quelle gerade auf dem Kompensationspfad befindet, also wie weit die Quelle bereits vom Quellenpfad entfernt ist bzw. wie lange die Quelle noch bis zur neuen Ziel-Richtung laufen muss.The present invention is based on the recognition that an artifact-reduced and rapid manual intervention in the course of the movement of sources is achieved by allowing a compensation path on which a source can move. The compensation path differs from the normal source path in that it does not begin at a direction group position, but begins at a connection line between two directional groups, at any point in that connection line, and extends from there to a new destination directional group. As a result, it is no longer possible to describe a source by the specification of two directional groups, but the source must be described by at least three directional groups, wherein in a preferred embodiment of the present invention, a position description of the source identification of the three directional groups involved and two blend Factors, where the first blend factor indicates where on the source path has been "bent", and where the second blend factor indicates where the source is currently on the compensation path, that is, how far the source already is from the source path or how long the source has to run until the new target direction.
Die Berechnung der Gewichtungsfaktoren für die Lautsprecher der drei beteiligten Richtungsgebiete findet erfindungsgemäß basierend auf dem Quellenpfad, dem gespeicherten Wert des Quellenpfadparameters und Informationen über den Kompensationspfad statt. Die Informationen über den Kompensationspfad können das neue Ziel an sich oder aber den zweiten Blend-Faktor umfassen. Ferner kann für die Bewegung der Quelle auf dem Kompensationspfad eine vordefinierte Geschwindigkeit verwendet werden, die systemmäßig vorgegeben sein kann, da die Bewegung auf dem Kompensationspfad typischerweise eine Kompensationsbewegung ist, die nicht von der Audioszene abhängt, sondern die dazu da ist, etwas in einer vorprogrammierten Szene zu ändern bzw. zu korrigieren. Aus diesem Grund wird die Geschwindigkeit der Audioquelle auf dem Kompensationspfad typischerweise relativ schnell stattfinden, jedoch nicht so schnell, dass problematische hörbare Artefakte auftreten.The calculation of the weighting factors for the loudspeakers of the three directional areas involved takes place according to the invention based on the source path, the stored value of the source path parameter and information about the compensation path. The information about the compensation path may include the new target per se or the second blend factor. Further, for the movement of the source on the compensation path, a predefined speed may be used, which may be predetermined by the system, since the movement on the compensation path is typically a compensation movement which does not depend on the audio scene but which is there, something in a preprogrammed one Change scene or correct. For this reason, the velocity of the audio source on the compensation path will typically be relatively fast, but not so fast that problematic audible artifacts will occur.
Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist die Einrichtung zum Berechnen der Gewichtungsfaktoren ausgebildet, um Gewichtungsfaktoren zu berechnen, die linear von den Blend-Faktoren abhängen. Alternative Konzepte, wie beispielsweise nicht-lineare Abhängigkeiten im Sinne einer Sinus2-Funktion oder eine Kosinus2-Funktion können jedoch ebenfalls verwendet werden.In a preferred embodiment of the present invention, the means for calculating the weighting factors is configured to calculate weighting factors that depend linearly on the glare factors. However, alternative concepts such as non-linear dependencies in terms of a sine 2 function or a cosine 2 function can also be used.
Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung umfasst die Vorrichtung zum Steuern der Mehrzahl von Lautsprechern ferner eine Sprungkompensationseinrichtung, die vorzugsweise hierarchisch basierend auf verschiedenen zur Verfügung gestellten Kompensationsstrategien arbeitet, um einen harten Quellensprung mittels eines Sprungkompensations-Pfads zu vermeiden.In a preferred embodiment of the present invention, the device for controlling the plurality of loudspeakers further comprises a jump compensator, which preferably operates hierarchically based on various provided compensation strategies to avoid a hard swap of the source by means of a jump compensation path.
Ein bevorzugtes Ausführungsbeispiel basiert darauf, dass von den aneinander angrenzenden Richtungsgebieten, die das "Raster" der gut lokalisierbaren Bewegungspunkte auf einer Bühne festlegen, weggegangen werden muss. So war aufgrund der Forderung, dass die Richtungsgebiete nicht überlappend sind, damit klare Verhältnisse bei der Ansteuerung vorhanden sind, die Anzahl der Richtungsgebiete begrenzt, da jedes Richtungsgebiet neben dem Lokalisationslautsprecher auch eine genügend große Anzahl von Lautsprechern benötigte, um neben der ersten Wellenfront, die durch den Lokalisationslautsprecher erzeugt wird, auch eine ausreichende Lautstärke zu erzeugen.A preferred embodiment is based on having to go away from the adjoining directional areas that define the "raster" of well locatable motion points on a stage. That was due the requirement that the directional areas are not overlapping, so clear control conditions are available, the number of directional areas limited because each directional area in addition to the Lokalisationslautsprecher also needed a sufficiently large number of speakers, in addition to the first wave front, by the Lokalisationslautsprecher is generated, also to produce a sufficient volume.
Vorzugsweise wird eine Einteilung des Bühnenraums in einander überlappende Richtungsgebiete vorgenommen, wobei damit die Situation entsteht, dass ein Lautsprecher nicht nur zu einem einzigen Richtungsgebiet gehören kann, sondern zu einer Mehrzahl von Richtungsgebieten, also wie beispielsweise zu zumindest dem ersten Richtungsgebiet und dem zweiten Richtungsgebiet und gegebenenfalls zu einem dritten oder einem weiteren vierten Richtungsgebiet.Preferably, a division of the stage space is made in overlapping directional areas, thereby creating the situation that a speaker may belong not only to a single directional area, but to a plurality of directional areas, such as at least the first directional area and the second directional area and if applicable to a third or a further fourth directional area.
Die Zugehörigkeit eines Lautsprechers zu einem Richtungsgebiet erfährt der Lautsprecher dadurch, dass ihm dann, wenn er zu einem Richtungsgebiet gehört, ein bestimmter Lautsprecherparameter, der durch das Richtungsgebiet bestimmt ist, zugeordnet ist. Ein solcher Lautsprecherparameter kann eine Verzögerung sein, die für die Lokalisationslautsprecher des Richtungsgebiets klein sein wird und für die anderen Lautsprecher des Richtungsgebiets größer sein wird. Ein weiterer Parameter kann eine Skalierung sein oder eine Filterkurve, die durch einen Filterparameter (Equalizerparameter) bestimmt sein kann.The affiliation of a loudspeaker to a directional area is experienced by the loudspeaker in that, if it belongs to a directional area, it is assigned a specific loudspeaker parameter which is determined by the directional area. Such a speaker parameter may be a delay which will be small for the localization speakers of the directional area and will be greater for the other speakers of the directional area. Another parameter can be a scaling or a filter curve, which can be determined by a filter parameter (equalizer parameter).
Typischerweise wird hier jeder Lautsprecher auf einer Bühne einen eigenen Lautsprecherparameter haben, und zwar abhängig davon, zu welchem Richtungsgebiet er gehört. Diese Werte der Lautsprecherparameter, die davon abhängen, zu welchem Richtungsgebiet der Lautsprecher gehört, werden typischerweise bei einem Soundcheck von einem Toningenieur teils heuristisch teils empirisch für einen speziellen Raum festgelegt und dann, wenn der Lautsprecher arbeitet, eingesetzt.Typically, each loudspeaker on a stage will have its own loudspeaker parameter, depending on which direction it belongs to. These values of loudspeaker parameters, which depend on which directional area the loudspeaker belongs to, typically become heuristic in a sound check by a sound engineer, partly empirical for a particular room and then when the speaker is working, inserted.
Nachdem jedoch zugelassen wird, dass ein Lautsprecher zu mehreren Richtungsgebieten gehören kann, hat der Lautsprecher für den Lautsprecherparameter zwei unterschiedliche Werte. So würde ein Lautsprecher, wenn er zu Richtungsgebiet A gehört, eine erste Delay DA haben. Der Lautsprecher hätte jedoch dann, wenn er zu dem Richtungsgebiet B gehört, einen anderen Delay-Wert DB.However, after allowing one speaker to belong to multiple directional areas, the speaker parameter speaker has two different values. So a loudspeaker, if it belongs to directional area A, would have a first delay DA. However, if the speaker belongs to the directional area B, the speaker would have a different delay value DB.
So wird nunmehr dann, wenn von der Richtungsgruppe A in eine Richtungsgruppe B gegangen werden soll, bzw. wenn eine Position einer Schallquelle wiedergegeben werden soll, die zwischen der Richtungsgebietsposition A der Richtungsgruppe A und der Richtungsgebietsposition B der Richtungsgruppe B liegt, die Lautsprecherparameter verwendet, um das Audiosignal für diesen Lautsprecher und für die gerade betrachtete Audioquelle zu verwenden. Erfindungsgemäß wird der eigentlich unauflösliche Widerspruch, nämlich dass ein Lautsprecher zwei unterschiedliche Delay-Einstellungen, Skalierungs-Einstellungen oder Filtereinstellungen hat, dadurch ausgeräumt, dass zur Berechnung des Audiosignals, das von dem Lautsprecher ausgegeben werden soll, die Lautsprecher-Parameterwerte für alle beteiligten Richtungsgruppen verwendet werden.Thus, when it is desired to go from the directional group A to a directional group B, or when to reproduce a position of a sound source that is between the directional area position A of the directional group A and the directional area position B of the directional group B, the speaker parameters are used. to use the audio signal for this speaker and for the currently viewed audio source. According to the invention, the actually indissoluble contradiction, namely that a loudspeaker has two different delay settings, scaling settings or filter settings, is eliminated by using the loudspeaker parameter values for all directional groups involved for calculating the audio signal to be output by the loudspeaker become.
Vorzugsweise hängt die Berechnung des Audiosignals von dem Abstandmaß ab, also von der räumlichen Position zwischen den beiden Richtungsgruppenpositionen, wobei das Abstandsmaß typischerweise ein Faktor sein wird, der zwischen Null und Eins liegt, wobei ein Faktor von Null bestimmt, dass der Lautsprecher bei der Richtungsgruppenposition A ist, während ein Faktor von Eins bestimmt, dass der Lautsprecher auf der Richtungsgruppenposition B ist.Preferably, the calculation of the audio signal depends on the distance measure, that is, the spatial position between the two direction group positions, the distance measure will typically be a factor lying between zero and one, where a factor of zero determines that the speaker is at the direction group position A is, while a factor of one determines that the speaker is on the direction group position B.
Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird abhängig davon, wie schnell sich eine Quelle zwischen der Richtungsgruppenposition A und der Richtungsgruppenposition B bewegt, eine echte Lautsprecherparameterwertinterpolation vorgenommen oder eine Überblendung eines Audiosignals, das auf dem ersten Lautsprecherparameter basiert, in ein Lautsprechersignal, das auf dem zweiten Lautsprecherparameter basiert. Insbesondere bei Delay-Einstellungen, also bei einem Lautsprecherparameter, der eine Delay des Lautsprechers (bezüglich einer Bezugsdelay) wiedergibt, muss besonders darauf geachtet werden, ob Interpolation oder Überblendung eingesetzt wird. Wird nämlich bei einer sehr schnellen Bewegung einer Quelle eine Interpolation verwendet, so führt dies zu hörbare Artefakten, die zu einem schnell ansteigenden Ton oder zu einem schnell abfallenden Ton führen werden. Für schnelle Bewegungen von Quellen wird daher eine Überblendung bevorzugt, die zwar zu Kammfiltereffekten führt, die jedoch aufgrund der schnellen Überblendung nicht bzw. kaum hörbar sind. Andererseits wird für langsame Bewegungsgeschwindigkeiten die Interpolation bevorzugt, um die bei langsamen Überblendungen auftretenden Kammfiltereffekte, die zudem noch deutlich hörbar werden, zu vermeiden. Um weitere Artefakte, wie ein Knacksen, das hörbar wäre, bei der "Umschaltung" von Interpolation auf Überblendung zu vermeiden, wird ferner das Umschalten nicht schlagartig, also von einem Sample zum nächsten vorgenommen, sondern es wird, gesteuert von einem Umschaltparameter, eine Überblendung innerhalb eines Überblendungsbereich, der mehrere Samples umfassen wird, basierend auf einer Überblendungsfunktion, die vorzugsweise linear ist, die jedoch auch nichtlinear z. B. trigonometrisch sein kann, vorgenommen.In a preferred embodiment of the present invention, depending on how fast a source moving between the directional group position A and the directional group position B, real speaker parameter value interpolation or fading of an audio signal based on the first speaker parameter into a speaker signal based on the second speaker parameter. Particularly in the case of delay settings, that is to say with a loudspeaker parameter which reproduces a delay of the loudspeaker (with respect to a reference delay), special attention must be paid to whether interpolation or crossfading is used. Namely, if an interpolation is used in a very fast movement of a source, this will result in audible artifacts that will result in a rapidly rising tone or a rapidly falling tone. For fast movements of sources, therefore, a transition is preferred, which leads to comb filter effects, but which are not or barely audible due to the fast transition. On the other hand, for slow motion velocities, interpolation is preferred in order to avoid the comb filter effects associated with slow crossfades, which are also clearly audible. Furthermore, in order to avoid further artifacts, such as crackling, which would be audible in the "switching" from interpolation to crossfading, the switching is not abruptly made, ie from one sample to the next, but a transition is effected, controlled by a switching parameter within a fade range that will include multiple samples based on a fade function, which is preferably linear but which may be nonlinear, e.g. B. may be trigonometric, made.
Bei einem weiteren bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird eine graphische Benutzerschnittstelle zur Verfügung gestellt, auf der Wege einer Schallquelle von einem Richtungsgebiet zu einem anderen Richtungsgebiet graphisch dargestellt sind. Vorzugsweise werden auch Kompensationspfade berücksichtigt, um schnelle Veränderungen des Wegs einer Quelle zu erlauben, bzw. um harte Sprünge von Quellen, wie sie bei Szenenumbrüchen auftreten könnten, zu vermeiden. Der Kompensationspfad stellt sicher, dass ein Weg einer Quelle nicht nur dann geändert werden kann, wenn sich die Quelle in der Richtungsposition befindet, sondern auch dann, wenn sich die Quelle zwischen zwei Richtungspositionen befindet. Damit wird sichergestellt, dass eine Quelle von ihrem programmierten Weg auch zwischen zwei Richtungspositionen abbiegen kann. In anderen Worten ausgedrückt wird dies insbesondere dadurch erreicht, dass die Position einer Quelle durch drei (benachbarte) Richtungsgebiete definierbar ist, und zwar insbesondere durch Identifikation der drei Richtungsgebiete sowie die Angabe von zwei Blend-Faktoren.In another preferred embodiment of the present invention, a graphical user interface is provided that graphically illustrates ways of a sound source from one directional area to another directional area. Preferably, compensation paths are also taken into account to allow rapid changes in the path of a source, or hard ones Jumps from sources, as they might occur in scene breaks, to avoid. The compensation path ensures that a path of a source can not only be changed when the source is in the directional position, but also when the source is between two directional positions. This ensures that a source can turn off its programmed path between two directional positions. In other words, this is achieved in particular by the fact that the position of a source can be defined by three (adjacent) directional areas, in particular by identification of the three directional areas as well as the indication of two glare factors.
Bei einem weiteren bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird dort, wo Wellenfeldsynthese-Lautsprecherarrays möglich sind, im Beschallungsraum ein Wellenfeldsynthese-Array angebracht, das ebenfalls durch Angabe einer virtuellen Position (z.B. in der Mitte des Arrays) ein Richtungsgebiet mit einer Richtungsgebietsposition darstellt.In another preferred embodiment of the present invention, where wave field synthesis loudspeaker arrays are possible, a wave field synthesis array is mounted in the sound space, which also represents a directional region having a directional location position by indicating a virtual position (e.g., in the center of the array).
Damit wird dem Benutzer der Anlage die Entscheidung abgenommen, ob es sich bei einer Schallquelle um eine Wellenfeldsynthese-Schallquelle oder eine Delta-Stereophonie-Schallquelle handelt.This is the decision of the user of the system, whether it is a sound source is a wave field synthesis sound source or a delta stereophonic sound source.
Somit wird ein benutzerfreundliches und flexibles System geschaffen, das eine flexible Einteilung eines Raums in Richtungsgruppen ermöglicht, da Richtungsgruppenüberlappungen zugelassen werden, wobei Lautsprecher in einer solchen Überlappungszone im Hinblick auf ihre Lautsprecherparameter mit von den zu den Richtungsgebieten gehörigen Lautsprecherparametern abgeleiteten Lautsprecherparametern versorgt werden, wobei diese Ableitung vorzugsweise durch Interpolation oder Überblendung erfolgt. Alternativ könnte auch eine harte Entscheidung vorgenommen werden, z.B. dann, wenn sich die Quelle näher an dem einen Richtungsgebiet befindet, den einen Lautsprecherparameter zu nehmen, um dann, wenn sich die Quelle näher an dem anderen Richtungsgebiet befindet, den anderen Lautsprecherparameter zu nehmen, wobei der dann auftretende harte Sprung zur Artefaktreduktion einfach geglättet werden könnte. Eine Abstands-gesteuerte Überblendung oder eine Abstands-gesteuerte Interpolation wird jedoch bevorzugt.Thus, a user-friendly and flexible system is provided which allows a flexible division of a space into directional groups, as directional group overlaps are allowed, with loudspeakers in such an overlapping zone being supplied with loudspeaker parameters derived from the loudspeaker parameters corresponding to the directional areas, with respect to their loudspeaker parameters Derivative is preferably done by interpolation or crossfading. Alternatively, a hard decision could be made, for example, when the source is closer to the one directional area, the to take a loudspeaker parameter so as to take the other loudspeaker parameter when the source is closer to the other directional field, whereby the then occurring hard jump for artifact reduction could simply be smoothed. However, pitch-controlled blending or pitch-controlled interpolation is preferred.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:
- Fig. 1
- eine Einteilung eines Beschallungsraums in überlappende Richtungsgruppen;
- Fig. 2a
- eine schematische Lautsprecherparameter-Tabelle für Lautsprecher in den verschiedenen Bereichen;
- Fig. 2b
- eine speziellere Darstellung der für die Lautsprecherparameter-Verarbeitung nötigen Schritte für die verschiedenen Bereiche;
- Fig. 3a
- eine Darstellung einer linearen Zwei-Wege-Überblendung;
- Fig. 3b
- eine Darstellung einer Drei-Wege-Überblendung;
- Fig. 4
- ein schematisches Blockschaltbild der Vorrichtung zum Ansteuern einer Mehrzahl von Lautsprechern mit einem DSP;
- Fig. 5
- eine detailliertere Darstellung der Einrichtung zum Berechnen eines Lautsprechersignals von
Fig. 4 gemäß einem bevorzugten Ausführungsbeispiel; - Fig. 6
- eine bevorzugte Implementierung eines DSP zur Implementierung der Delta-Stereophonie;
- Fig. 7
- eine schematische Darstellung des Zustandekommens eines Lautsprechersignals aus mehreren Einzel-Lautsprechersignalen, die von verschiedenen Audioquellen herrühren;
- Fig. 8
- eine schematische Darstellung einer Vorrichtung zum Steuern einer Mehrzahl von Lautsprechern, die auf einer graphischen Benutzerschnittstelle basieren kann;
- Fig. 9a
- ein typisches Szenario der Bewegung einer Quelle zwischen einer ersten Richtungsgruppe A und einer zweiten Richtungsgruppe C;
- Fig. 9b
- eine schematische Darstellung der Bewegung gemäß einer Kompensationsstrategie, um einen harten Sprung einer Quelle zu vermeiden;
- Fig. 9c
- eine Legende für die
Figuren 9d bis 9i ; - Fig. 9d
- eine Darstellung der Kompensationsstrategie "InpathDual";
- Fig. 9e
- eine schematische Darstellung der Kompensations-strategie "InpathTriple";
- Fig. 9f
- eine schematische Darstellung der Kompensations-strategien AdjacentA, AdjacentB, AdjacentC;
- Fig. 9g
- eine schematische Darstellung der Kompensations-strategien OutsideM und OutsideC;
- Fig. 9h
- eine schematische Darstellung eines Cader-Kompensationspfads;
- Fig. 9i
- eine schematische Darstellung von drei Cader-Kompensationsstrategien;
- Fig. 10a
- eine Darstellung zur Definition des Quellenpfads (DefaultSector) und des Kompensationspfads (CompensationSector);
- Fig. 10b
- eine schematische Darstellung der Rückwärtsbewegung einer Quelle mit dem Cader mit geändertem Kompensationspfad;
- Fig. 10c
- eine Darstellung der Auswirkung von BlendAC auf die anderen Blend-Faktoren;
- Fig. 10d
- eine schematische Darstellung zum Berechnen der Blend-Faktoren und damit der Gewichtungsfaktoren abhängig von BlendAC;
- Fig. 11a
- eine Darstellung einer Input/Output-Matrix für dynamische Quellen; und
- Fig. 11b
- eine Darstellung einer Input/Output-Matrix für statische Quellen.
- Fig. 1
- a division of a sound space into overlapping directional groups;
- Fig. 2a
- a schematic speaker parameter table for speakers in the different areas;
- Fig. 2b
- a more specific illustration of the steps required for speaker parameter processing for the various areas;
- Fig. 3a
- a representation of a linear two-way crossfade;
- Fig. 3b
- a representation of a three-way crossfade;
- Fig. 4
- a schematic block diagram of the device for driving a plurality of speakers with a DSP;
- Fig. 5
- a more detailed representation of the device for calculating a loudspeaker signal of
Fig. 4 according to a preferred embodiment; - Fig. 6
- a preferred implementation of a DSP for implementing delta stereophony;
- Fig. 7
- a schematic representation of the occurrence of a loudspeaker signal from a plurality of individual loudspeaker signals resulting from different audio sources;
- Fig. 8
- a schematic representation of an apparatus for controlling a plurality of speakers, which can be based on a graphical user interface;
- Fig. 9a
- a typical scenario of the movement of a source between a first directional group A and a second directional group C;
- Fig. 9b
- a schematic representation of the movement according to a compensation strategy to avoid a hard jump of a source;
- Fig. 9c
- a legend for the
FIGS. 9d to 9i ; - Fig. 9d
- a representation of the compensation strategy "InpathDual";
- Fig. 9e
- a schematic representation of the compensation strategy "InpathTriple";
- Fig. 9f
- a schematic representation of the compensation strategies AdjacentA, AdjacentB, AdjacentC;
- Fig. 9g
- a schematic representation of the compensation strategies OutsideM and OutsideC;
- Fig. 9h
- a schematic representation of a Cader compensation path;
- Fig. 9i
- a schematic representation of three Cader compensation strategies;
- Fig. 10a
- a representation for the definition of the source path (DefaultSector) and the compensation path (CompensationSector);
- Fig. 10b
- a schematic representation of the backward movement of a source with the Cader with changed compensation path;
- Fig. 10c
- an illustration of the effect of BlendAC on the other blend factors;
- Fig. 10d
- a schematic representation for calculating the blend factors and thus the weighting factors depending on BlendAC;
- Fig. 11a
- a representation of an input / output matrix for dynamic sources; and
- Fig. 11b
- a representation of an input / output matrix for static sources.
Darüber hinaus existiert bei der in
Ferner existiert ein Bereich VI, in dem Lautsprecher angeordnet sind, die sowohl der Richtungsgruppe RGC als auch der Richtungsgruppe RGB zugeordnet sind. Schließlich existiert ein Überlappungsbereich zwischen allen drei Richtungsgruppen, wobei dieser Überlappungsbereich VII Lautsprecher umfasst, die sowohl der Richtungsgruppe RGA als auch der Richtungsgruppe RGB als auch der Richtungsgruppe RGC zugeordnet sind.Further, there exists an area VI in which speakers are arranged, which are assigned to both the directional group RGC and the directional group RGB. Finally, there is an overlapping area between all three directional groups, this overlapping area VII comprising loudspeakers associated with both the directional group RGA and the directional group RGB as well as the directional group RGC.
Typischerweise wird jedem Lautsprecher in einem Bühnensetting vom Toningenieur bzw. vom für den Ton zuständigen Regisseur ein Lautsprecherparameter oder eine Mehrzahl von Lautsprecherparametern zugeordnet. Diese Lautsprecherparameter umfassen, wie es in
Der EQ-Filter-Parameter gibt an, wie der Frequenzgang eines Audiosignals, das von einem Lautsprecher ausgegeben werden soll, aussehen soll. So könnte für bestimmte Lautsprecher der Wunsch bestehen, die hohen Frequenzen im Vergleich zu den tiefen Frequenzen zu verstärken, was beispielsweise dann Sinn machen würde, wenn der Lautsprecher in der Nähe eines Bühnenteils liegt, das eine starke Tiefpasscharakteristik hat. Anderseits könnte für einen Lautsprecher, der in einem Bühnenbereich ist, der keine Tiefpasscharakteristik hat, der Wunsch bestehen, eine solche Tiefpasscharakteristik einzuführen, wobei dann der EQ-Filter-Parameter einen Frequenzgang anzeigen würde, bei dem die hohen Frequenzen bezüglich der tiefen Frequenzen gedämpft sind. Generell kann für jeden Lautsprecher jeder beliebige Frequenzgang über einen EQ-Filter-Parameter eingestellt werden.The EQ filter parameter specifies how the frequency response of an audio signal to be output from a speaker should look like. Thus, for certain speakers, there may be a desire to amplify the high frequencies as compared to the low frequencies, which would make sense, for example, if the speaker is near a stage part that has a strong low-pass characteristic. On the other hand, for a loudspeaker that is in a stage area that does not have a low-pass characteristic, there may be a desire to introduce such a low-pass characteristic, in which case the EQ filter parameter would indicate a frequency response in which the high frequencies are attenuated with respect to the low frequencies , In general, any frequency response can be set for each speaker via an EQ filter parameter.
Für alle Lautsprecher, die in den Bereichen I, II, III, angeordnet sind, gibt es nur einen einzigen Delay-Parameter Dk, Scale-Parameter Sk und EQ-Filter-Parameter Eqk. Immer dann, wenn eine Richtungsgruppe aktiv sein soll, wird das Audiosignal für einen Lautsprecher in den Bereichen I, II und III einfach unter Berücksichtigung des entsprechenden Lautsprecher-Parameters bzw. der entsprechenden Lautsprecher-Parameter berechnet.For all speakers arranged in the ranges I, II, III, there is only one delay parameter Dk, scale parameter Sk and Eq filter parameter Eqk. Whenever a directional group is to be active, the audio signal for a loudspeaker in the ranges I, II and III is simply calculated taking into account the corresponding loudspeaker parameter or the corresponding loudspeaker parameters.
Befindet sich dagegen ein Lautsprecher in den Bereichen IV, V, VI, so hat jeder Lautsprecher zwei zugeordnete Lautsprecher-Parameterwerte für jeden Lautsprecher-Parameter. Wenn beispielsweise nur die Lautsprecher in der Richtungsgruppe RGA aktiv sind, wenn also eine Quelle z.B. genau auf der Richtungsgruppenposition A (11a) sitzt, so spielen nur die Lautsprecher der Richtungsgruppe A für diese Audioquelle. In diesem Fall würde zur Berechnung des Audiosignals für den Lautsprecher die Spalte von Parameterwerte verwendet werden, die der Richtungsgruppe RGA zugeordnet ist.On the other hand, if a speaker is in areas IV, V, VI, then each speaker has two associated speaker parameter values for each speaker parameter. For example, if only the speakers in the directional group RGA are active, ie if a source is located exactly at the direction group position A (11a), only the speakers of the directional group A will play for this audio source. In this case, to calculate the audio signal for the speaker uses the column of parameter values assigned to the direction group RGA.
Sitzt dagegen die Audioquelle z.B. genau in der Position 11b in der Richtungsgruppe RGB, so würde dann, wenn ein Audiosignal für den Lautsprecher berechnet wird, nur die Mehrzahl von Parameterwerten, die der Richtungsgruppe RGB zugeordnet sind, verwendet werden.On the other hand, if the audio source is sitting e.g. exactly in the
Ist eine Audioquelle dagegen zwischen den Quellen AB angeordnet, also an irgendeinem Punkt auf der Verbindungslinie zwischen 11a und 11b in
Erfindungsgemäß wird nunmehr das Audiosignal unter Berücksichtigung beider Parameterwerte und vorzugsweise unter Berücksichtigung des Abstandsmaßes, wie später noch dargelegt werden wird, berechnet. Vorzugsweise wird eine Interpolation oder Überblendung zwischen den Parameterwerten Delay und Scale vorgenommen. Ferner wird bevorzugt, eine Mischung der Filtercharakteristika durchzuführen, um auch unterschiedliche Filter-Parameter, die ein und demselben Lautsprecher zugeordnet sind, zu berücksichtigen.According to the invention, the audio signal is now calculated taking into account both parameter values and preferably taking into account the distance measure, as will be explained later. Preferably, an interpolation or cross-fading between the parameter values Delay and Scale is made. Furthermore, it is preferred to perform a mixture of the filter characteristics in order to also take into account different filter parameters associated with one and the same loudspeaker.
Befindet sich die Audioquelle dagegen an einer Position, die nicht auf der Verbindungslinie 12 liegt, sondern z.B. unterhalb dieser Verbindungslinie 12, so müssen auch die Lautsprecher der Richtungsgruppe RGC aktiv sein. Für Lautsprecher, die im Bereich VII angeordnet sind, wird dann eine Berücksichtigung der drei typischerweise unterschiedlichen Parameter-Werte für denselben Lautsprecher-Parameter stattfinden, während für den Bereich V und den Bereich VI eine Berücksichtigung der Lautsprecher-Parameterwerte für die Richtungsgruppen A und C für ein und denselben Lautsprecher stattfinden wird.On the other hand, if the audio source is located at a position which is not on the connecting
Dieses Szenario ist in
Für den Bereich VII muss nicht nur bei der Berechnung des neuen Lautsprecher-Parameters eine Berücksichtigung von zwei unterschiedlichen tabellarisch typischerweise gespeicherten Lautsprecher-Parameterwerten folgen, sondern es muss eine Interpolation von drei Werten, bzw. eine Mischung aus drei Werten stattfinden.For the area VII, not only in the calculation of the new loudspeaker parameter must a consideration of two different tabular typically stored loudspeaker parameter values follow, but there must be an interpolation of three values, or a mixture of three values.
Es sei darauf hingewiesen, dass auch Überlappungen höherer Ordnung zugelassen werden können, nämlich dass ein Lautsprecher zu einer beliebigen Anzahl von Richtungsgruppen gehört.It should be noted that overlaps of a higher order can also be allowed, namely that a loudspeaker belongs to any number of directional groups.
In diesem Fall verändert sich lediglich die Anforderung an die Mischung/Interpolation und die Anforderung an die Berechnung der Gewichtungsfaktoren, auf die später noch eingegangen wird.In this case, only the requirement for the mixture / interpolation and the requirement for the calculation of the weighting factors, which will be discussed later, change.
Nachfolgend wird auf
Es sei darauf hingewiesen, dass die Darstellung in
Die unter
Es sei darauf hingewiesen, dass die Drei-Wege-Gewichtungsfaktoren g1, g2, g3 in die Zwei-Wege-Überblendung von
Die Vorrichtung zum Ansteuern wird nachfolgend bezugnehmend auf
Die erfindungsgemäße Vorrichtung umfasst ferner eine Einrichtung 42 zum Berechnen eines Lautsprechersignals für den wenigstens einen Lautsprecher basierend auf dem ersten Parameterwert, der über einem ersten Parameterwerteingang 42a bereitgestellt wird, der für die Richtungsgruppe RGA gilt, und basierend auf einem zweiten Parameterwert, der an einen zweiten Parameterwerteingang 42b bereitgestellt wird, und der für die Richtungsgruppe RGB gilt. Ferner erhält die Einrichtung 42 zum Berechnen das Audiosignal über einen Audiosignaleingang 43, um dann ausgangsseitig das Lautsprechersignal für den betrachteten Lautsprecher in dem Bereich IV, V, VI oder VII zu liefern. Das Ausgangssignal der Einrichtung 42 am Ausgang 44 wird das tatsächliche Audiosignal sein, wenn der Lautsprecher, der gerade betrachtet wird, nur aufgrund einer einzigen Audioquelle aktiv ist. Ist der Lautsprecher dagegen aufgrund mehrerer Audioquellen aktiv, so wird, wie es in
Selbstverständlich ist die vorliegende Erfindung nicht auf die Realisierung mit anwendungsspezifischer Hardware (DSP) beschränkt. Auch eine integrierte Implementierung mit einem oder mehreren PC oder Workstations ist ebenfalls möglich und kann für bestimmte Anwendungen sogar von Vorteil sein..Of course, the present invention is not limited to implementation with application specific hardware (DSP). An integrated implementation with one or more PCs or workstations is also possible and may even be advantageous for certain applications.
Es sei darauf hingewiesen, dass in
Nachfolgend wird bezugnehmend auf
Das Audiosignal, das einer Audioquelle zugeordnet ist, wird über den Audiosignaleingang 43 zunächst einem Filtermischungsblock 44 zugeführt. Der Filtermischungsblock 44 ist ausgebildet, um dann, wenn ein Lautsprecher im Bereich VII berücksichtigt wird, alle drei Filter-Parametereinstellungen EQ1, EQ2, EQ3 zu berücksichtigen. Das Ausgangssignal des Filtermischungsblocks 44 stellt dann ein Audiosignal dar, das in entsprechenden Anteilen, wie es später noch beschrieben wird, gefiltert worden ist, um gewissermaßen Einflüsse von den Filter-Parametereinstellungen aller drei beteiligten Richtungsgebiete zu haben. Dieses Audiosignal am Ausgang des Filtermischungsblocks 44 wird dann einer Delay-Verarbeitungsstufe 45 zugeführt. Die Delay-Verarbeitungsstufe 45 ist ausgebildet, um ein verzögertes Audiosignal zu erzeugen, dessen Verzögerung nunmehr jedoch auf einem interpolierten Verzögerungswert basiert, oder, wenn keine Interpolation möglich ist, dessen Signalform von den drei Verzögerungen D1, D2, D3 abhängt. Im Falle der Verzögerungsinterpolation werden die drei Verzögerungen, die einem Lautsprecher für die drei Richtungsgruppen zugeordnet sind, einem Verzögerungsinterpolationsblock 46 zur Verfügung gestellt, um einen interpolierten Verzögerungswert Dint zu berechnen, der dann in den Delay-Verarbeitungsblock 45 eingespeist wird.The audio signal, which is assigned to an audio source, is first supplied to a
Schließlich wird noch eine Skalierung 47 durchgeführt, wobei die Skalierung 47 unter Verwendung eines Gesamtskalierungsfaktors ausgeführt wird, der von den drei Skalierungsfaktoren abhängt, die ein und demselben Lautsprecher aufgrund der Tatsache, dass der Lautsprecher zu mehreren Richtungsgruppen gehört, zugeordnet sind. Dieser Gesamtskalierungsfaktor wird in einem Skalierungsinterpolationsblock 48 berechnet. Vorzugsweise wird dem Skalierungsinterpolationsblock 48 ferner auch der Gewichtungsfaktor, der das insgesamte Fading für das Richtungsgebiet beschreibt und in Verbindung mit
Alle Lautsprecher der anderen Richtungsgruppen außer den drei betroffenen Richtungsgruppen durch die eine Quelle definiert ist, geben keine Signale für diese Quelle aus, können aber selbstverständlich für andere Quellen aktiv sein.All speakers of the other directional groups except for the three affected directional groups by which a source is defined will not output signals for that source, but may of course be active for other sources.
Es sei darauf hingewiesen, dass dieselben Gewichtungsfaktoren zum Interpolieren der Verzögerung Dint oder zum Interpolieren des Skalierungsfaktors S verwendet werden können, wie sie zum Fading eingesetzt werden, wie es durch die Gleichungen in
Nachfolgend wird bezugnehmend auf
Der Block 442 erhält jedoch eingangsseitig tatsächlich die einem Lautsprecher zugeordneten Equalizer-Koeffizienten, wie es durch einen Block 443 in
Die Quellen können also über mehrere Richtungsgebiete geblendet werden, wobei diese Richtungsgebiete sich durch unterschiedliche Einstellungen für die Equalizer auszeichnen. Zwischen den verschiedenen Equalizer-Einstellungen wird geblendet, wobei, wie es in
Es sei ferner darauf hingewiesen, dass die Gewichtungsfaktoren g1, g2, g3, wie sie in Block 44 zum Überblenden bzw. Mischen der Equalizer-Einstellungen verwendet werden, die Gewichtungsfaktoren sind, die in
Die Skalierungsberechnung, die in
Nachfolgend wird bezugnehmend auf
Die erfindungsgemäße Vorrichtung erlaubt zwei Delay-Verarbeitungen. Die eine Delay-Verarbeitung ist die Delay-Mischung 451, während die andere Delay-Verarbeitung die Delay-Interpolation ist, die durch einen IIR-Allpass 452 ausgeführt wird.The device according to the invention allows two delay processing. One delay processing is the
Das Ausgangssignal des Blocks 44, das im Ringpuffer 450 gespeichert worden ist, wird in der nachfolgend erläuterten Delay-Mischung mit drei verschiedenen Delays bereitgestellt, wobei die Delays, mit denen die Delay-Blöcke im Block 451 angesteuert werden, die nicht-geglätteten Delays sind, die in der Tabelle, die anhand von
Das mit drei unterschiedlichen Delays vorliegende Audiosignal im Block 451 wird dann jeweils, wie es in
Alternativ kann die erfindungsgemäße Delay-Verarbeitung (Block 45 in
Wie es bereits erläutert worden ist, hat das Audiosignal am Eingang 453a aufgrund der Delay-Mischung kaum Filter-Artefakte. Dagegen ist das Audiosignal am Ausgang 453b kaum Filter-Artefakt-frei. Allerdings kann dieses Audiosignal Frequenzhöhen-Verschiebungen haben. Wird die Delay von einem langen Delaywert auf einen kurzen Delaywert interpoliert, so wird die Frequenzverschiebung eine Verschiebung zu höheren Frequenzen sein, während dann, wenn die Delay von einer kurzen Verzögerung auf eine lange Verzögerung interpoliert wird, die Frequenzverschiebung eine Verschiebung zu niedrigeren Frequenzen sein wird.As already explained, the audio signal at
Erfindungsgemäß wird zwischen dem Ausgang 453a und dem Ausgang 453b in dem Überblendungsblock 457, gesteuert durch ein Steuersignal, das aus dem Block 65 kommt, und auf dessen Berechnung noch eingegangen wird, hin- und hergeschaltet.According to the invention, the
Im Block 65 wird ferner gesteuert, ob der Block 457 das Ergebnis der Mischung oder der Interpolation weiterleitet oder in welchem Verhältnis die Ergebnisse gemischt werden. Hierzu wird der geglättete bzw. gefilterte Wert aus dem Block 68 mit dem nicht geglätteten verglichen, um davon abhängig welcher größer ist die (gewichtete) Umschaltung in 457 vorzunehmen.In
Das Blockschaltbild in
Der Delay-Berechnungs-Algorithmus schaltet daher bei zu langsamen oder zu schnellen Bewegungen um. Derselbe physikalische Lautsprecher ist in zwei Richtungsgebieten mit unterschiedlichen Pegel- und Verzögerungseinstellungen vorhanden. Bei einer langsamen Bewegung der Quelle zwischen den beiden Richtungsgebieten wird der Pegel geblendet und die Verzögerung interpoliert mittels eines Alpassfilters, es wird also das Signal am Ausgang 453b genommen. Diese Interpolation der Verzögerung führt jedoch zu einer Tonhöhenänderung des Signals, die jedoch bei langsamen Änderungen nicht kritisch ist. Überschreitet die Geschwindigkeit der Interpolation dagegen einen bestimmten Wert, wie beispielsweise 10 ms pro Sekunde, so können diese Tonhöhenänderungen wahrgenommen werden. Im Falle einer zu hohen Geschwindigkeit wird die Verzögerung daher nicht mehr interpoliert, sondern die Signale mit den zwei konstanten unterschiedlichen Verzögerungen werden geblendet, wie es im Block 451 dargestellt ist. Dadurch kommt es zwar zu Kammfilterartefakten. Diese werden jedoch aufgrund der hohen Blendgeschwindigkeit nicht hörbar sein.The delay calculation algorithm therefore switches over too slow or too fast movements. The same physical speaker is present in two directional areas with different level and delay settings. With a slow movement of the source between the two directional areas, the level is blinded and the delay is interpolated by means of an Alpass filter, ie the signal is taken at the
Wie es ausgeführt worden ist, findet die Umschaltung zwischen den beiden Ausgängen 453a und 453b, abhängig von der Bewegung der Quelle bzw. genauer gesagt, abhängig von dem zu interpolierenden Delay-Wert statt. Muss viel Delay interpoliert werden, so wird der Ausgang 453a durch den Block 457 durchgeschaltet. Muss dagegen wenig Delay in einem bestimmten Zeitraum interpoliert werden, so wird der Ausgang 453b genommen.As has been stated, the switching between the two
Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung findet jedoch die Umschaltung durch den Block 457 nicht hart statt. Der Block 475 ist derart ausgebildet, dass ein Überblendungsbereich existiert, der um den Schwellwert herum angeordnet ist. Ist daher die Geschwindigkeit der Interpolation auf dem Schwellwert, so ist der Block 457 ausgebildet, um das ausgangsseitige Sample derart zu berechnen, dass das aktuelle Sample auf dem Ausgang 453a und das aktuelle Sample auf dem Ausgang 453b addiert werden und das Ergebnis durch zwei geteilt wird. Der Block 457 führt daher in einem Überblendungsbereich um den Schwellwert herum einen weichen Übergang von dem Ausgang 453b zum Ausgang 453a oder umgekehrt statt. Dieser Überblendungsbereich kann beliebig groß gestaltet werden, derart, dass der Block 457 nahezu durchgängig im Überblendungsmodus arbeitet. Für eine eher härtere Umschaltung kann der Überblendungsbereich kleiner gewählt werden, so dass der Block 457 allermeistens entweder nur den Ausgang 453a oder nur den Ausgang 453b zum Skalierer 66a durchschaltet.However, in a preferred embodiment of the present invention, switching through
Bei einer bevorzugten Ausführungsform der vorliegenden Erfindung ist der Überblendungsblock 457 ferner ausgebildet, um eine Jitterunterdrückung über einen Tiefpass und eine Hysterese des Verzögerungs-Änderungs-Schwellwerts durchzuführen. Aufgrund der nicht-garantierten Laufzeit des Steuerdatenflusses zwischen dem System zur Konfiguration und den DSP-Systemen, kann es zu einem Jitter in den Steuerdaten kommen, die zu Artefakten in der Audiosignalverarbeitung führen können. Es wird daher bevorzugt, durch eine Tiefpassfilterung des Steuerdatenstroms am Eingang des DSP-Systems diesen Jitter auszugleichen. Dieses Verfahren verringert die Reaktionszeit der Steuerzeiten. Dafür können sehr große Jitterschwankungen ausgeglichen werden. Werden aber für die Umschaltung von Verzögerungsinterpolationen auf Verzögerungsblendung und Verzögerungsblendung auf Verzögerungsinterpolation unterschiedliche Schwellwerte verwendet, so kann der Jitter in den Steuerdaten alternativ zum Tiefpassfiltern ohne Verminderung der Steuerdatenreaktionszeit vermieden werden.In a preferred embodiment of the present invention, the
Bei einem weiteren bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist der Überblendungsblock 457 ferner ausgebildet, um eine Steuerdatenmanipulation beim Blenden von Verzögerungsinterpolationen auf Verzögerungsblendung durchzuführen.In another preferred embodiment of the present invention, the
Ändert sich die Verzögerungsänderung sprunghaft auf einen Wert größer dem Umschaltschwellwert zwischen Verzögerungsinterpolationen und Verzögerungsblendung, so wird bei einer herkömmlichen Blendung immer noch ein Teil der Tonhöhenschwankung aus der Verzögerungsinterpolation zu hören sein. Um diesen Effekt zu vermeiden, ist der Überblendungsblock 457 ausgebildet, um die Verzögerungssteuerdaten solange konstant zu halten, bis die komplette Umblendung zur Verzögerungsblendung vollzogen ist. Erst dann werden die Verzögerungssteuerdaten dem tatsächlichen Wert angeglichen. Mit Hilfe dieser Steuerdatenmanipulation können auch schnelle Verzögerungsänderungen mit einer kurzen Steuerdatenreaktionszeit ohne hörbare Tonänderungen realisiert werden.If the delay change changes abruptly to a value greater than the switching threshold between delay interpolations and delay glare, then in a conventional glare, part of the pitch fluctuation from the delay interpolation will still be heard. In order to avoid this effect, the fade-over
Bei dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung umfasst das Ansteuersystem ferner eine Metering-Einrichtung 80, die ausgebildet ist, um pro Richtungsgebiet/Audioausgang ein digitales (imaginäres) Metering durchzuführen. Dies wird anhand der
Generell führt das DSP-System, von dem ein Teil in
Um diese Einstellungen dem Benutzer darzustellen, werden diese Einstellungen in Richtungsgebieten aufgesplittet gespeichert, und es werden den Richtungsgebieten dann Eingangssignale zugewiesen. Dabei können auch mehrere Eingangssignale einem Richtungsgebiet zugewiesen werden.To represent these settings to the user, these settings are split into directional areas, and the directional areas are then assigned input signals. Several input signals can also be assigned to a directional area.
Um nunmehr eine Überwachung der Signale auf Nutzerseite zu ermöglichen, wird für die Richtungsgebiete ein Metering durch den Block 80 angezeigt, welches jedoch "virtuell" aus den Pegeln der Knotenpunkte der Matrix und den entsprechenden Gewichtungen ermittelt wird.In order to now allow monitoring of the signals on the user side, a metering is indicated by the
Die Ergebnisse werden vom Metering-Block 80 an eine Anzeigenschnittstelle geliefert, was durch einen Block "ATM" 82 (ATM = Asynchronous Transfer Mode) symbolisch dargestellt ist.The results are provided by the
An dieser Stelle sei darauf hingewiesen, dass typischerweise mehrere Quellen gleichzeitig in Richtungsgebieten spielen, wenn beispielsweise der Fall betrachtet wird, dass von zwei unterschiedlichen Richtungen zwei getrennte Quellen in ein- und dasselbe Richtungsgebiet "eintreten". Im Zuhörerraum kann niemals der Beitrag einer einzigen Quelle pro Richtungsgebiet gemessen werden. Dies wird jedoch durch das Metering 80 erreicht, weshalb diese Messung als virtuelle Messung bezeichnet wird, da sich gewissermaßen im Zuhörerraum immer alle Beiträge aller Richtungsgruppen für alle Quellen überlagern.It should be noted here that typically several sources play simultaneously in directional areas, for example when considering the case that from two different directions two separate sources "enter" in one and the same directional area. In the audience room, the contribution of a single source per directional area can never be measured. However, this is achieved by the
Darüber hinaus kann durch das Metering 80 auch der Gesamtpegel einer einzigen Schallquelle unter mehreren Schallquellen über alle Richtungsgebiete, die für diese Schallquelle aktiv sind, berechnet werden. Dieses Ergebnis würde sich ergeben, wenn für eine Eingangsquelle die Matrixpunkte für alle Ausgänge aufsummiert werden. Dagegen kann ein Beitrag einer Richtungsgruppe für eine Schaltquelle dadurch erreicht werden, wenn die Ausgänge der Gesamtanzahl von Ausgängen, die zu der betrachteten Richtungsgruppe gehören, aufsummiert werden, während die anderen Ausgänge nicht berücksichtigt werden.In addition,
Generell liefert das erfindungsgemäße Konzept ein universelles Bedienkonzept zur Repräsentation von Quellen unabhängig von dem verwendeten Wiedergabesystem. Hierbei wird auf eine Hierarchie zurückgegriffen. Das unterste Hierarchie-Glied ist der einzelne Lautsprecher. Die mittlere Hierarchie-Stufe ist ein Richtungsgebiet, wobei auch Lautsprecher in zwei unterschiedlichen Richtungsgebieten vorhanden sein können.In general, the concept according to the invention provides a universal operating concept for the representation of sources independently of the reproduction system used. Here, a hierarchy is used. The lowest hierarchy member is the single speaker. The middle hierarchy level is a directional area, and loudspeakers may also be present in two different directional areas.
Das oberste Hierarchie-Gebiet sind Richtungsgebiete-Presets, derart, dass für bestimmte Audioobjekte/Anwendungen bestimmte Richtungsgebiete zusammengenommen als ein "Über-Richtungsgebiet" auf der Benutzerschnittstelle betrachtet werden können.The top hierarchy area are directional area presets, such that for certain audio objects / applications, certain directional areas taken together may be considered as an "over-directional area" on the user interface.
Das erfindungsgemäße System zur Positionierung von Schallquellen gliedert sich in Hauptkomponenten, die ein System zum Durchführen einer Vorstellung, ein System zum Konfigurieren einer Vorstellung, ein DSP-System zur Berechnung der Delta-Stereophonie, ein DSP-System zur Berechnung der Wellenfeldsynthese und ein Havarie-System für Notfalleingriffe umfasst. Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird eine graphische Benutzerschnittstelle verwendet, um eine visuelle Zuordnung der Akteure zu Bühne oder Kamerabild zu erreichen. Dem Systembetreiber wird eine zweidimensionale Abbildung des 3D-Raums präsentiert, die derart gestaltet sein kann, wie es in
Über ein weiteres User-Interface-(Mixer) und die dortige Zuordnung von Klängen/Akteuren und deren Bewegungen zu den Richtungsgebieten, wobei der Mixer einen DSP gemäß
Die erfindungsgemäße Vorrichtung umfasst ferner eine Einrichtung 804 zum Empfangen eines Pfadänderungsbefehls, um einen Kompensationspfad zu dem dritten Richtungsgebiet zu definieren. Ferner ist eine Einrichtung 806 zum Speichern eines Werts des Quellenpfadparameters an einer Stelle, an der der Kompensationspfad von dem Quellenpfad abzweigt, vorgesehen. Vorzugsweise ist ferner eine Einrichtung zum Berechnen eines Kompensationspfadparameters (BlendAC) vorhanden, welcher auf eine Position der Audioquelle auf dem Kompensationspfad hinweist, die in
Allgemein gesagt ist die Einrichtung 810 zum Berechnen der Gewichtungsfaktoren ausgebildet, um basierend auf dem Quellenpfad, dem gespeicherten Wert des Quellenpfadparameters und Informationen über den Kompensationspfad zu arbeiten, wobei Informationen über den Kompensationspfad entweder nur das neue Ziel, also das Richtungsgebiet C, umfassen, oder wobei die Informationen über den Kompensationspfad zusätzlich noch eine Position der Quelle auf dem Kompensationspfad, also den Kompensationspfadparameter, umfasst. Es sei darauf hingewiesen, dass diese Informationen der Position auf dem Kompensationspfad dann nicht nötig ist, wenn der Kompensationspfad noch nicht beschritten ist, sondern sich die Quelle noch auf dem Quellenpfad befindet. So ist der Kompensationspfadparameter, der eine Position der Quelle auf dem Kompensationspfad angibt, nicht unbedingt nötig, wenn die Quelle nämlich den Kompensationspfad nicht beschreitet, sondern den Kompensationspfad zum Anlass nimmt, auf dem Quellenpfad umzukehren zurück zum Ausgangspunkt, um gewissermaßen ohne Kompensationspfad direkt vom Ausgangspunkt zum neuen Ziel zu wandeln. Diese Möglichkeit ist dann sinnvoll, wenn die Quelle feststellt, dass sie erst eine kurze Distanz auf dem Quellenpfad zurückgelegt hat und der Vorteil, nunmehr einen neuen Kompensationspfad einzuschlagen, nur ein kleiner Vorteil ist. Alternative Implementierungen, bei denen ein Kompensationspfad zwar als Anlass genommen wird, umzukehren und den Quellenpfad wieder zurückzugehen, ohne den Kompensationspfad zu beschreiten, können dann vorliegen, wenn der Kompensationspfad Bereiche im Zuhörerraum betreffen würde, die aus irgendwelchen anderen Gründen keine Bereiche sein sollen, in denen eine Schallquelle lokalisiert werden soll.Generally speaking, means 810 for calculating the weighting factors are configured to operate based on the source path, the stored value of the source path parameter, and information about the compensation path, wherein information about the compensation path includes either only the new destination, ie the directional area C, or wherein the information about the compensation path additionally comprises a position of the source on the compensation path, that is to say the compensation path parameter. It should be noted that this information of the position on the compensation path is not necessary if the compensation path is not yet taken, but the source is still on the source path. Thus, the compensation path parameter, which indicates a position of the source on the compensation path, is not necessarily necessary if the source does not take the compensation path, but uses the compensation path to reverse on the source path back to the starting point, to a certain extent without a compensation path directly from the starting point to transform the new goal. This option is useful if the source determines that it has traveled a short distance on the source path and the advantage of taking a new compensation path is only a small advantage. Although alternative implementations in which a compensation path is taken as an occasion to reverse and go back the source path without traversing the compensation path may occur when the compensation path would affect areas in the audience room that should not be areas for any other reason where a sound source is to be located.
Die erfindungsgemäße Bereitstellung eines Kompensationspfads ist im Hinblick auf ein System, bei dem nur zugelassen wird, dass komplette Wege zwischen zwei Richtungsgebieten beschritten werden, von besonderem Vorteil, da die Zeit, zu der eine Quelle auf der neuen (geänderten) Position ist, insbesondere dann, wenn Richtungsgebiete weit auseinander angeordnet sind, erheblich reduziert wird. Ferner werden für den Benutzer verwirrende bzw. künstliche Wege einer Quelle, die als seltsam empfunden werden würden, eliminiert. Wenn beispielsweise der Fall betrachtet wird, dass sich eine Quelle ursprünglich auf dem Quellenpfad von links nach rechts bewegen sollte und nunmehr auf eine andere Position ganz links, die nicht sehr weit von der Ursprungsposition entfernt ist, gehen soll, so würde das Nicht-Zulassen eines Kompensationspfads dazu führen, dass die Quelle nahezu zweimal über die gesamte Bühne läuft, während erfindungsgemäß dieser Vorgang abgekürzt wird.The provision of a compensation path according to the invention is particularly advantageous in view of a system in which only complete paths between two directional areas are taken, since the time at which a source is in the new (changed) position, in particular when directional areas are widely spaced, significantly reduced. Furthermore, confusing or artificial paths of a source that would be perceived as strange are eliminated for the user. For example, considering the case that a source should originally move on the source path from left to right and now go to another leftmost position that is not very far from the originating position, then disallowing one Compensation paths cause the source runs almost twice over the entire stage, while according to the invention, this process is abbreviated.
Ermöglicht wird der Kompensationspfad dadurch, dass eine Position nicht mehr durch zwei Richtungsgebiete und einen Faktor bestimmt wird, sondern dass eine Position durch drei Richtungsgebiete und zwei Faktoren definiert wird, derart, dass auch andere Punkte außer den direkten Verbindungslinien zwischen zwei Richtungsgruppenpositionen durch eine Quelle "angesteuert" werden können.The compensation path is made possible by the fact that a position is no longer determined by two directional areas and a factor, but that a position is defined by three directional areas and two factors, such that also points other than the direct connection lines between two direction group positions can be "driven" by a source.
Damit erlaubt das erfindungsgemäße Konzept, dass jeder beliebige Punkt in einem Wiedergaberaum durch eine Quelle angesteuert werden kann, wie es unmittelbar aus
Neben dem Regelfall gibt es jedoch, wie es bereits ausgeführt worden ist und in Verbindung mit
Beim Übergang einer Quelle in den Kompensationspfad ergeben sich folgende Änderungen an den Positionen: Das Richtungsgebiet A bleibt erhalten. Das Richtungsgebiet C wird zum Richtungsgebiet B und der Blendfaktor BlendAC wird zu BlendAB, und das neue Zielrichtungsgebiet wird nach Zielrichtungsgebiet C geschrieben. In anderen Worten ausgedrückt wird also der Blendfaktor BlendAC zum Zeitpunkt zu dem die Richtungsänderung stattfinden soll, also zu dem Zeitpunkt, zu dem die Quelle den Quellenpfad verlassen soll und auf den Kompensationspfad einschwenken soll, durch die Einrichtung 806 gespeichert und für die nachfolgende Berechnung als BlendAB verwendet. Das neue Zielrichtungsgebiet wird nach Richtungsgebiet C geschrieben.When a source changes to the compensation path, the following changes are made to the positions: The directional area A remains. The directional area C becomes the directional area B and the glare factor BlendAC becomes the blend area AB, and the new destination area is written in the destination area C. In other words, therefore, the glare factor BlendAC at the time the direction change is to take place, that is to say at the time when the source is to leave the source path and swivel onto the compensation path, is stored by
Erfindungsgemäß wird es ferner bevorzugt, harte Quellensprünge zu verhindern. Generell können Quellbewegungen so programmiert werden, dass Quellen springen, also sich schnell von einem Platz zum anderen bewegen können. Dies ist beispielsweise dann der Fall, wenn Szenen übersprungen werden, wenn ein ChannelHOLD-Modus deaktiviert wird, oder eine Quelle in Szene 1 auf einem andern Richtungsgebiet endet als in Szene 2. Würden Quellsprünge hart umgeschaltet, so hätte dies hörbare Artefakte zur Folge. Daher wird erfindungsgemäß ein Konzept zur Verhinderung harter Quellsprünge eingesetzt. Hierzu wird wieder ein Kompensationspfad verwendet, der aufgrund einer bestimmten Kompensationsstrategie ausgewählt wird. Generell kann sich eine Quelle an unterschiedlichen Stellen eines Pfads befinden. Je nachdem, ob sie sich am Anfang oder am Ende, zwischen zwei oder drei Richtungsgebieten befindet, gibt es unterschiedliche Wege, wie eine Quelle am schnellsten auf ihre gewünschte Position kommt.It is further preferred according to the invention to prevent hard swelling. In general, source movements can be programmed so that sources jump, so they can move quickly from one place to another. This is the case, for example, when scenes are skipped, when ChannelHOLD mode is deactivated, or when a source ends up in
Generell wird nachfolgend in den
Eine einfache Kompensationsstrategie befindet sich in
Wie es ausgeführt worden ist, wird die Position einer Quelle über maximal drei Richtungsgebiete definiert. Haben Idealposition und Realposition genau ein gemeinsames Richtungsgebiet, dann kommen die Adjacent-Strategien zum Einsatz, die in
Die in
Es sei ferner darauf hingewiesen, dass bei der bevorzugten Implementierung der vorliegenden Erfindung jedes Richtungsgebiet mit jedem Richtungsgebiet verbunden werden kann, dass also die Quelle, um von einem Richtungsgebiet zu einem anderen Richtungsgebiet zu kommen, niemals ein drittes Richtungsgebiet überschreiten muss, sondern von jedem Richtungsgebiet zu jedem anderen Richtungsgebiet ein programmierbarer Quellenpfad existiert.It should also be noted that in the preferred implementation of the present invention, each directional area may be connected to each directional area, that is, the source to be from one directional area to another never to cross a third directional area, but from each directional area to every other directional area there exists a programmable source pathway.
Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird die Quelle manuell bewegt, d.h. mit einem sog. Cader. So existieren erfindungsgemäß Cader-Strategien, die verschiedene Kompensationspfade liefern. Es wird gewünscht, dass bei den Cader-Strategien in der Regel ein Kompensationspfad entsteht, der Richtungsgebiet A und Richtungsgebiet C der Idealposition mit der aktuellen Position der Quelle verbindet. Einen solchen Kompensationspfad sieht man in
Insgesamt gibt es drei Cader-Strategien, die in
Der Cader kann dazu verwendet werden, um eine Animation einer Quelle durchzuführen. Im Hinblick auf die Berechnung der Gewichtungsfaktoren liegt kein Unterschied vor, der davon abhängt, ob die Quelle manuell oder automatisch bewegt wird. Ein prinzipieller Unterschied besteht jedoch darin, dass die Bewegung der Quelle nicht durch einen Timer gesteuert wird, sondern durch ein Cader-Event ausgelöst wird, das die Einrichtung (804) zum Empfangen eines Pfadänderungsbefehls erhält. Das Cader-Event ist daher der Pfadänderungsbefehl. Ein Sonderfall, den die erfindungsgemäße Quellenanimation mittels Cader liefert, ist die Rückwärtsbewegung von Quellen. Entspricht die Position einer Quelle dem Regelfall, dann bewegt sich die Quelle egal ob mit dem Cader oder automatisch auf dem vorgesehen Pfad mit dem Kompensationsfall jedoch unterliegt die Rückwärtsbewegung der Quelle einem Sonderfall. Zur Beschreibung dieses Sonderfalls wird der Pfad einer Quelle in den Quellenpfad 15a und den Kompensationspfad 15b aufgeteilt, wobei der Defaultsektor ein Teil des Quellenpfads 15a und der Compensationsektor in
Wird die Quelle mit dem Cader rückwärts bewegt, dann hat es unterschiedliche Auswirkungen, je nachdem ob sich die Quelle auf den Compensationsektor oder auf dem Defaultsektor befindet. Wenn angenommen wird, dass sich die Quelle auf dem Compensationsektor befindet, so wird eine Bewegung des Caders nach links zu einer Rückwärtsbewegung der Quelle führen. Solange die Quelle noch auf dem Compensationsektor ist, erfolgt alles nach Erwartung. Sobald die Quelle aber den Compensationsektor verlässt und den Defaultsektor betritt, geschieht folgendes, die Quelle bewegt sich ganz normal auf dem Defaultsektor, aber der Compensationsektor wird dahingehend neu berechnet, dass man, wenn der Cader wieder nach rechts bewegt wird, die Quelle nicht erst auf dem Defaultsektor wieder entlang läuft, sondern direkt über den neu berechneten Compensationsektor auf das aktuelle Zielrichtungsgebiet zuläuft. Diese Situation ist in
Im Folgenden wird die Berechnung der Position einer Quelle veranschaulicht. A, B und C sind die Richtungsgebiete, über die die Position einer Quelle definiert ist. A, B und BlendAB beschreiben die Startposition des Compensationsektors. C und BlendAbC beschreiben die Position der Quelle auf dem Compensationsektor. BlendAC beschreibt die Position der Quelle auf dem Gesamtpfad.The following is a calculation of the position of a source. A, B and C are the directional areas over which the position of a source is defined. A, B and BlendAB describe the starting position of the Compensation sector. C and BlendAbC describe the position of the source in the compensation sector. BlendAC describes the location of the source on the overall path.
Es wird eine Quellenpositionierung gesucht, bei der auf die umständliche Eingabe von zwei Werten für BlendAB und Blend-AbC verzichtet wird. Statt dessen soll die Quelle direkt über ein BlendAC gesetzt werden. Wird BlendAC auf Null gesetzt, dann soll die Quelle am Anfang des Pfads sein. Wird BlendAC gleich 1 gesetzt, dann soll die Quelle am Ende des Pfads positioniert sein. Ferner soll der Benutzer bei der Eingabe nicht mit Kompensationssektoren oder Defaultsektoren "belästigt" werden. Andererseits hängt das Setzen des Werts für BlendAC aber davon ab, ob sich die Quelle auf dem Kompensationssektor oder auf dem Defaultsektor befindet. Allgemein gilt die in
Man könnte nun auf die Idee kommen, die Position einer Quelle auf dem aktuellen Pfadabschnitt durch eine eindeutige Angabe des BlendAC-Werts zu definieren.
Nunmehr wird darauf eingegangen, was passiert, wenn BlendAC auf 0,5 gesetzt wird. Was hier genau passiert, hängt davon ab, ob die Quelle auf dem Kompensation-Sektor oder auf dem Default-Sektor liegt. Wenn die Quelle auf dem Default-Sektor ist, dann gilt:
Befindet sich die Quelle dagegen am Ende des Default-Sektors bzw. am Anfang des Compensationssektors, dann gilt:
Die gemäß
Das erfindungsgemäße Konzept kann besonders gut mit der Wellenfeldsynthese kombiniert werden. In einem Szenario, in dem auf der Bühne aus optischen Gründen keine Wellenfeld-synthese-Lautsprecherarrays platziert werden können, und statt dessen, um eine Schalllokalisation zu erreichen, die Deltastereophonie mit Richtungsgruppen eingesetzt werden muss, ist es typischerweise möglich, wenigstens an den Seiten des Zuhörraums und hinten am Zuhörerraum Wellenfeldsynthese-Arrays aufzustellen. Erfindungsgemäß muss sich ein Benutzer jedoch nicht darum kümmern, ob eine Quelle nunmehr durch ein Wellenfeldsynthese-Array oder eine Richtungsgruppe hörbar gemacht wird.The inventive concept can be combined particularly well with wave field synthesis. In a scenario where no wave field synthesis loudspeaker arrays can be placed on the stage for visual reasons, and instead, to achieve sound localization, delta stereophony must be used with directional groups, it is typically possible to have at least the sides of the Listening room and at the back of the auditorium wave field synthesis arrays. According to the invention, however, a user does not have to worry about whether a source is now is made audible by a wave field synthesis array or a directional group.
Ein entsprechendes gemischtes Szenario ist auch dann möglich, wenn z.B. in einem bestimmten Bereich der Bühne keine Wellenfeldsynthese-Lautsprecherarrays möglich sind, weil sie sonst den optischen Eindruck stören würden, während in einem anderen Bereich der Bühne durchaus Wellenfeld-Synthese-Lautsprecherarrays eingesetzt werden können. Auch hier tritt eine Kombination der Deltastereophonie und der Wellenfeldsynthese statt. Erfindungsgemäß wird jedoch der Benutzer sich nicht darum kümmern müssen, wie seine Quelle aufbereitet wird, da das graphische Benutzer-Interface auch Bereiche, an denen Wellenfeld-Synthese-Lautsprecherarrays angeordnet sind, als Richtungsgruppen bereitstellt. Auf Seiten des Systems zur Durchführung einer Vorstellung wird daher immer der Richtungsgebietsmechanismus zur Positionierung bereitgestellt, derart, dass in einem gemeinsamen U-serinterface die Zuordnung von Quellen zur Wellenfeldsynthese oder zur Deltastereophonie-Richtungsbeschallung ohne Benutzereingriff stattfinden kann. Das Konzept der Richtungsgebiete kann dabei universell angewendet werden, wobei der Benutzer immer auf die gleiche Art und Weise Schallquellen positioniert. In anderen Worten ausgedrückt sieht der Benutzer nicht, ob er eine Schallquelle in einem Richtungsgebiet positioniert, das ein Wellenfeldsynthesearray umfasst, oder ob er eine Schallquelle in einem Richtungsgebiet positioniert, das tatsächlich einen Stützlautsprecher hat, der mit dem Prinzip der ersten Wellenfront arbeitet.A corresponding mixed scenario is possible even if e.g. No wave field synthesis loudspeaker arrays are possible in a certain area of the stage, because otherwise they would disturb the visual impression, while wave field synthesis loudspeaker arrays can be used in another area of the stage. Again, a combination of delta-stereophony and wave-field synthesis occurs. However, in accordance with the present invention, the user will not have to worry about how his source is rendered since the graphical user interface also provides areas where wave field synthesis loudspeaker arrays are located as directional groups. Therefore, on the part of the system for performing a presentation, the directional area mechanism for positioning is always provided, such that in a common U-serinterface, the assignment of sources to wave field synthesis or to deltastereophonic directional sonication can take place without user intervention. The concept of the directional areas can be applied universally, whereby the user always positions sound sources in the same way. In other words, the user does not see whether to position a sound source in a directional area that includes a wave field synthesis array, or to position a sound source in a directional area that actually has a supportive loudspeaker that operates on the principle of the first wavefront.
Eine Quellenbewegung findet allein dadurch statt, dass der Benutzer Bewegungspfade zwischen Richtungsgebieten liefert, wobei dieser vom Benutzer gesetzte Bewegungspfad durch die Einrichtung zum Empfangen des Quellenpfads gemäß
Jedes Richtungsgebiet kann hierbei eine beliebige Anzahl von Lautsprechern und immer genau eine Wellenfeldsynthese-Quelle enthalten, die durch ihre virtuelle Position an einer festgelegten Stelle innerhalb des Lautsprecherarrays bzw. bezüglich des Lautsprecherarrays gehalten wird und insofern der (realen) Position des Stützlautsprechers in einem Deltastereophonie-System entspricht. Die Wellenfeldsynthese-Quelle repräsentiert dann einen Kanal des Wellenfeldsynthesesystems, wobei in einem Wellenfeldsynthesesystem, wie es bekannt ist, pro Kanal ein eigenes Audioobjekt, also eine eigene Quelle verarbeitet werden kann. Die Wellenfeld-synthese-Quelle zeichnet sich durch entsprechende Wellenfeldsynthese-spezifische Parameter aus.Each directional area may in this case contain any number of loudspeakers and always exactly one wave field synthesis source, which is held by its virtual position at a fixed position within the loudspeaker array or with respect to the loudspeaker array and in this respect the (real) position of the support loudspeaker in a delta stereophonic System corresponds. The wave field synthesis source then represents a channel of the wave field synthesis system, wherein in a wave field synthesis system, as it is known, per channel own audio object, so a separate source can be processed. The wave field synthesis source is characterized by corresponding wave field synthesis-specific parameters.
Die Bewegung der Wellenfeldsynthese-Quelle kann je nach Zurverfügungstellung der Rechenleistung auf zwei Arten erfolgen. Die fix positionierten Wellenfeldsynthese-Quellen werden durch eine Überblendung angesteuert. Wenn sich eine Quelle aus einem Richtungsgebiet hieraus bewegt, werden die Lautsprecher gedämpft werden, während in zunehmendem Maße die Lautsprecher des Richtungsgebiets, in das die Quelle hinein läuft, weniger gedämpft werden.The movement of the wave field synthesis source can be done in two ways, depending on the availability of the computing power. The fix positioned wave field synthesis sources are driven by a transition. As a source moves out of a directional area, the speakers will be muted as the speakers of the directional area into which the source is entering are increasingly attenuated.
Alternativ kann aus den eingegebenen fixen Positionen eine neue Position interpoliert werden, die dann tatsächlich als virtuelle Position einem Wellenfeldsynthese-Renderer zur Verfügung gestellt wird, so dass ohne Überblendung und durch eine echte Wellenfeldsynthese eine virtuelle Position erzeugt wird, was in Richtungsgebieten, die auf der Basis der Delta-Stereophonie arbeiten, natürlich nicht möglich ist.Alternatively, a new position can be interpolated from the entered fixed positions, which is then actually provided as a virtual position to a wave field synthesis renderer, so that a virtual position is generated without crossfading and true wave field synthesis, which in directional areas that are on the Base of delta stereophony work, of course, is not possible.
Die vorliegende Erfindung ist dahingehend vorteilhaft, dass ein freies Positionieren von Quellen und Zuordnungen zu den Richtungsgebieben erfolgen kann, und dass insbesondere dann, wenn überlappende Richtungsgebiete vorhanden sind, also wenn Lautsprecher zu mehreren Richtungsgebieten gehören, eine große Anzahl von Richtungsgebieten mit einer hohen Auflösung an Richtungsgebiete-Positionen erreicht werden kann. Prinzipiell könnte aufgrund der zugelassenen Überlappung jeder Lautsprecher auf der Bühne ein eigenes Richtungsgebiet darstellen, das um sich herum angeordnete Lautsprecher hat, die mit einer größeren Delay abstrahlen, um die Lautstärkeanforderungen zu erfüllen. Diese (umgebenden) Lautsprecher werden jedoch dann, wenn andere Richtungsgebiete betroffen sind, auf einmal zu Stützlautsprechern und werden nicht mehr "Hilfslautsprecher" sein.The present invention is advantageous in that free positioning of sources and assignments to the directional gates can occur, and in particular then, when overlapping directional areas are present, that is, when loudspeakers belong to multiple directional areas, a large number of directional areas can be achieved with a high resolution at directional location positions. In principle, due to the allowed overlap, each loudspeaker on the stage could represent its own directional area having loudspeakers arranged around it, emitting at a greater delay to meet the volume requirements. However, when other directional areas are concerned, these (surrounding) speakers will suddenly become supportive speakers and will no longer be "auxiliary speakers".
Das erfindungsgemäße Konzept zeichnet sich ferner durch ein intuitives Bedienerinterface ab, das dem Benutzer soviel als möglich abnimmt, und daher eine sichere Bedienung auch durch Benutzer ermöglicht, die nicht in allen Tiefen des Systems bewandert sind.The concept according to the invention is further distinguished by an intuitive user interface which decreases the user as much as possible, and therefore enables secure operation even by users who are not proficient in all depths of the system.
Ferner wird eine Kombination der Wellenfeldsynthese mit der Deltastereophonie über ein gemeinsames Bedienerinterface erreicht, wobei bei bevorzugten Ausführungsbeispielen ein dynamisches Filtern bei Quellbewegungen aufgrund der Equalizer-Parameter erreicht wird und zwischen zwei Blend-Algorithmen umgeschalten wird, um eine Artefakterzeugung aufgrund des Übergangs von einem Richtungsgebiet zum nächsten Richtungsgebiet zu vermeiden. Darüber hinaus wird erfindungsgemäß sichergestellt, dass keine Pegeleinbrüche beim Blenden zwischen den Richtungsgebieten stattfinden,
wobei ferner auch eine dynamische Blendung vorgesehen ist, um weitere Artefakte zu reduzieren. Die Bereitstellung eines Kompensationspfads ermöglicht eine Live-Anwendungstauglichkeit, da nunmehr Eingriffsmöglichkeiten bestehen, zum beispielsweise bei der Nachführung von Klängen zu reagieren, wenn ein Akteur den spezifizierten Pfad verlässt, der programmiert worden ist.Furthermore, a combination of the wave field synthesis with the delta stereophony is achieved via a common user interface, wherein in preferred embodiments, dynamic filtering is achieved in swelling movements due to the equalizer parameters and switched between two blend algorithms to produce artifact generation due to the transition from one direction region to another avoid the next directional area. In addition, according to the invention, it is ensured that no level dips occur during the dimming between the directional areas,
Furthermore, a dynamic glare is provided to reduce further artifacts. The provision of a compensation path allows for live application capability since there are now opportunities to intervene, for example, to respond to the tracking of sounds when an actor leaves the specified path that has been programmed.
Die vorliegende Erfindung ist besonders bei der Beschallung in Theatern, Musicalbühnen, Open-Air-Bühnen mit meist größeren Auditorien oder in Konzertstätten vorteilhaft.The present invention is particularly advantageous in the sound in theaters, musical stages, open-air stages with mostly larger auditoriums or in concert venues.
Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren in Hardware oder in Software implementiert werden. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, dass das Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computer-Programm-Produkt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des erfindungsgemäßen Verfahrens, wenn das Computer-Programm-Produkt auf einem Rechner abläuft. In anderen Worten ausgedrückt, kann die Erfindung somit als ein Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computer-Programm auf einem Computer abläuft.Depending on the circumstances, the method according to the invention can be implemented in hardware or in software. The implementation may be on a digital storage medium, in particular a floppy disk or CD with electronically readable control signals, which may interact with a programmable computer system such that the method is performed. In general, the invention thus also consists in a computer program product with a program code stored on a machine-readable carrier for carrying out the method according to the invention, when the computer program product runs on a computer. In other words, the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.
Claims (16)
- Apparatus for controlling a plurality of speakers grouped into at least three directional groups (10a, 10b, 10c), each directional group having a directional group position (11a, 11b, 11c) associated with it, comprising:means (800) for receiving a source path from a first directional group position (11a) to a second directional group position (11b), and movement information for the source path;means (802) for calculating a source path parameter (BlendAB) for different points in time on the basis of the movement information, the source path parameter indicating a position of an audio source on the source path;characterized bymeans (804) for receiving a path modification command by means of which a compensation path to a third directional zone may be initiated;means (806) for storing a value of the source path parameter at a location where the compensation path (15b) deviates from the source path (15a); andmeans (810) for calculating weighting factors for the speakers of the three directional groups on the basis of the source path (15a), the stored value of the source path parameter (BlendAB), and information on the compensation path (15b).
- Apparatus as claimed in claim 1, further comprising means (808) for calculating a compensation path parameter (BlendAbC) which indicates a position of the audio source on the compensation path (15b), and
the means (810) for calculating being configured to additionally calculate the weighting factors for the speakers of the three directional groups using the compensation path parameter. - Apparatus as claimed in claims 1 or 2, wherein the means (802) for calculating the source path parameter is configured to calculate the source path parameters for successive points in time such that the source moves on the source path at a speed specified by the movement information.
- Apparatus as claimed in any of the previous claims, wherein the means (808) for calculating the compensation path parameter is configured to calculate compensation path parameters for successive points in time such that the source moves on the compensation path at a predefined speed higher than a speed of a source which moves on the source path.
- Apparatus as claimed in any of the previous claims,
wherein the means (810) for calculating the weighting factors is configured to calculate the weighting factors as follows:g1=(1-BlendAbC) (1-BlendAB);g2=(1-BlendAbC) BlendAB;g3= BlendAbCwherein g1 is a weighting factor for a speaker of the first directional group, wherein g2 is a weighting factor for a speaker of the second directional group, wherein g3 is a weighting factor for a speaker of the third directional group, wherein BlendAB is the source path parameter which has been stored by the means (806), and wherein BlendAbC is the compensation path parameter. - Apparatus as claimed in any of the previous claims, wherein the three directional groups are arranged in an overlapping manner, so that there is at least one speaker which exists in the three directional groups and which has a different parameter value for a speaker parameter associated with it for each directional group, the apparatus further comprising:means (42) for calculating a speaker signal for the speaker while using the parameter values and the weighting factors.
- Apparatus as claimed in claim 6, wherein the means (42) for calculating comprises interpolation means (46, 48) for calculating an interpolated value on the basis of the weighting factors, the interpolation means being configured to perform the following interpolation:
wherein Z is the interpolated speaker parameter value, wherein g1 is a first weighting factor, wherein g2 is a second weighting factor, and wherein g3 is a third weighting factor, wherein a is a speaker parameter value of the speaker corresponding to a first directional group, wherein a2 is a speaker parameter value corresponding to a second directional group, and wherein a3 is a speaker parameter value corresponding to a third directional group. - Apparatus as claimed in claim 7, wherein the interpolation means is configured to calculate an interpolated delay value or an interpolated scaling value.
- Apparatus as claimed in any of the previous claims, wherein the means for receiving a path modification command (804) is configured to receive a manual input from a graphical user interface.
- Apparatus as claimed in any of the previous claims, further comprising:jump compensation means for determining a continuous jump compensation path from a first jump position to a second jump position,wherein the means (810) for calculating the weighting factors is configured to calculate weighting factors for positions of the audio source on the jump compensation path.
- Apparatus as claimed in claim 10, wherein the first jump position is predefined by three directional groups, and wherein the second jump position is predefined by three directional groups, and
wherein the jump compensation means is configured to select, in the search for a jump compensation path, a compensation strategy which depends on whether the three directional zones defining the first jump position, and the three directional zones defining the second jump position have one or several directional zones in common. - Apparatus as claimed in claim 11, wherein the jump compensation means is configured to use an InpathDual compensation strategy or an InpathTriple compensation strategy when the three directional zones of the first jump position and the three directional zones of the second jump position match,
so as to use an AdjacentA compensation strategy, an AdjacentB compensation strategy, or an AdjacentC compensation strategy when at least one directional zone of the first jump position is identical with a directional zone of the second jump position,
or to use an OutsideM compensation strategy or an OutsideC compensation strategy when the first jump position and the second jump position have no directional zone in common. - Apparatus as claimed in any of the previous claims, wherein the means (804) for receiving a path modification command is configured to receive a position of the source between the first and third directional groups, and
the means (802) for calculating the source path parameter being configured to ascertain whether at times when the path modification command is to become active, the source is located on a source path or a compensation path. - Apparatus as claimed in claim 13, wherein the means (802) for calculating the source path parameter or the means (808) for calculating the compensation path parameter are configured to calculate the compensation path parameters on the basis of a first calculation specification when the source is located on the compensation path, and to calculate the path parameters on the basis of a second calculation specification when the source is located on the source path.
- Method for controlling a plurality of speakers grouped into at least three directional groups (10a, 10b, 10c), each directional group having a directional group position (11a, 11b, 11c) associated with it, the method comprising:receiving (800) a source path from a first directional group position (11a) to a second directional group position (11b), and movement information for the source path;calculating (802) a source path parameter (BlendAB) for different points in time on the basis of the movement information, the source path parameter indicating a position of an audio source on the source path;characterized by the steps of:receiving (804) a path modification command by means of which a compensation path to a third directional zone may be initiated;storing (806) a value of the source path parameter at a location where the compensation path (15b) deviates from the source path (15a); andcalculating (810) weighting factors for the speakers of the three directional groups on the basis of the source path (15a), the stored value of the source path parameter (BlendAB), and information on the compensation path (15b).
- Computer program comprising a program code for performing the method as claimed in claim 15, when the computer program runs on a computer.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005033239A DE102005033239A1 (en) | 2005-07-15 | 2005-07-15 | Apparatus and method for controlling a plurality of loudspeakers by means of a graphical user interface |
PCT/EP2006/006562 WO2007009597A1 (en) | 2005-07-15 | 2006-07-05 | Apparatus and method for controlling a plurality of loudspeakers by means of a graphic user interface |
Publications (3)
Publication Number | Publication Date |
---|---|
EP1872620A1 EP1872620A1 (en) | 2008-01-02 |
EP1872620B1 EP1872620B1 (en) | 2009-01-21 |
EP1872620B9 true EP1872620B9 (en) | 2009-08-26 |
Family
ID=36954107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP06762422A Not-in-force EP1872620B9 (en) | 2005-07-15 | 2006-07-05 | Apparatus and method for controlling a plurality of loudspeakers by means of a graphic user interface |
Country Status (7)
Country | Link |
---|---|
US (1) | US8189824B2 (en) |
EP (1) | EP1872620B9 (en) |
JP (1) | JP4913140B2 (en) |
CN (1) | CN101223817B (en) |
AT (1) | ATE421842T1 (en) |
DE (2) | DE102005033239A1 (en) |
WO (1) | WO2007009597A1 (en) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4107300B2 (en) * | 2005-03-10 | 2008-06-25 | ヤマハ株式会社 | Surround system |
DE102005033238A1 (en) * | 2005-07-15 | 2007-01-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for driving a plurality of loudspeakers by means of a DSP |
US8788080B1 (en) | 2006-09-12 | 2014-07-22 | Sonos, Inc. | Multi-channel pairing in a media system |
US8483853B1 (en) | 2006-09-12 | 2013-07-09 | Sonos, Inc. | Controlling and manipulating groupings in a multi-zone media system |
US9202509B2 (en) | 2006-09-12 | 2015-12-01 | Sonos, Inc. | Controlling and grouping in a multi-zone media system |
US12167216B2 (en) | 2006-09-12 | 2024-12-10 | Sonos, Inc. | Playback device pairing |
DE102007059597A1 (en) * | 2007-09-19 | 2009-04-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | An apparatus and method for detecting a component signal with high accuracy |
EP2309781A3 (en) * | 2009-09-23 | 2013-12-18 | Iosono GmbH | Apparatus and method for calculating filter coefficients for a predefined loudspeaker arrangement |
DE102010030534A1 (en) * | 2010-06-25 | 2011-12-29 | Iosono Gmbh | Device for changing an audio scene and device for generating a directional function |
US11429343B2 (en) | 2011-01-25 | 2022-08-30 | Sonos, Inc. | Stereo playback configuration and control |
US11265652B2 (en) | 2011-01-25 | 2022-03-01 | Sonos, Inc. | Playback device pairing |
US9729115B2 (en) | 2012-04-27 | 2017-08-08 | Sonos, Inc. | Intelligently increasing the sound level of player |
WO2013192111A1 (en) * | 2012-06-19 | 2013-12-27 | Dolby Laboratories Licensing Corporation | Rendering and playback of spatial audio using channel-based audio systems |
US9008330B2 (en) | 2012-09-28 | 2015-04-14 | Sonos, Inc. | Crossover frequency adjustments for audio speakers |
WO2015017037A1 (en) * | 2013-07-30 | 2015-02-05 | Dolby International Ab | Panning of audio objects to arbitrary speaker layouts |
JP6187131B2 (en) * | 2013-10-17 | 2017-08-30 | ヤマハ株式会社 | Sound image localization device |
US9226087B2 (en) | 2014-02-06 | 2015-12-29 | Sonos, Inc. | Audio output balancing during synchronized playback |
US9226073B2 (en) | 2014-02-06 | 2015-12-29 | Sonos, Inc. | Audio output balancing during synchronized playback |
US10209947B2 (en) | 2014-07-23 | 2019-02-19 | Sonos, Inc. | Device grouping |
US9671997B2 (en) | 2014-07-23 | 2017-06-06 | Sonos, Inc. | Zone grouping |
US10248376B2 (en) | 2015-06-11 | 2019-04-02 | Sonos, Inc. | Multiple groupings in a playback system |
CN105072553B (en) * | 2015-08-31 | 2018-06-05 | 三星电子(中国)研发中心 | The audio amplifying method and device of stereo set |
US10712997B2 (en) | 2016-10-17 | 2020-07-14 | Sonos, Inc. | Room association based on name |
KR102224216B1 (en) * | 2017-12-22 | 2021-03-08 | 주식회사 오드아이앤씨 | Performance Music Platform System |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5412731A (en) * | 1982-11-08 | 1995-05-02 | Desper Products, Inc. | Automatic stereophonic manipulation system and apparatus for image enhancement |
DD242954A3 (en) * | 1983-12-14 | 1987-02-18 | Deutsche Post Rfz | GREATER SOUND SYSTEM |
DD292805A5 (en) * | 1988-12-22 | 1991-08-08 | Wolfgang Ahnert | METHOD AND ARRANGEMENT FOR AN INSTRUMENT AND TEMPORARILY SIGNAL DISTRIBUTION AGAINST A LARGE SYSTEM, IN PARTICULAR FOR AUDIOVISUAL EVENTS IN AUDITORIES, PREFERABLY DUPLICATE ROOMS |
FR2692425B1 (en) * | 1992-06-12 | 1997-04-25 | Alain Azoulay | ACTIVE SOUND REPRODUCTION DEVICE BY ACTIVE MULTIAMPLIFICATION. |
JP3158790B2 (en) * | 1993-07-14 | 2001-04-23 | 株式会社デンソー | Position determination device |
GB9324240D0 (en) * | 1993-11-25 | 1994-01-12 | Central Research Lab Ltd | Method and apparatus for processing a bonaural pair of signals |
JP3370433B2 (en) * | 1994-05-13 | 2003-01-27 | 株式会社竹中工務店 | Sound localization system |
US5506908A (en) * | 1994-06-30 | 1996-04-09 | At&T Corp. | Directional microphone system |
EP1816895B1 (en) * | 1995-09-08 | 2011-10-12 | Fujitsu Limited | Three-dimensional acoustic processor which uses linear predictive coefficients |
JP3874855B2 (en) * | 1996-10-21 | 2007-01-31 | 株式会社竹中工務店 | Sound image localization system |
GB2343347B (en) * | 1998-06-20 | 2002-12-31 | Central Research Lab Ltd | A method of synthesising an audio signal |
GB2374503B (en) * | 2001-01-29 | 2005-04-13 | Hewlett Packard Co | Audio user interface with audio field orientation indication |
US7483540B2 (en) * | 2002-03-25 | 2009-01-27 | Bose Corporation | Automatic audio system equalizing |
JP2004032463A (en) * | 2002-06-27 | 2004-01-29 | Kajima Corp | Distributed loudspeaker method and distributed loudspeaker system for sound image localization following speaker movement |
US7333622B2 (en) * | 2002-10-18 | 2008-02-19 | The Regents Of The University Of California | Dynamic binaural sound capture and reproduction |
WO2004047490A1 (en) * | 2002-11-15 | 2004-06-03 | Sony Corporation | Audio signal processing method and processing device |
US7706544B2 (en) * | 2002-11-21 | 2010-04-27 | Fraunhofer-Geselleschaft Zur Forderung Der Angewandten Forschung E.V. | Audio reproduction system and method for reproducing an audio signal |
US7606372B2 (en) * | 2003-02-12 | 2009-10-20 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Device and method for determining a reproduction position |
US7336793B2 (en) * | 2003-05-08 | 2008-02-26 | Harman International Industries, Incorporated | Loudspeaker system for virtual sound synthesis |
DE10321980B4 (en) * | 2003-05-15 | 2005-10-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for calculating a discrete value of a component in a loudspeaker signal |
DE10321986B4 (en) * | 2003-05-15 | 2005-07-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for level correcting in a wave field synthesis system |
DE10328335B4 (en) * | 2003-06-24 | 2005-07-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Wavefield syntactic device and method for driving an array of loud speakers |
DE10355146A1 (en) * | 2003-11-26 | 2005-07-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for generating a bass channel |
JP4251077B2 (en) * | 2004-01-07 | 2009-04-08 | ヤマハ株式会社 | Speaker device |
EP1749420A4 (en) * | 2004-05-25 | 2008-10-15 | Huonlabs Pty Ltd | Audio apparatus and method |
JP2006086921A (en) * | 2004-09-17 | 2006-03-30 | Sony Corp | Reproduction method of audio signal and reproducing device |
JP4625671B2 (en) * | 2004-10-12 | 2011-02-02 | ソニー株式会社 | Audio signal reproduction method and reproduction apparatus therefor |
JP2006115396A (en) * | 2004-10-18 | 2006-04-27 | Sony Corp | Reproduction method of audio signal and reproducing apparatus therefor |
US7636448B2 (en) * | 2004-10-28 | 2009-12-22 | Verax Technologies, Inc. | System and method for generating sound events |
JP2006135611A (en) | 2004-11-05 | 2006-05-25 | Matsushita Electric Ind Co Ltd | Virtual sound image control device |
DE102004057500B3 (en) * | 2004-11-29 | 2006-06-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Device and method for controlling a sound system and public address system |
DE102005008333A1 (en) * | 2005-02-23 | 2006-08-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Control device for wave field synthesis rendering device, has audio object manipulation device to vary start/end point of audio object within time period, depending on extent of utilization situation of wave field synthesis system |
DE102005008369A1 (en) * | 2005-02-23 | 2006-09-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for simulating a wave field synthesis system |
DE102005027978A1 (en) * | 2005-06-16 | 2006-12-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for generating a loudspeaker signal due to a randomly occurring audio source |
DE102005033238A1 (en) * | 2005-07-15 | 2007-01-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for driving a plurality of loudspeakers by means of a DSP |
DE102005057406A1 (en) * | 2005-11-30 | 2007-06-06 | Valenzuela, Carlos Alberto, Dr.-Ing. | Method for recording a sound source with time-variable directional characteristics and for playback and system for carrying out the method |
DE102006010212A1 (en) * | 2006-03-06 | 2007-09-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for the simulation of WFS systems and compensation of sound-influencing WFS properties |
EP1858296A1 (en) * | 2006-05-17 | 2007-11-21 | SonicEmotion AG | Method and system for producing a binaural impression using loudspeakers |
US20080298610A1 (en) * | 2007-05-30 | 2008-12-04 | Nokia Corporation | Parameter Space Re-Panning for Spatial Audio |
KR101292206B1 (en) * | 2007-10-01 | 2013-08-01 | 삼성전자주식회사 | Array speaker system and the implementing method thereof |
US8509454B2 (en) * | 2007-11-01 | 2013-08-13 | Nokia Corporation | Focusing on a portion of an audio scene for an audio signal |
US8213637B2 (en) * | 2009-05-28 | 2012-07-03 | Dirac Research Ab | Sound field control in multiple listening regions |
US20100328419A1 (en) * | 2009-06-30 | 2010-12-30 | Walter Etter | Method and apparatus for improved matching of auditory space to visual space in video viewing applications |
US8571192B2 (en) * | 2009-06-30 | 2013-10-29 | Alcatel Lucent | Method and apparatus for improved matching of auditory space to visual space in video teleconferencing applications using window-based displays |
EP2309781A3 (en) * | 2009-09-23 | 2013-12-18 | Iosono GmbH | Apparatus and method for calculating filter coefficients for a predefined loudspeaker arrangement |
-
2005
- 2005-07-15 DE DE102005033239A patent/DE102005033239A1/en not_active Ceased
-
2006
- 2006-07-05 CN CN2006800259151A patent/CN101223817B/en not_active Expired - Fee Related
- 2006-07-05 US US11/995,149 patent/US8189824B2/en not_active Expired - Fee Related
- 2006-07-05 JP JP2008520758A patent/JP4913140B2/en not_active Expired - Fee Related
- 2006-07-05 DE DE502006002717T patent/DE502006002717D1/en active Active
- 2006-07-05 AT AT06762422T patent/ATE421842T1/en active
- 2006-07-05 EP EP06762422A patent/EP1872620B9/en not_active Not-in-force
- 2006-07-05 WO PCT/EP2006/006562 patent/WO2007009597A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP4913140B2 (en) | 2012-04-11 |
WO2007009597A1 (en) | 2007-01-25 |
JP2009501462A (en) | 2009-01-15 |
CN101223817A (en) | 2008-07-16 |
US8189824B2 (en) | 2012-05-29 |
DE502006002717D1 (en) | 2009-03-12 |
CN101223817B (en) | 2011-08-17 |
EP1872620A1 (en) | 2008-01-02 |
ATE421842T1 (en) | 2009-02-15 |
DE102005033239A1 (en) | 2007-01-25 |
EP1872620B1 (en) | 2009-01-21 |
US20080192965A1 (en) | 2008-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1872620B9 (en) | Apparatus and method for controlling a plurality of loudspeakers by means of a graphic user interface | |
EP1782658B1 (en) | Device and method for controlling a plurality of loudspeakers by means of a dsp | |
EP1671516B1 (en) | Device and method for producing a low-frequency channel | |
EP1637012B1 (en) | Wave field synthesis device and method for driving an array of loudspeakers | |
EP1800517B1 (en) | Device and method for controlling a public address system, and a corresponding public address system | |
DE10254404B4 (en) | Audio reproduction system and method for reproducing an audio signal | |
EP1851998B1 (en) | Device and method for delivering data in a multi-renderer system | |
DE10321986B4 (en) | Apparatus and method for level correcting in a wave field synthesis system | |
EP1606975B1 (en) | Device and method for calculating a discrete value of a component in a loudspeaker signal | |
EP1972181A1 (en) | Device and method for simulating wfs systems and compensating sound-influencing wfs characteristics | |
EP2754151B1 (en) | Device, method and electro-acoustic system for prolonging a reverberation period |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
17P | Request for examination filed |
Effective date: 20070105 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR |
|
DAX | Request for extension of the european patent (deleted) | ||
RIN1 | Information on inventor provided before grant (corrected) |
Inventor name: MELCHIOR, FRANK Inventor name: ROEDER, THOMAS Inventor name: REICHELT, KATRIN Inventor name: RODIGAST, RENE Inventor name: DAUSEL, MARTIN Inventor name: DEGUARA, JOACHIM Inventor name: GATZSCHE, GABRIEL Inventor name: BECKINGER, MICHAEL Inventor name: STRAUSS, MICHAEL |
|
GRAP | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOSNIGR1 |
|
RIN1 | Information on inventor provided before grant (corrected) |
Inventor name: DEGUARA, JOACHIM Inventor name: ROEDER, THOMAS Inventor name: DAUSEL, MARTIN Inventor name: STRAUSS, MICHAEL Inventor name: MELCHIOR, FRANK Inventor name: RODIGAST, RENE Inventor name: BECKINGER, MICHAEL Inventor name: REICHELT, KATRIN Inventor name: GATZSCHE, GABRIEL |
|
GRAS | Grant fee paid |
Free format text: ORIGINAL CODE: EPIDOSNIGR3 |
|
GRAA | (expected) grant |
Free format text: ORIGINAL CODE: 0009210 |
|
AK | Designated contracting states |
Kind code of ref document: B1 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR |
|
REG | Reference to a national code |
Ref country code: GB Ref legal event code: FG4D Free format text: NOT ENGLISH |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: EP |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: FG4D Free format text: LANGUAGE OF EP DOCUMENT: GERMAN |
|
REF | Corresponds to: |
Ref document number: 502006002717 Country of ref document: DE Date of ref document: 20090312 Kind code of ref document: P |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 Ref country code: LT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 Ref country code: FI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 Ref country code: ES Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090502 |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: FD4D |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090421 Ref country code: PL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 Ref country code: LV Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 Ref country code: IS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090521 Ref country code: PT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090622 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: EE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 Ref country code: CZ Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 Ref country code: DK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 Ref country code: IE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 |
|
PLBE | No opposition filed within time limit |
Free format text: ORIGINAL CODE: 0009261 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: RO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 Ref country code: SK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 |
|
26N | No opposition filed |
Effective date: 20091022 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: BG Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090421 |
|
BERE | Be: lapsed |
Owner name: FRAUNHOFER-GESELLSCHAFT ZUR FORDERUNG DER ANGEWAN Effective date: 20090731 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MC Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20090731 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: BE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20090731 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: GR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090422 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: IT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LU Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20090705 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: HU Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090722 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: TR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: CY Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20090121 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 11 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 12 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 13 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: NL Payment date: 20200729 Year of fee payment: 15 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: FR Payment date: 20200727 Year of fee payment: 15 Ref country code: GB Payment date: 20200724 Year of fee payment: 15 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: CH Payment date: 20200724 Year of fee payment: 15 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: AT Payment date: 20210720 Year of fee payment: 16 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: DE Payment date: 20210721 Year of fee payment: 16 |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: PL |
|
REG | Reference to a national code |
Ref country code: NL Ref legal event code: MM Effective date: 20210801 |
|
GBPC | Gb: european patent ceased through non-payment of renewal fee |
Effective date: 20210705 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LI Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20210731 Ref country code: GB Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20210705 Ref country code: CH Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20210731 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: NL Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20210801 Ref country code: FR Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20210731 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R119 Ref document number: 502006002717 Country of ref document: DE |
|
REG | Reference to a national code |
Ref country code: AT Ref legal event code: MM01 Ref document number: 421842 Country of ref document: AT Kind code of ref document: T Effective date: 20220705 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: AT Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20220705 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: DE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20230201 |