DE10164686A1 - Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler - Google Patents
Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-AbspielerInfo
- Publication number
- DE10164686A1 DE10164686A1 DE10164686A DE10164686A DE10164686A1 DE 10164686 A1 DE10164686 A1 DE 10164686A1 DE 10164686 A DE10164686 A DE 10164686A DE 10164686 A DE10164686 A DE 10164686A DE 10164686 A1 DE10164686 A1 DE 10164686A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- music
- audio
- pieces
- digital
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/061—MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Auxiliary Devices For Music (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Der interaktive Musik-Abspieler vereint die Audio-Wiedergabe, die Signal-Analyse und die Signal-Transformation mittels Effekten und Loops. Die Erfindung ermöglicht sowohl eine Echtzeit-Erkennung des Tempos (A) und der Phase (P) eines Audiotracks als auch deren automatische Angleichung. Zusätzlich liefert die Analyse die notwendigen Ausgangsdaten für die Steuerung temposynchroner Effekte und Loops. Vorteile sind unter anderem die dadurch geschaffene Möglichkeit der Automatisierung des sog. Beatmatchings und des gesamten Mix-Vorgangs, wobei letzterer anhand von entsprechend generierten digitalen Steuerdaten für u. a. die Stellglieder des Musik-Abspielers abspeicherbar ist. Dadurch sind der Vorgang und das Ergebnis unabhängig von den physischen Audiodaten nichtdestruktiv reproduzierbar, was mögliche urheberrechtliche Probleme bei der Weitergabe von durch einen Mix-Vorgang geschaffenen neuen Gesamtwerken von einer Mehrzahl von Musikstücken vermeidet.
Description
Die Erfindung betrifft die Erkennung und Anpassung von Tempo
und Phase von Musikstücken, insbesondere zur Realisierung ei
nes interaktiven Musikabspielers, der unter anderem eine Mög
lichkeit zur Reproduktion von mehreren zu einem neuen Gesamt
werk synchronisierten Musikstücken bietet. Dabei werden digi
tale Musikdaten nach einer vorteilhaften Ausgestaltung durch
ein gleichzeitiges Abspielen von mehreren Musikstücken auf
einem Standard-CD-ROM-Laufwerk in Echtzeit gewonnen.
Der Beruf des Disk Jockeys (kurz: DJ) erfährt in der heuti
gen, durch moderne elektronische Musik geprägten Tanz-Kultur
eine enorme technische Aufwertung. Zum Handwerk dieses Beru
fes gehört das Arrangieren der Musiktitel zu einem Gesamtwerk
(dem Set, dem Mix) mit einem eigenen Spannungsbogen. Dabei
ist es unter anderem unerlässlich, die einzelnen Titel in ih
rem Tempo und ihrer Phase, also der Lage der Takte im Zeit
raster, derart anzugleichen (engl. kurz: "Beatmatching"),
dass die Stücke in den Ubergängen zu einem Ganzen verschmel
zen und der Rhythmus nicht unterbrochen wird.
In diesem Zusammenhang stellt sich das technische Problem der
Tempo- und Phasenangleichung zweier Musikstücke bzw. Audi
otracks in Echtzeit. Dabei wäre es wünschenswert, wenn eine
Möglichkeit zur automatischen Tempo- und Phasenangleichung
zweier Musikstücke bzw. Audiotracks in Echtzeit zur Verfügung
stünde, um den DJ von diesem technischen Aspekt des Mixens zu
befreien, bzw. einen Mix automatisch oder halbautomatisch,
ohne die Hilfe eines versierten DJ's erstellen zu können.
Bisher wurde dieses Problem nur in Teilaspekten gelöst. So
gibt es Software-Player für das Format MP3 (ein Standardfor
mat für komprimierte digitale Audiodaten), die reine Echt
zeit-Tempoerkennung und -anpassung realisieren. Die Erkennung
der Phase muss jedoch weiterhin durch das Gehör und die An
passung des DJ manuell erfolgen. Dadurch wird ein beträchtli
ches Maß an Aufmerksamkeit des DJ in Anspruch genommen, was
andernfalls für künstlerische Aspekte wie Musikzusammenstel
lung etc. zur Verfügung stünde.
Weiter sind Hardware-Effektgeräte zur Bearbeitung von Audio
informationen bekannt, die zwar Echtzeit-Tempo- und -Phasen
erkennung realisieren, jedoch keine Anpassung von Tempo und
Phase am Audiomaterial vornehmen können, wenn dieses nur ana
log eingespeist wird. Es kann lediglich die relative Phasen
verschiebung der beiden Audiotracks optisch angezeigt werden.
Es sind jedoch keine Geräte bekannt, welche die Tempo-
Information zur Berechung von Loops (das sind kurze Audio-
Teilstücke, die fortlaufend wiederholt wiedergegeben werden
können) und Loop-Längen nutzt. Diese werden bei den bisher
dafür verwendeten Wiedergabegeräten entweder vorher ge
schnitten und geladen (Software-MP3-Player) oder manuell ge
setzt und angepasst (Hardware-CD-Player).
Eine Aufgabe der vorliegenden Erfindung besteht somit in der
Schaffung einer Möglichkeit zur automatischen Tempo- und Pha
senangleichung zweier Musikstücke bzw. Audiotracks in Echt
zeit mit möglichst hoher Genauigkeit.
Eine wesentliche zu überwindende technische Hürde stellt da
bei die Genauigkeit einer Tempo- und Phasen-Messung dar, wel
che mit der für diese Messung zur Verfügung stehenden Zeit
sinkt. Das Problem stellt sich somit vorrangig für eine Er
mittlung des Tempos und der Phase in Echtzeit, wie es u. a.
beim Live-Mixen der Fall ist.
Gemäß der vorliegenden Erfindung wird diese Aufgabe durch ein
Verfahren zur Erkennung von Tempo und Phase eines in digita
lem Format vorliegenden Musikstückes mit den folgenden Ver
fahrensschritten gelöst:
- - näherungsweise Ermittlung des Tempos des Musikstückes durch eine statistische Auswertung der zeitlichen Abstände rhyth musrelevanter Beat-Informationen in den digitalen Audiodaten,
- - näherungsweise Ermittlung der Phase des Musikstückes anhand der Lage der Takte in den digitalen Audiodaten im Zeitraster eines mit einer dem ermittelten Tempo proportionalen Frequenz schwingenden Referenz-Oszillators,
- - sukzessive Korrektur von ermitteltem Tempo und Phase des Musikstückes anhand einer möglichen Phasenverschiebung des Referenz-Oszillators relativ zu den digitalen Audiodaten durch Auswertung der resultierenden systematischen Phasenver schiebung und Regulierung der Frequenz des Referenz- Oszillators proportional der ermittelten Phasenverschiebung.
Es erfolgt also eine sukzessive Annäherung an den idealen
Wert in einem Regelkreis.
Dabei hat es sich als günstig erwiesen, wenn rhythmusrelevan
te Beat-Informationen durch Bandpassfilterung der zugrunde
liegenden digitalen Audiodaten in verschiedenen Frequenzbe
reichen gewonnen werden.
Besonders gut gelingt dies, wenn Rhythmusintervalle der Au
diodaten im Bedarfsfall durch Multiplikation ihrer Frequenz
mit 2er Potenzen in eine vordefinierte Frequenz-Oktave trans
formiert werden, wo diese Zeitintervalle zur Tempoermittlung
liefern. Wenn der Frequenz-Transformation eine Gruppierung
von Rhythmusintervallen, insbesondere in Paare oder Dreier
gruppen, durch Addition ihrer Zeitwerte vorausgeht, so erge
ben sich zusätzliche relevante Intervalle.
Nach einer vorteilhaften Ausgestaltung wird die gewonnene
Menge an Daten von Zeitintervallen der rhythmusrelevanten
Beat-Informationen auf Häufungspunkte untersucht. Die nähe
rungsweise Tempoermittlung erfolgt dann anhand der Informati
onen eines Häufungsmaximums.
Nach einer weiteren vorteilhaften Ausgestaltung des Verfah
rens gemäß der vorliegenden Erfindung wird zur näherungswei
sen Ermittlung der Phase des Musikstückes die Phase des Refe
renz-Oszillators derart gewählt, dass sich die größtmögliche
Übereinstimmung zwischen den rhythmusrelevanten Beat-Infor
mationen in den digitalen Audiodaten und den Nulldurchgängen
des Referenz-Oszillators einstellt.
Weiter hat es sich als günstig erwiesen, wenn eine sukzessive
Korrektur von ermitteltem Tempo und Phase des Musikstückes in
regelmäßigen Abständen in so kurzen Zeitintervallen erfolgt,
dass resultierende Korrekturbewegungen und/oder Korrekturver
schiebungen unterhalb der Hörbarkeitsgrenze bleiben.
Indem alle sukzessiven Korrekturen von ermitteltem Tempo und
Phase des Musikstückes über die Zeit akkumuliert werden, kön
nen darauf aufbauend weitere Korrekturen mit stetig steigen
der Präzision erfolgen.
Anstelle solche sukzessiven Korrekturen permanent vorzuneh
men, kann dies alternativ auch solange erfolgen, bis ein vor
gegebener tolerierbarer Fehlergrenzwert unterschritten wird.
Dafür eignet sich für das ermittelte Tempo insbesondere ein
Fehlergrenzwert kleiner als 0,1%.
Damit eine Anpassung auf mögliche Tempoänderungen im Musik
stück erreicht wird, erfolgt für den Fall, dass die Korrektu
ren über einen vorgebbaren Zeitraum hinweg immer jeweils ne
gativ oder positiv sind, eine erneute näherungsweise Ermitt
lung von Tempo und Phase mit anschließender sukzessiver Kor
rektur.
Neben der voranstehenden automatischen Erkennung von Tempo
und Phase von Musikstücken bedarf es zur Lösung der eingangs
genannten Aufgabe auch noch einer Anpassung von Tempo und
Phase der Musikstücke.
Dieses Problem wird gelöst, indem nach einer ersten nähe
rungsweisen Ermittlung des Tempos und der Phase des Musikstü
ckes das Ergebnis und die Anpassung sukzessive durch Rückwir
kung auf die Abspielgeschwindigkeit des Musikstückes verbes
sert wird.
Gemäß der Erfindung erfolgt dies durch ein Verfahren zur Syn
chronisierung von mindestens zwei in digitalem Format vorlie
genden Musikstücken mit folgenden Verfahrensschritten:
- - vollständige Ermittlung von Tempo und Phase des ersten Mu sikstückes wie voranstehend beschrieben,
- - näherungsweise Ermittlung von Tempo und Phase des weiteren Musikstückes wie voranstehend beschrieben,
- - Anpassung der Abspielgeschwindigkeit und der Abspielphase dieses weiteren Musikstückes durch sukzessive Anpassung der Frequenz und der Phase des diesem weiteren Musikstück zuge ordneten Referenz-Oszillators an die Frequenz und die Phase des dem anderen Musikstück zugeordneten Referenz-Oszillators.
Dabei hat es sich als vorteilhaft herausgestellt, wenn zur
Anpassung der Abspielgeschwindigkeit und der Abspielphase des
weiteren Musikstückes anhand einer möglichen Phasenverschie
bung des diesem weiteren Musikstück zugeordneten Referenz-
Oszillators relativ zu dem Referenz-Oszillator des anderen
Musikstückes eine Auswertung der resultierenden systemati
schen Phasenverschiebung und eine Regulierung der Frequenz
des dem weiteren Musikstück zugeordneten Referenz-Oszillators
proportional der ermittelten Phasenverschiebung erfolgt.
Es erfolgt also eine sukzessive Annäherung an den idealen
Wert in einem Regelkreis, in welchem die Tempo und Phasen-
Informationen auf die Steuerung der Abspielgeschwindigkeit
des Audiomaterials zurückwirken.
Zum Abspielen von vorproduzierter Musik werden heutzutage
verschiedenartige Geräte für verschiedene Speichermedien wie
Schallplatte, CD oder Cassette verwendet. Diese Formate wur
den jedoch nicht dafür entwickelt, in den Abspielprozess ein
zugreifen, um die Musik damit auf kreative Art zu bearbeiten.
Diese Möglichkeit ist aber wünschenswert und wird heutzutage
trotz der gegebenen Einschränkungen von den eingangs erwähn
ten Disk Jockeys praktiziert. Dabei werden bevorzugt Vinyl-
Schallplatten verwendet, weil man dort am leichtesten mit der
Hand die Abspielgeschwindigkeit und -position beeinflussen
kann.
Heute werden aber überwiegend digitale Formate wie Audio-CD
und MP3 zum Speichern von Musik verwendet. Mit der vorange
hend beschriebenen Erfindung wird nun der genannte kreative
Umgang mit Musik auf beliebigen digitalen Formaten ermög
licht.
Durch das vorangehend beschriebene Verfahren gemäß der Erfin
dung ist es nämlich möglich, aus einer Sammlung von Musikti
teln auf vollautomatische Weise einen Mix zu erstellen, bei
welchem die Stücke tempo- und phasenrichtig aneinandergereiht
werden.
Dies wird durch einen Musik-Abspieler ermöglicht, bei dem
mindestens zwei in digitalem Format vorliegende Musikstücke
wie voranstehend dargestellt in Echtzeit synchronisierbar
sind.
Besonders effektiv gelingt dies bei einem solchen Musik-
Abspieler, bei dem jeweils rhythmusrelevante Beat-Infor
mationen eines vorgegebenen zurückliegenden Zeitraums ausge
hend von einer aktuellen Abspielposition des Musikstückes als
Grundlage zur Tempoermittlung in Echtzeit dienen.
Durch die automatische Tempoerkennung kann auf Wunsch des Hö
rers der Inhalt einer Musikdatenquelle, z. B. einer Compakt
Disk CD, in einer von ihm wählbaren z. B. tempoabhängigen Rei
henfolge als homogener Mix wiedergegeben werden.
Die Erfindung umfasst daher auch einen solchen Musik-Abspie
ler, bei dem synchronisierte Musikstücke automatisch zu einem
Gesamtwerk mit einheitlichem Rhythmus arrangierbar und ab
spielbar sind.
Um gezielt Eingreifen zu können, ist es wichtig, eine grafi
sche Repräsentation der Musik zu haben, in der man die aktu
elle Abspielposition und auch einen gewissen Zeitraum in der
Zukunft und in der Vergangenheit erkennt. Dazu stellt man üb
licherweise die Amplitudenhüllkurve der Klangwellenform über
einen Zeitraum von mehreren Sekunden vor und nach der Ab
spielposition dar. Die Darstellung verschiebt sich in Echt
zeit in der Geschwindigkeit, in der die Musik spielt.
Dabei besteht das prinzipielle Bedürfnis, möglichst viel
hilfreiche Information in der grafischen Darstellung haben,
um gezielt eingreifen zu können. Außerdem möchte man ergono
misch in den Abspielvorgang eingreifen können, auf vergleich
bare Art mit dem von DJ's häufig praktizierten "Scratching"
auf Vinylplattenspielern, wobei der Plattenteller während der
Wiedergabe angehalten und vorwärts sowie rückwärts bewegt
wird.
Zur Lösung dieses Problems schlägt die vorliegende Erfindung
einen interaktiven Musik-Abspieler vor, der
- - ein Mittel zur graphischen Darstellung von mit einer Tempo- und Phasenerkennungsfunktion, insbesondere einer solchen wie vorangehend beschrieben, bestimmten Taktgrenzen eines in der Wiedergabe befindlichen Musikstückes in Echtzeit,
- - ein erstes Steuerelement zum Wechsel zwischen einem ersten Betriebsmodus, in dem das Musikstück mit einem konstanten Tempo abgespielt wird, und einem zweiten Betriebsmodus, in dem die Abspielposition und/oder Abspielgeschwindigkeit vom Anwender direkt beeinflussbar in Echtzeit ist, und
- - ein zweites Steuerelement zur Manipulation der Abspielposi tion in Echtzeit
umfasst.
Nach einer vorteilhaften Ausgestaltung dieses interaktiven
Musik-Abspielers ist dieser zusätzlich ausgestattet mit
- - einem Mittel zur graphischen Darstellung der aktuellen Ab spielposition, mit dem eine Amplitudenhüllkurve der Klangwel lenform des wiedergegebenen Musikstückes über einen vorgebba ren Zeitraum vor und nach der aktuellen Abspielposition dar stellbar ist, wobei sich die Darstellung in Echtzeit mit dem Tempo der Wiedergabe des Musikstückes verschiebt, und mit
- - einem Mittel zur Glättung eines stufigen Verlaufs zeitlich begrenzter, mit dem zweiten Steuerelement vorgegebener Ab spiel-Positionsdaten zu einem sich gleichmäßig mit einer der Audio-Abtastrate entsprechenden zeitlichen Auflösung ändern den Signal.
Dabei hat es sich als vorteilhaft erwiesen, wenn zur Glättung
eines stufigen Verlaufs zeitlich begrenzter Abspiel-Posi
tionsdaten ein Mittel zur Rampenglättung vorgesehen ist,
durch das mit jeder vorgegebenen Abspiel-Positionsnachricht
eine Rampe mit konstanter Steigung auslösbar ist, die in ei
nem vorgebbaren Zeitintervall das geglättete Signal von sei
nem bisherigen Wert auf den Wert der Abspiel-Positionsnach
richt fährt. Alternativ oder zusätzlich kann ein lineares di
gitales Tiefpaß-Filter, insbesondere ein Resonanzfilter zwei
ter Ordnung, zur Glättung eines stufigen Verlaufs vorgegebe
ner zeitlich begrenzter Abspiel-Positionsdaten dienen.
Um Sprünge bei der Wiedergabe zu vermeiden, dient im Fall ei
nes Wechsels zwischen den Betriebsmodi die im vorhergehenden
Modus erreichte Position als Ausgangsposition im neuen Modus.
Im Fall eines Wechsels zwischen den Betriebsmodi wird zur
Vermeidung von abrupten Geschwindigkeitsänderungen die im
vorhergehenden Modus erreichte aktuelle Abspielgeschwindig
keit durch eine Glättungsfunktion, insbesondere eine Rampen
glättung oder ein lineares digitales Tiefpaß-Filter, auf die
dem neuen Betriebsmodus entsprechende Abspielgeschwindigkeit
geführt.
Um beim Abspielen mit sich stark und schnell ändernder Ge
schwindigkeit eine möglichst authentische Wiedergabe ähnlich
dem "Scratchen" mit einem Vinyl-Plattenspieler zu erreichen,
verwendet eine weitere vorteilhafte Ausführungsform des in
teraktiven Musik-Abspielers nach der Erfindung für ein Audio
signal ein Scratch-Audio-Filter, wobei das Audiosignal einer
Pre-Emphase-Filterung (Vorverzerrung) unterzogen und in einem
Pufferspeicher abgelegt wird, aus dem es in Abhängigkeit von
der jeweiligen Abspielgeschwindigkeit mit variablem Tempo
auslesbar ist, um anschließend einer De-Emphase-Filterung
(Rückentzerrung) unterzogen und wiedergegeben zu werden.
Aus den Tempoinformationen lässt sich die Länge eines oder
mehrerer Takte mit hinreichender Genauigkeit ermitteln um auf
Tastendruck die Länge eines Loops so zu setzten, dass sich
dieser "knackfrei" und mit dem Tempo des ursprünglichen Audi
otracks spielen lässt. Bei einem solchen interaktiven Musik-
Abspieler, der Tempoinformationen auf die beschriebene Weise
gemäß der Erfindung ermittelt, ist nach einer weiteren vor
teilhaften Ausgestaltung für eines oder mehrere der synchro
nisierten Musikstücke anhand der ermittelten Tempoinformation
des jeweiligen Musikstückes die Länge einer über einen oder
mehrere Takte dieses Musikstückes reichenden Wiedergabe-
Schleife in Echtzeit taktsynchron definierbar und abspielbar.
Die Phasen-Informationen können dazu genutzt werden, wiederum
auf Tastendruck, Sprungmarken innerhalb des Tracks, sogenann
te Cue-Points, oder ganze Loops genau auf einen Taktanfangs-
Beat zu legen. Ein vorteilhafter interaktiver Musik-Abspieler
wird also dadurch weitergebildet, dass für eines oder mehrere
der synchronisierten Musikstücke anhand der ermittelten Pha
seninformation des jeweiligen Musikstückes in Echtzeit takt
synchrone Sprungmarken definierbar und innerhalb dieses Mu
sikstückes um ganzzahlige Vielfache von Takten verschiebbar
sind. Solche Cue-Points und Loops können auch auf Tastendruck
um ganzzahlige Vielfache von Takten innerhalb des Tracks ver
schoben werden. Beides erfolgt in Echtzeit, während der Wie
dergabe des Audio-Tracks.
Des weiteren ermöglicht die gewonnene Information über das
Tempo und die Phase eines Audiotracks die Ansteuerung soge
nannter temposynchroner Effekte. Dabei wird das Audiosignal
passend zum eigenen Rhythmus manipuliert, was rhythmisch ef
fektvolle Echtzeit-Klangveränderung ermöglicht. Insbesondere
kann die Tempo-Information dazu genutzt werden, Loops mit
taktgenauen Längen in Echtzeit aus dem Audiomaterial heraus
zuschneiden.
Ein weiter vorteilhafter interaktiver Musik-Abspieler zeich
net sich daher dadurch aus, dass jeder wiedergegebene Audio
datenstrom durch Signalverarbeitungsmittel in Echtzeit mani
pulierbar ist, insbesondere durch Filtereinrichtungen
und/oder Audioeffekte.
Herkömmlicherweise werden beim Mischen mehrerer Musikstücke
die Audioquellen von Tonträgern auf mehreren Abspielgeräten,
z. B. Plattenspielern oder CD-Playern, abgespielt und über ein
Mischpult abgemischt. Bei dieser Vorgehensweise beschränkt
sich eine Audioaufnahme auf eine Aufzeichnung des Endresul
tats. Auf der Grundlage von Computersystemen mit Audio
schnittstellen mit geeigneter Audioverarbeitungssoftware wie
Audio-Sequenzern oder sogenannten Samplebearbeitungsprogram
men, bei denen digitale Audioinformationen manipuliert werden
können, ist ein interaktives Eingreifen des Anwenders während
der Wiedergabe nicht möglich.
Für eine Reproduktion des Mischvorganges oder um zu einem
späteren Zeitpunkt exakt an einer vorgebbaren Position inner
halb eines Musikstückes weitermischen zu können, wäre es wün
schenswert, wenn nicht nur das Endresultat abspeicherbar wä
re.
Diese Anforderung wird gemäß der Erfindung durch einen inter
aktiven Musik-Abspieler gelöst, der dadurch weitergebildet
ist, dass Echtzeiteingriffe über den zeitlichen Ablauf als
digitale Steuerinformationen speicherbar sind, insbesondere
solche eines Mischvorganges mehrerer Musikstücke und/oder zu
sätzliche Signalverarbeitungen.
Indem Mischvorgänge von Musikstücken und/oder interaktive
Eingriffe in Musikstücke mit Audiosignalverarbeitungsmitteln
als ein neues Gesamtwerk unabhängig von digitalen Audioinfor
mationen von Musikstücken in Form digitaler Steuerinformatio
nen, insbesondere zu Reproduktionszwecken, speicherbar sind,
lässt sich der Vorgang des interaktiven Mischens und einer
interaktiven Effektbearbeitung aufzeichnen und jederzeit wie
dergeben.
Nach einer weiteren vorteilhaften Ausgestaltung der Erfindung
weisen gespeicherte digitale Steuerinformationen ein Format
auf, das Informationen zur Identifikation der verarbeiteten
Musikstücke und eine jeweilige diesen zugeordnete zeitliche
Abfolge von Abspielpositionen und Zustandsinformationen der
Stellglieder des Musik-Abspielers umfasst.
Ein entscheidender Vorteil dieser Aufzeichnungsmöglichkeit
und des vorgeschlagenen Formates besteht in der Tatsache,
dass eine digitale Aufzeichnung des Mischvorgangs unabhängig
von den Audiodaten der gemischten Musikstücke und damit ohne
urheberrechtlich problematisches Kopieren dieser Audiodaten
erfolgen kann. Das Gesamtresultat kann damit jederzeit selb
ständig wiedergegeben, weiterverarbeitet, vervielfältigt und
übertragen werden.
Ein besonders vorteilhafter interaktiver Musik-Abspieler ist
durch ein geeignet programmiertes mit Audioschnittstellen
ausgestattetes Computersystem realisiert. Dabei können stan
dardmäßige Datenspeicher des Computersystems zur Aufnahme der
Steuerdatei dienen. Auch wird damit ein besonders interessan
ter Austausch der in der Regel wenig speicherintensiven Auf
zeichnungsdateien z. B. auch über das Internet ermöglicht.
In diesem Zusammenhang stellt sich das Problem, dass häufig
nur eine Audiodatenquelle vorhanden ist, z. B. ein CD-Player
oder im Fall eines Computersystems ein CD-ROM-Laufwerk. Die
sen und anderen Abspielgeräten ist in der Regel gemeinsam,
dass sie nur über eine einzige Leseeinheit verfügen. Zur
Durchführung der vorangehend beschriebenen Funktion, insbe
sondere des Mischen mehrerer Musikstücke müssen jedoch die
Audiodaten mindestens zweier Musikstücke gleichzeitig zur
Verfügung gestellt werden. Es wäre daher wünschenswert, wenn
dies auch mit einem Abspielgerät mit lediglich einer Leseein
heit gelänge.
Die Erfindung löst dieses Problem durch ein Verfahren zur Be
reitstellung digitaler Audiodaten mindestens zweier Musikstü
cke von einer Datenquelle mit nur einer Leseeinheit in Echt
zeit, wenn die Datenquelle Audiodaten mit einer im Vergleich
zu deren Abspielgeschwindigkeit höheren Lesegeschwindigkeit
liefert, indem für jedes wiederzugebende Musikstück ein je
weiliger Puffer-Speicher, insbesondere Ringpuffer-Speicher,
vorgesehen ist, und die höhere Lesegeschwindigkeit dazu ge
nutzt wird, die jeweiligen Pufferspeicher derart mit zugehö
rigen Audiodaten zu füllen, dass stets zeitlich vor und nach
einer aktuellen Abspielposition des jeweiligen Musikstückes
Audiodaten bereitstehen.
Dabei hat es sich als vorteilhaft herausgestellt, wenn der
Zustand jedes Puffer-Speichers dahingehend überwacht wird, ob
ausreichend Daten bereitstehen, und bei Unterschreiten eines
vorgebbaren Schwellwertes eine von der Wiedergabe der Musik
stücke entkoppelte zentrale Instanz mit der Bereitstellung
der erforderlichen Audiodaten beauftragt wird, die selbsttä
tig die erforderlichen Bereiche von Audiodaten von der Daten
quelle anfordert und den zugehörigen Puffer-Speicher mit den
erhaltenen Daten auffüllt. Nach einer weiter vorteilhaften
Ausführungsform werden beim Auffüllen eines Puffer-Speichers
nicht mehr benötigte Daten überschrieben. Weiter hat es sich
als vorteilhaft erwiesen, wenn die zentrale Instanz parallel
eintreffende Anforderungen in eine sequentiell abzuarbeitende
Reihenfolge bringt.
Besonders gut geeignet ist dieses Verfahren im Zusammenhang
mit einem CD-ROM-Laufwerk und stellt eine neuartige und vor
teilhafte Form des vom Fachmann als CD-Grabbing bezeichneten
Auslesens solcher Laufwerke dar.
Einem weiterhin vorteilhaften interaktiven Musik-Abspieler
dient ein nach dem voranstehend beschriebenen Verfahren be
triebenes CD-ROM-Laufwerk als Datenquelle der Musikstücke.
Da die vorangehend beschriebene Erfindung besonders vorteil
haft auch auf einem geeignet programmierten Computersystem
realisiert werden kann, lassen sich die erfindungsgemäßen
Maßnahmen auch in Form eines Computerprogrammproduktes reali
sieren, das direkt in den internen Speicher eines digitalen
Computers geladen werden kann und Softwareabschnitte umfasst,
mit denen die erfindungsgemäßen Maßnahmen ausgeführt werden,
wenn das Programmprodukt auf einem Computer ausgeführt wird.
In diesem Zusammenhang ermöglicht die Erfindung auch die Be
reitstellung eines Datenträgers, insbesondere einer Compact
Disc, der
- - einen ersten Datenbereich mit digitalen Audiodaten eines oder mehrerer Musikstücke und
- - einen zweiten Datenbereich mit einer Steuerdatei mit digi talen Steuerinformationen zur Ansteuerung eines Musik- Abspielers umfasst, insbesondere eines solchen wie im voran gehenden beschrieben, wobei
- - die Steuerdaten des zweiten Datenbereichs auf Audiodaten des ersten Datenbereichs Bezug nehmen.
Dabei ist es besonders vorteilhaft, wenn die digitalen Steu
erinformationen des zweiten Datenbereichs Mischvorgänge von
Musikstücken und/oder interaktive Eingriffe in Musikstücke
mit Audiosignalverarbeitungsmitteln als ein neues Gesamtwerk
der digitalen Audioinformationen von Musikstücken des ersten
Datenbereichs repräsentieren.
Weiter hat es sich als günstig erwiesen, wenn gespeicherte
digitale Steuerinformationen des zweiten Datenbereichs ein
Format aufweisen, das Informationen zur Identifikation der
verarbeiteten Musikstücke des ersten Datenbereichs und eine
jeweilige diesen zugeordnete zeitliche Abfolge von Abspielpo
sitionen und Zustandsinformationen der Stellglieder des Mu
sik-Abspielers umfasst.
Auf einem solchen Datenträger lässt sich auch vorteilhaft ein
Computerprogrammprodukt anordnen, das direkt in den internen
Speicher eines digitalen Computers geladen werden kann und
Softwareabschnitte umfasst, mit denen dieser digitale Compu
ter die Funktion eines Musik-Abspielers übernimmt, insbeson
dere eines solchen wie vorangehend beschrieben, mit dem ent
sprechend den Steuerdaten des zweiten Datenbereichs des Da
tenträgers, die auf Audiodaten des ersten Datenbereichs des
Datenträgers verweisen, ein durch die Steuerdaten repräsen
tiertes Gesamtwerk abspielbar ist, wenn das Programmprodukt
auf einem Computer ausgeführt wird.
Dadurch dass der interaktive Musik-Abspieler die Audio-
Wiedergabe, die Signal-Analyse und die Signal-Transformation
mittels Effekten und Loops vereint, besteht die Möglichkeit
erstmalig sowohl eine Echtzeit-Erkennung des Tempos und der
Phase eines Audiotracks als auch deren automatische Anglei
chung zu realisieren. Zusätzlich liefert die Analyse notwen
digen Ausgangsdaten für die Steuerung temposynchroner Effekte
und Loops.
Vorteile sind unter anderem die dadurch geschaffene Möglich
keit der Automatisierung des sog. Beatmatchings, einer nicht
leicht erlernbare Grundvoraussetzung des DJ-Mixens, die bei
jedem Übergang zweier Musikstücke einen erheblichen Teil der
Aufmerksamkeit des DJ's in Anspruch nimmt. Weiterhin besteht
die Möglichkeit den gesamten Mix-Vorgang zu automatisieren.
Weitere Vorteile und Details der Erfindung ergeben sich an
hand der folgenden Beschreibung vorteilhafter Ausführungsbei
spiele und in Verbindung mit den Figuren. Es zeigt in Prin
zipdarstellung:
Fig. 1 ein Blockschaltbild zur Veranschaulichung der Ge
winnung rhythmusrelevanter Informationen und deren
Auswertung zur näherungsweisen Ermittlung von Tempo
und Phase eines Musikdatenstroms,
Fig. 2 ein weiteres Blockschaltbild zur sukzessiven Kor
rektur von ermitteltem Tempo und Phase,
Fig. 3 ein Blockschaltbild zur Veranschaulichung der
Struktur zum parallelen Auslesen eines CD-ROM-
Laufwerks gemäß der Erfindung,
Fig. 4 ein Blockschaltbild eines interaktiven Musik-
Abspielers gemäß der Erfindung mit Eingriffsmög
lichkeit in eine aktuelle Abspielposition,
Fig. 5 ein Blockschaltbild einer zusätzlichen Signalverar
beitungskette zur Realisierung eines Scratch-Audio-
Filters gemäß der Erfindung und
Fig. 6 einen Datenträger, der Audiodaten und Steuerdateien
zur Reproduktion von aus den Audiodaten gemäß der
Erfindung erstellten Gesamtwerken vereint.
Im folgenden soll eine mögliche Realisierung der näherungs
weisen Tempo- und Phasenerkennung sowie Tempo- und Phasenan
passung gemäß der Erfindung dargestellt werden.
Erster Schritt der Prozedur ist eine erste, näherungsweise
Ermittlung des Tempos des Musikstückes. Dies erfolgt durch
eine statistische Auswertung der zeitlichen Abstände der sog.
Beat-Ereignisse. Eine Möglichkeit zur Gewinnung rhythmusrele
vanter Ereignisse aus dem Audiomaterial erfolgt durch schmale
Bandpassfilterung des Audiosignals in verschiedenen Frequenz
bereichen. Um das Tempo in Echtzeit zu ermitteln, werden für
die folgenden Berechnungen jeweils nur die Beatereignisse der
letzten Sekunden verwendet. Dabei entsprechen 8 bis 16 Ereig
nisse in etwa 4 bis 8 Sekunden.
Aufgrund der quantisierten Struktur von Musik (16tel Noten
Raster) können nicht nur Viertelnoten Beat-Intervalle zur
Tempoberechnung herangezogen werden. Auch andere Intervalle
(16tel, 8tel, ½ und ganze Noten) können durch Oktavierung
(z. B. durch Multiplizieren ihrer Frequenz mit 2er Potenzen)
in eine vordefinierte Frequenz-Oktave (z. B. 80-160 bpm,
Englisch für Beats per minute) transformiert werden und somit
temporelevante Informationen liefern. Fehlerhafte Oktavierun
gen (z. B. von Triolen-Intervallen) fallen später wegen ihrer
verhältnismäßigen Seltenheit bei der statistischen Auswertung
nicht ins Gewicht.
Um auch Triolen, bzw. geschuffelte Rhythmen (einzelne leicht
aus dem 16tel Raster versetzte Noten) zu erfassen, werden die
im ersten Punkt gewonnenen Zeitintervalle zusätzlich noch in
Paaren und Dreiergruppen durch Addition ihrer Zeitwerte grup
piert bevor sie oktaviert werden. Durch dieses Verfahren wird
die rhythmische Struktur zwischen den Takten aus den Zeitin
tervallen herausgerechnet.
Die so gewonnene Menge an Daten wird auf Häufungspunkte un
tersucht. Es entstehen dabei in der Regel drei Häufungsmaxima
bedingt durch die Oktavierungs- und Gruppierungsverfahren,
deren Wert in rationalen Verhältnis (2/3, 5/4, 4/5 oder 3/2)
zueinander stehen. Sollte aus der Stärke eines der Maxima
nicht deutlich genug hervorgehen, das dieses das tatsächliche
Tempo des Musikstückes angibt, lässt sich das korrekte Maxi
mum aus dem rationalen Verhältnissen der Maxima untereinander
ermitteln.
Zur näherungsweisen Ermittlung der Phase wird ein Referenz-
Oszillator verwendet. Dieser schwingt mit dem zuvor ermittel
ten Tempo. Seine Phase wird vorteilhaft so gewählt, dass sich
die beste Übereinstimmung zwischen Beat-Ereignisse des Audio
materials und Nulldurchgängen des Oszillators ergibt.
Anschließend erfolgt eine sukzessive Verbesserung der Tempo-
und Phasenermittlung. Durch die natürliche Unzulänglichkeit
der ersten näherungsweisen Tempoermittlung wird sich zunächst
nach einigen Sekunden die Phase des Referenz-Oszillators re
lativ zum Audiotrack verschieben. Diese systematische Phasen
verschiebung gibt Auskunft darüber, um welche Menge das Tempo
des Referenz-Oszillators verändert werden muss. Eine Korrek
tur des Tempos und der Phase erfolgt vorteilhaft in regelmä
ßigen Abständen, um unterhalb der Hörbarkeitsgrenze der Ver
schiebungen und der Korrekturbewegungen zu bleiben.
Sämtliche Phasenkorrekturen, die ab der näherungsweisen Pha
senkorrelation erfolgt sind, werden über die Zeit akkumu
liert, so dass die Berechnung des Tempos und der Phase auf
einem ständig wachsenden Zeitintervall basiert. Dadurch wer
den die Tempo- und Phasen-Werte zunehmend präziser und ver
lieren den eingangs erwähnten Makel der näherungsweisen Echt
zeitmessung. Nach kurzer Zeit (ca. 1 min) sinkt der Fehler
des mit diesem Verfahren ermittelten Tempo-Wertes unterhalb
0.1%, ein Maß an Genauigkeit, das Vorraussetzung für die Be
rechnung von Loop-Längen ist.
Die Darstellung gemäß Fig. 1 zeigt eine mögliche technische
Realisierung der beschriebenen näherungsweisen Tempo- und
Phsenerkennung eines Musikdatenstroms in Echtzeit anhand ei
nes Blockschaltbildes. Die gezeigte Struktur kann auch als
"Beat Detector" bezeichnet werden.
Als Input liegen zwei Ströme von Audio-Events bzw. Audio-
Ereignissen Ei mit Wert 1 vor, welche den Peaks in den Fre
quenzbändern F1 bei 150 Hz und F2 bei 4000 Hz oder 9000 Hz
entsprechen. Diese beiden Eventströme werden vorerst getrennt
behandelt, indem diese durch jeweilige Bandpassfilter mit je
weiliger Grenzfrequenz F1 und F2 gefiltert werden.
Folgt ein Event innerhalb von 50 ms dem vorhergehenden, wird
das zweite Event nicht berücksichtigt. Eine Zeit von 50 ms
entspricht der Dauer eines 16tels bei 300 bpm, liegt also
weit unter der Dauer des kürzesten Intervalls, in dem die Mu
sikstücke üblicherweise angesiedelt sind.
Aus dem Strom der gefilterten Events Ei wird nun in jeweili
gen Verarbeitungseinheiten BD1 und BD2 ein Strom aus den ein
fachen Zeitintervallen Ti zwischen den Events gebildet.
Aus dem Strom der einfachen Zeitintervalle T1i werden in
gleichen Verarbeitungseinheiten BPM_C1 und BPM_C2 jeweils zu
sätzlich zwei weitere Ströme der bandbegrenzten Zeitinterval
le gebildet, nämlich mit Zeitintervallen T2i, den Summen von
jeweils zwei aufeinanderfolgenden Zeitintervallen, und mit
Zeitintervallen T3i, den Summen von jeweils drei aufeinander
folgenden Zeitintervallen. Die dazu herangezogenen Events
dürfen sich auch überlappen.
Dadurch werden aus dem Strom: t1, t2, t3, t4, t5, t6, . . . zu
sätzlich folgende zwei Ströme erzeugt:
T2i: (t1+t2), (t2+t3), (t3+t4), (t4+t5), (t5+t6), . . . und
T3i: (t1+t2+t3), (t2+t3+t4), (t3+t4+t5), (t4+t5+t6), . . .
T2i: (t1+t2), (t2+t3), (t3+t4), (t4+t5), (t5+t6), . . . und
T3i: (t1+t2+t3), (t2+t3+t4), (t3+t4+t5), (t4+t5+t6), . . .
Die drei Ströme T1i, T2i, T3i, werden nun Zeit-oktaviert in
entsprechenden Verarbeitungseinheiten OKT. Die Zeit-
Oktavierung OKT erfolgt derart, dass die einzelnen Zeitinter
valle jedes Stroms so oft verdoppelt werden, bis sie in einem
vorgegebenen Intervall BPM_REF liegen. Auf diese Weise erhält
man drei Datenströme T1io, T2io, T3io . . .. Die obere Grenze des
Intervalls berechnet sich aus der unteren bpm-Grenze nach der
Formel:
thi(ms) = 60000 bpmlow.
Die untere Grenze des Intervalls liegt bei 0.5* thi.
Jeder der so erhaltenen drei Ströme wir nun für beide Fre
quenzbänder F1, F2 in jeweiligen weiteren Verarbeitungsein
heiten CHK auf seine Konsistenz überprüft. Damit wird ermit
telt, ob jeweils eine gewisse Anzahl aufeinanderfolgender,
Zeit-oktavierter Intervallwerte innerhalb einer vorgegebenen
Fehlergrenze liegen. Dazu überprüft man beispielsweise im
einzelnen mit folgenden Werten:
Für T1i überprüft man dessen letzte 4 Events t11o, t12o, t13o,
t14o daraufhin, ob gilt:
a) (t11o - t12o)2 + (t11o - t13o)2 + (t11o - t14o)2 < 20
a) (t11o - t12o)2 + (t11o - t13o)2 + (t11o - t14o)2 < 20
Ist dies der Fall, wird der Wert t11o als gültiges Zeitinter
vall ausgegeben.
Für T2i überprüft man dessen letzte 4 Events t21o, t22o, t23o,
t24o daraufhin, ob gilt:
b) (t21o - t22o)2 + (t21o - t23o)2 + (t21o - t24o)2 < 20
b) (t21o - t22o)2 + (t21o - t23o)2 + (t21o - t24o)2 < 20
Ist dies der Fall, wird der Wert t11o als gültiges Zeitinter
vall ausgegeben.
Für T3i überprüft man dessen letzte 3 Events t31o, t32o, t33o,
daraufhin, ob gilt:
c) (t31o - t32o)2 + (t31o - t33o)2 < 20
c) (t31o - t32o)2 + (t31o - t33o)2 < 20
Ist dies der Fall, wird der Wert t31o als gültiges Zeitinter
vall ausgegeben.
Hierbei hat die Konsistenzprüfung a) Vorrang vor b) und b)
hat Vorrang vor c). Wird also bei a) ein Wert ausgegeben,
werden b) und c) nicht mehr untersucht. Wird bei a) kein Wert
ausgegeben, so wird b) untersucht, usw. Wird hingegen weder
bei a) noch bei b) noch bei c) ein konsistenter Wert gefun
den, so wird die Summe der letzten 4 nicht oktavierten Ein
zelintervalle (t1+t2+t3+t4) ausgegeben.
Der so aus den drei Strömen ermittelte Wertestrom konsisten
ter Zeitintervalle wird wiederum in einer nachgeschalteten
Verarbeitungseinheit OKT in das vorgegebene Zeit-Intervall
BPM_REF oktaviert. Anschließend wird das oktavierte Zeit-
Intervall in einen BPM Wert umgerechnet.
Als Resultat liegen jetzt zwei Ströme BPM1 und BPM2 von bpm-
Werten vor - einer für jeden der beiden Frequenzbereiche F1
und F2. In einem Prototyp werden diese Ströme mit einer fes
ten Frequenz von 5 Hz abgefragt und die jeweils letzten acht
Events aus beiden Strömen für die statistische Auswertung he
rangezogen. Man kann an dieser Stelle jedoch durchaus auch
eine variable (eventgesteuerte) Abtastrate verwenden und man
kann auch mehr als nur die letzten 8 Events verwenden, bei
spielsweise 16 oder 32 Events.
Diese letzten 8, 16 oder 32 Events aus jedem Frequenzband F1,
F2 werden zusammengeführt und in einer nachgeschalteten Ver
arbeitungseinheit STAT auf Häufungsmaxima N betrachtet. In
der Prototyp-Version wird ein Fehlerintervall von 1,5 bpm
verwendet, d. h. solange Events weniger als 1,5 bpm voneinan
der differieren, werden sie als zusammengehörig betrachtet
und addieren sich in der Gewichtung. Die Verarbeitungseinheit
STAT ermittelt hierbei, bei welchen BPM-Werten Häufungen auf
treten und wie viele Events den jeweiligen Häufungspunkten
zuzuordnen sind. Der am stärksten gewichtete Häufungspunkt
kann als die lokale BPM-Messung gelten und liefert den ge
wünschten Tempowert A.
In einer ersten Weiterbildung dieses Verfahrens erfolgt zu
sätzlich zu der lokalen BPM-Messung eine globale Messung, in
dem man die Zahl, der verwendeten Events auf 64, 128 etc.
ausweitet. Bei alternierenden Rhythmus-Patterns, in welchen
nur jeden 4. Takt das Tempo klar durchkommt, kann häufig eine
Eventzahl von mindestens 128 nötig sein. Solch eine Messung
ist zuverlässiger, benötigt jedoch auch mehr Zeit.
Eine weitere entscheidende Verbesserung kann durch folgende
Maßnahme erzielt werden:
In Betracht gezogen wird nicht nur das erste Häufungsmaximum, sondern auch das zweite. Dieses zweite Maximum entsteht fast immer durch vorhandene Triolen und kann sogar stärker als das erste Maximum sein. Das Tempo der Triolen hat jedoch ein klar definiertes Verhältnis zum Tempo der Viertel Noten, so dass sich aus dem Verhältnis der Tempi der beiden ersten Maxima ermitteln lässt, welches Häufungsmaximum den Vierteln und welches den Triolen zuzuordnen ist.
In Betracht gezogen wird nicht nur das erste Häufungsmaximum, sondern auch das zweite. Dieses zweite Maximum entsteht fast immer durch vorhandene Triolen und kann sogar stärker als das erste Maximum sein. Das Tempo der Triolen hat jedoch ein klar definiertes Verhältnis zum Tempo der Viertel Noten, so dass sich aus dem Verhältnis der Tempi der beiden ersten Maxima ermitteln lässt, welches Häufungsmaximum den Vierteln und welches den Triolen zuzuordnen ist.
Nimmt man T1 als das Tempo des ersten Maximums in bpm und T2
als das des zweiten Maximums an, so gelten folgende Regeln:
Wenn T2 = 2/3.T1, dann ist T2 das Tempo.
Wenn T2 = 4/3.T1, dann ist T2 das Tempo.
Wenn T2 = 2/5.T1, dann ist T2 das Tempo.
Wenn T2 = 4/5.T1, dann ist T2 das Tempo.
Wenn T2 = 3/2.T1, dann ist T1 das Tempo.
Wenn T2 = 3/4.T1, dann ist T1 das Tempo.
Wenn T2 = 5/2.T1, dann ist T1 das Tempo.
Wenn T2 = 5/4.T1, dann ist T1 das Tempo.
Wenn T2 = 2/3.T1, dann ist T2 das Tempo.
Wenn T2 = 4/3.T1, dann ist T2 das Tempo.
Wenn T2 = 2/5.T1, dann ist T2 das Tempo.
Wenn T2 = 4/5.T1, dann ist T2 das Tempo.
Wenn T2 = 3/2.T1, dann ist T1 das Tempo.
Wenn T2 = 3/4.T1, dann ist T1 das Tempo.
Wenn T2 = 5/2.T1, dann ist T1 das Tempo.
Wenn T2 = 5/4.T1, dann ist T1 das Tempo.
Ein näherungsweiser Phasenwert P wird anhand einer der beiden
gefilterten einfachen Zeitintervalle Ti zwischen den Events
ermittelt, vorzugsweise anhand derjenigen Werte, die mit der
niedrigeren Frequenz F1 gefiltert sind. Diese dienen zur gro
ben Bestimmung der Frequenz des Referenz-Oszillators.
Die Darstellung nach Fig. 2 zeigt ein mögliches Blockschalt
bild zur sukzessiven Korrektur von ermitteltem Tempo A und
Phase P, im folgenden als "CLOCK CONTROL" bezeichnet.
Zunächst wird der Referenz-Oszillator bzw. die Referenz-Clock
MCLK in einem ersten Schritt 1 mit den groben Phasenwerten P
und Tempowerten A aus der Beat-Detection gestartet, was quasi
einem Reset des in Fig. 2 gezeigten Regelkreises gleichkommt.
Anschließend werden in einem weiteren Schritt 2 die Zeitin
tervalle zwischen Beat-Events des eingehenden Audiosignals
und der Referenz-Clock MCLK ermittelt. Dazu werden die nähe
rungsweisen Phasenwerte P mit einem Referenzsignal CLICK,
welches die Frequenz des Referenz-Oszillators MCLK aufweist,
in einem Komparator V verglichen.
Bei systematischem Überschreiten (+) einer "kritischen" Ab
weichung bei mehreren aufeinanderfolgenden Ereignissen mit
einem Wert von beispielsweise über 30 ms wird in einem weite
ren Verarbeitungsschritt 3 die Referenz-Clock MCLK durch eine
kurzzeitige Tempoänderung
A(i+1) = A(i) + q oder
A(i+1) = A(i) - q
entgegen der Abweichung (wieder) an das Audio-Signal ange passt, wobei q die verwendete Absenkung oder Anhebung des Tempos darstellt. Andernfalls (-) wird das Tempo konstant gehalten.
A(i+1) = A(i) + q oder
A(i+1) = A(i) - q
entgegen der Abweichung (wieder) an das Audio-Signal ange passt, wobei q die verwendete Absenkung oder Anhebung des Tempos darstellt. Andernfalls (-) wird das Tempo konstant gehalten.
Im weiteren Verlauf erfolgt in einem weiteren Schritt 4 eine
Summierung aller Korrektur-Ereignisse aus Schritt 3 und der
seit dem letzten "Reset" verstrichenen Zeit in eigenen Spei
chern (nicht gezeigt). Bei ungefähr jedem 5. bis 10. Ereignis
einer annähernd akkuraten Synchronisierung (Differenz zwi
schen den Audiodaten und der Referenz-Clock MCLK etwa unter
halb 5 ms) wird der Tempo-Wert auf der Basis des bisherigen
Tempo-Wertes, der bis dahin akkumulierten Korrektur-Ereig
nisse und der seit dem verstrichenen Zeit in einem weiteren
Schritt 5 wie folgt neu errechnet.
Mit
- - q als der in Schritt 3 verwendeten Absenkung oder Anhebung des Tempos (beispielsweise um den Wert 0.1),
- - dt als der Summe der Zeit, für welche das Tempo insgesamt abgesenkt oder angehoben wurde (Anhebung positiv, Absenkung negativ),
- - T als dem seit dem letzten Reset (Schritt 1) verstrichenen Zeitintervall, und
- - bpm als dem in Schritt 1 verwendeten Tempowert A
errechnet sich das neue, verbesserte Tempo nach folgender
einfachen Formel:
bpm_neu = bpm.(1+(q.dt)/T)
Weiter wird geprüft, ob die Korrekturen in Schritt 3 über ei
nen gewissen Zeitraum hinweg immer jeweils negativ oder posi
tiv sind. In solch einem Fall liegt wahrscheinlich eine Tem
po-Änderung im Audiomaterial vor, die mit obigem Verfahren
nicht korrigiert werden kann. Dieser Status wird erkannt und
bei Erreichen des nächsten annähernd perfekten Synchronisati
ons-Ereignisses (Schritt 5) werden der Zeit- und der Korrek
turspeicher in einem Schritt 6 gelöscht, um den Ausgangspunkt
in Phase und Tempo neu zu setzten. Nach diesem "Reset" be
ginnt die Prozedur erneut mit einem Aufsetzen auf Schritt 2
das Tempo zu optimieren.
Eine Synchronisierung eines zweiten Musikstückes erfolgt nun
durch Anpassung von dessen Tempo und Phase. Die Anpassung des
zweiten Musikstückes erfolgt indirekt über den Referenz-
Oszillator. Nach der oben beschriebenen näherungsweisen Tem
po- und Phasenermittlung des Musikstückes werden diese Werte
sukzessive nach obigem Verfahren an den Referenz-Oszillator
angepasst, nur wird diesmal die Abspielphase und die Abspiel
geschwindigkeit des Tracks selbst verändert. Das originale
Tempo des Tracks lässt sich rückwärts leicht aus der notwen
digen Veränderung seiner Abspielgeschwindigkeit gegenüber der
Original-Abspielgeschwindigkeit errechnen.
Im folgenden soll nun auf die bereits weiter vorne beschrie
bene Möglichkeit zum gleichzeitigen Abspielen von mehreren
Musikstücken auf einem Standard-CD-ROM-Laufwerk oder einer
anderen Datenquelle mit nur einer Leseeinheit eingegangen
werden. Damit schafft die vorliegende Erfindung die Möglich
keit einer zur Synchronisierung eines zweiten Musikstückes
erforderlichen Bereitstellung zweier oder mehrerer Musikstü
cke mit einer solchen Einheit in Echtzeit.
Stand der Technik ist das Abspielen eines Audio Titels von
CD-ROM mittels eines Computers (sogenanntes "grabben"), ver
gleichbar dem Abspielen eines Stückes auf einem herkömmlichen
CD-Player.
CD-ROM Laufwerke haben, genauso wie Audio-CD-Player, nur eine
Leseeinheit, können also zu einem gegebenen Zeitpunkt auch
nur an einer Stelle die Audio-Daten auslesen.
Zur Lösung wird ein von der Audioausgabe entkoppelter paral
leler Faden (Thread) als sogenannter Scheduler erzeugt, der
im Hintergrund die Anfragen der abzuspielenden Musikstücke
entgegennimmt und die benötigten Audio-Daten nachlädt.
Unter Multithreading versteht man dabei die Bezeichnung für
die Fähigkeit einer Software, bestimmte Funktionen einer An
wendung simultan ausführen zu können. Es laufen also nicht
mehrere Programme parallel auf einem digitalen Computer (Mul
titasking), sondern innerhalb eines Programms werden ver
schiedene Funktionen aus Sicht des Anwenders gleichzeitig
ausgeführt. Ein Thread stellt dabei die kleinste Einheit von
ausführbarem Programmcode dar, dem ein Teil des Betriebssys
tems (der Thread Scheduler) entsprechend einer bestimmten
Priorität Rechenzeit zuteilt. Die Koordinierung der einzelnen
Threads erfolgt durch Synchronisationsmechanismen, sog.
Locks, die für die Zusammenführung der einzelnen Threads sor
gen. Die Leseeinheit, hier der Laser des CD-ROM-Laufwerkes,
wird im Multiplex-Modus betrieben, um mittels Pufferspei
cherstragien und einer höheren Leserate die benötigten Daten
in Echtzeit zur Verfügung stellen zu können.
Die wesentliche technische Hürde, die dabei überwunden werden
muss ist, dass CD-ROM-Laufwerke, genauso wie Audio-CD-Player,
nur über eine Leseeinheit verfügen. Zu einem bestimmten Zeit
punkt können also nur die Daten für einen Track geliefert
werden.
Dieses Problem wird dadurch gelöst, dass für jeden abzuspie
lenden Track ein ausreichend dimensionierter Puffer einge
führt wird und die höhere Lesegeschwindigkeit des CD-ROM-
Laufwerkes dazu benutzt wird, die benötigten Daten für die
Puffer auszulesen. Diese Maßnahme fügt sich nahtlos in die
Umgebung des beschriebenen Musik-Abspielers ein. Für den An
wender ist das Abspielen von CD-Tracks transparent, erfolgt
also genauso, als ob die Daten in einem digitalen Format auf
einer Computer-Festplatte vorliegen würden. Durch das digita
le Auslesen der CD ist es möglich, die Audio-Daten durch Sig
nalverarbeitungsmittel wie Filter oder Audioeffekte zu schi
cken. Dies ermöglicht unter anderem das Rückwärtsabspielen,
Pitchen (Geschwindigkeits- und Tonhöhenänderung), Beatdetec
tion und Filtering von normalen Audio-CDs.
Die Darstellung nach Fig. 3 zeigt den prinzipiellen Aufbau ei
ner Struktur zum parallelen Auslesen eines CD-ROM-Laufwerks
gemäß der Erfindung. Der wesentliche Schritt besteht in der
Einführung eines Puffers P1. . .Pn (vorzugsweise eines Ringpuf
fers) für jeden abzuspielenden Audio-Track TR1. . .TRn. Hier
werden die Audio-Daten so zwischengepuffert, dass ausgehend
vom jeweiligen Datenanfang S1. . .Sn im Fall von Ringpufern
zeitlich jeweils vor und nach der jeweiligen aktuellen Ab
spielposition A1. . .An noch Daten bereit stehen. Ein Überwa
chungsmechanismus hält diese Invariante immer ein, indem der
Zustand des jeweiligen Puffers P1. . .Pn dahingehend überprüft
wird, wie viele Daten noch vorhanden sind. Wird ein Schwell
wert unterschritten (z. B. stehen nach der aktuellen Abspiel
position weniger als n Sekunden Audio-Daten zur Verfügung),
so wird eine Anfrage an eine zentrale Instanz S gestellt,
neue Audio-Daten nachzuladen.
Diese zentrale Instanz, im weiteren auch als Scheduler S be
zeichnet, läuft entkoppelt vom eigentlichen Abspielen der Au
diotracks TR1. . .TRn in einem eigenen Thread und bringt die
von verschiedenen Tracks unter Umständen parallel eintreffen
den Anfragen in eine sequentiell abzuarbeitende Reihenfolge.
Der Scheduler S schickt nun seinerseits die Anfragen nach ei
nem Ausschnitt eines Tracks an das CD-ROM-Laufwerk CD-ROM.
Dieses liest die angeforderten Sektoren von einem Datenträger
mit den entsprechenden digitalen Audiodaten aus. Der Schedu
ler S füllt dann den entsprechenden Puffer P. . .Pn mit diesen
erhaltenen Daten auf, wobei nicht mehr benötigte Daten über
schrieben werden.
Zum Abspielen von vorproduzierter Musik werden herkömmlicher
weise verschiedenartige Geräte für verschiedene Speicherme
dien wie Schallplatte, Compakt Disk oder Cassette verwendet.
Diese Formate wurden nicht dafür entwickelt, in den Abspiel
prozess einzugreifen, um die Musik damit auf kreative Art zu
bearbeiten. Diese Möglichkeit ist aber wünschenswert, und
wird heutzutage trotz der gegebenen Einschränkungen von den
genannten DJ's praktiziert. Dabei werden bevorzugt Vinyl-
Schallplatten verwendet, weil man dort am leichtesten mit der
Hand die Abspielgeschwindigkeit und -position beeinflussen
kann.
Heute werden aber überwiegend digitale Formate wie Audio CD
und MP3 zum Speichern von Musik verwendet. Bei MP3 handelt es
sich um ein Kompressionsverfahren für digitale Audiodaten
nach dem MPEG-Standard (MPEG 1 Layer 3). Das Verfahren ist
asymmetrisch, d. h. die Codierung ist sehr viel aufwendiger
als die Decodierung. Ferner handelt es sich um ein verlustbe
haftetes Verfahren. Die vorliegende Erfindung ermöglicht nun
den genannten kreativen Umgang mit Musik auf beliebigen digi
talen Formaten durch einen geeigneten interaktiven Musik-
Abspieler, der von den durch die vorangehend dargestellten
erfindungsgemäßen Maßnahmen geschaffenen neuen Möglichkeiten
Gebrauch macht.
Um gezielt Eingreifen zu können, ist es wichtig, eine grafi
sche Repräsentation der Musik zu haben, in der man die aktu
elle Abspielposition erkennt und auch einen gewissen Zeitraum
in der Zukunft und in der Vergangenheit erkennt. Dazu stellt
man üblicherweise die Amplitudenhüllkurve der Klangwellenform
über einen Zeitraum von mehreren Sekunden vor und nach der
Abspielposition dar. Die Darstellung verschiebt sich in Echt
zeit in der Geschwindigkeit, in der die Musik spielt.
Prinzipiell möchte man möglichst viel hilfreiche Information
in der grafischen Darstellung haben, um gezielt eingreifen zu
können. Außerdem möchte man möglichst ergonomisch in den Ab
spielvorgang eingreifen können, auf vergleichbare Art zum so
genannten "Scratching" auf Vinylplattenspielern, worunter man
das Anhalten und vorwärts oder rückwärts Bewegen des Platten
tellers während der Wiedergabe versteht.
Bei dem durch die Erfindung geschaffenen interaktiven Musik-
Abspieler können nun musikalisch relevante Zeitpunkte, insbe
sondere die Taktschläge, mit der vorangehend (Fig. 1 und Fig.
2) erläuterten Takterkennungsfunktion aus dem Audiosignal
extrahiert und als Markierungen in der grafischen Darstellung
angezeigt werden, z. B. auf einem Display oder auf einem Bild
schirm eines digitalen Computers, auf dem der Musik-Abspieler
durch eine geeignete Programmierung realisiert ist.
Weiter ist ein Hardware-Steuerelement R1 vorgesehen, z. B. ein
Knopf, insbesondere der Mausknopf, mit dem man zwischen zwei
Betriebsarten umschaltet:
- a) Musik läuft frei, mit konstantem Tempo,
- b) Abspielposition und -geschwindigkeit wird vom Anwender di rekt beeinflusst.
Der Modus a) entspricht einer Vinylplatte, die man nicht an
fasst und deren Geschwindigkeit gleich der des Plattentellers
ist. Der Modus b) hingegen entspricht einer Vinylplatte, die
man mit der Hand anhält und hin- und herschiebt.
In einer vorteilhaften Ausführungsform eines interaktiven Mu
sik-Abspielers wird die Abspielgeschwindigkeit in Modus a)
weiter beeinflusst durch die automatische Steuerung zur Syn
chronisierung des Takts der abgespielten Musik zu einem ande
ren Takt (vgl. Fig. 1 und Fig. 2). Der andere Takt kann synthe
tisch erzeugt oder von einer anderen gleichzeitig spielenden
Musik gegeben sein.
Außerdem ist ein weiteres Hardware-Steuerelement R2 vorgese
hen, mit dem man im Betriebsmodus b) quasi die Plattenpositi
on bestimmt. Dies kann ein kontinuierlicher Regler, oder auch
die Computermaus sein.
Die Darstellung nach Fig. 4 zeigt ein Blockschaltbild einer
solchen Anordnung mit den im folgenden erläuterten Signalver
arbeitungsmitteln, mit denen ein interaktiver Musik-Abspieler
gemäß der Erfindung mit Eingriffsmöglichkeit in eine aktuelle
Abspielposition geschaffen wird.
Die mit diesem weiteren Steuerelement R2 vorgegebenen Positi
onsdaten haben üblicherweise eine begrenzte zeitliche Auflö
sung, d. h. es wird nur in regelmäßigen oder unregelmäßigen
Abständen eine Nachricht geschickt, die die aktuelle Position
übermittelt. Die Abspielposition des gespeicherten Audiosig
nals soll sich aber gleichmäßig ändern, mit einer zeitlichen
Auflösung, die der Audio-Abtastrate entspricht. Deshalb ver
wendet die Erfindung an dieser Stelle eine Glättungsfunktion,
die aus dem mit dem Steuerelement R2 vorgegebenen stufigen
Signal ein hochaufgelöstes, gleichmäßig sich änderndes Signal
erzeugt.
Eine Methode hierzu besteht darin, mit jeder vorgegebenen Po
sitionsnachricht eine Rampe mit konstanter Steigung auszulö
sen, die in einer vorgegebenen Zeit das geglättete Signal von
seinem alten Wert auf den Wert der Positionsnachricht fährt.
Eine weitere Möglichkeit ist, die stufige Wellenform in einen
linearen digitalen Tiefpaß-Filter LP zu schicken, dessen Aus
gang das gewünschte geglättete Signal darstellt. Dafür eignet
sich besonders ein 2-Pol Resonanzfilter. Eine Kombination
(Reihenschaltung) der beiden Glättungen ist auch möglich und
vorteilhaft und ermöglicht folgende vorteilhafte Signalverar
beitungskette:
vorgegebenes Stufensignal → Rampenglättung → Tiefpassfilter → exakte Abspielposition oder
vorgegebenes Stufensignal → Tiefpassfilter → Rampenglättung → exakte Abspielposition
vorgegebenes Stufensignal → Rampenglättung → Tiefpassfilter → exakte Abspielposition oder
vorgegebenes Stufensignal → Tiefpassfilter → Rampenglättung → exakte Abspielposition
Das Blockschaltbild nach Fig. 4 veranschaulicht die an einem
vorteilhaften Ausführungsbeispiel in Form einer Prinzipskiz
ze. Das Steuerelement R1 (hier ein Taster) dient zum Wechsel
der Betriebsmodi a) und b), indem dieser einen Schalter SW1
triggert. Der Regler R2 (hier ein kontinuierlicher Schiebe
regler) liefert die Positionsinformation mit zeitlich be
grenzter Auflösung. Diese dient einem Tiefpaß-Filter LP zur
Glättung als Eingangssignal. Das geglättete Positionssignal
wird nun differenziert (DIFF) und liefert die Abspielge
schwindigkeit. Der Schalter SW1 wird mit diesem Signal an ei
nem ersten Eingang IN1 angesteuert (Modus b). Der andere Ein
gang IN2 wird mit dem Tempowert A, der wie in Fig. 1 und Fig. 2
beschrieben ermittelt werden kann, beaufschlagt (Modus a).
Über das Steuerelement R1 erfolgt der Wechsel zwischen den
Eingangssignalen.
Wenn man vom einen in den anderen Modus wechselt (entspricht
dem Festhalten und Loslassen des Plattentellers), darf die
Position nicht springen. Aus diesem Grund übernimmt der vor
geschlagene interaktive Musik-Abspieler die im vorhergehenden
Modus erreichte Position als Ausgangsposition im neuen Modus.
Ebenso soll die Abspielgeschwindigkeit (1. Ableitung der Po
sition) sich nicht Sprunghaft ändern. Deswegen übernimmt man
auch die aktuelle Geschwindigkeit und führt sie durch eine
Glättungsfunktion, wie oben beschrieben, zu der Geschwindig
keit, die dem neuen Modus entspricht. Nach Fig. 4 erfolgt dies
durch einen Slew Limiter SL, der eine Rampe mit konstanter
Steigung auslöst, die in einer vorgegebenen Zeit das Signal
von seinem alten Wert auf den neuen Wert fährt. Dieses posi
tions- bzw. geschwindigkeitsabhängige Signal steuert dann die
eigentliche Abspieleinheit PLAY zur Wiedergabe des Audi
otracks an, indem es die Abspielgeschwindigkeit beeinflusst.
Beim "Scratching" mit Vinyl-Platten, also dem Abspielen mit
sich stark und schnell ändernder Geschwindigkeit, ändert sich
die Tonwellenform auf charakteristische Art, aufgrund der Ei
genheiten des Aufzeichnungsverfahrens, das standardmäßig für
Schallplatten verwendet wird. Beim Erstellen des Press-
Masters für die Schallplatte im Aufnahmestudio durchläuft das
Tonsignal ein Pre-Emphase-Filter (Vorverzerrungs-Filter) nach
RIAA-Norm, der die Höhen anhebt (sogenannte "Schneidekennli
nie"). In jeder Anlage, die zum Abspielen von Schallplatten
verwendet wird, befindet sich ein entsprechendes De-Emphase-
Filter (Rückentzerrungs-Filter), das die Wirkung umkehrt, so
dass man näherungsweise das ursprüngliche Signal erhält.
Wenn nun aber die Abspielgeschwindigkeit nicht mehr dieselbe
ist, wie bei der Aufnahme, was u. a. beim "Scratching" auf
tritt, so werden alle Frequenzanteile des Signals auf der
Schallplatte entsprechend verschoben und deswegen vom De-
Emphase-Filter unterschiedlich bedämpft. Dadurch ergibt sich
ein charakteristischer Klang.
Nach einer weiteren vorteilhaften Ausgestaltung eines erfin
dungsgemäßen interaktiven Musik-Abspielers nach der Erfindung
mit einem Aufbau entsprechend Fig. 4 ist ein Scratch-Audio-
Filter zur Simulation des beschriebenen charakteristischen
Effekts vorgesehen. Dazu wird, insbesondere für eine digitale
Simulation dieses Vorgangs, das Audiosignal innerhalb der Ab
spieleinheit PLAY aus Fig. 4 einer weiteren Signalverarbeitung
unterzogen, wie diese in Fig. 5 dargestellt ist. Dazu wird das
Audiosignal, nachdem die digitalen Audiodaten des wiederzuge
benden Musikstücks von einem Medium D bzw. Tonträger (z. B. CD
oder MP3) gelesen und (vor allem im Fall des MP3-Formats) de
kodiert DEC wurde, einer entsprechenden Pre-Emphase-Filterung
PEF unterzogen. Das so vorgefilterte Signal wird dann in ei
nem Pufferspeicher B abgelegt, aus dem es in einer weiteren
Verarbeitungseinheit R je nach Betriebsmodus a) oder b), wie
in Fig. 4 beschrieben, entsprechend dem Ausgangssignal von SL
mit variierender Geschwindigkeit ausgelesen wird. Das ausge
lesene Signal wird dann mit einem De-Emphase-Filter DEF be
handelt und dann wiedergegeben (AUDIO_OUT).
Für das Pre- und De-Emphase Filter PEF und DEF, die den glei
chen Frequenzgang wie in der RIAA-Norm festgelegt haben soll
ten, verwendet man günstigerweise jeweils ein digitales IIR-
Filter 2. Ordnung, d. h. mit zwei günstig gewählten Polstellen
und zwei günstig gewählten Nullstellen. Wenn die Polstellen
des einen Filters gleich den Nullstellen des anderen Filters
sind, heben sich, wie gewünscht, die beiden Filter in ihrer
Wirkung genau auf, wenn das Audiosignal mit Originalgeschwin
digkeit abgespielt wird. In allen anderen Fällen erzeugen die
genannten Filter den charakteristischen Toneffekt beim
"Scratching". Selbstverständlich kann das beschriebene
Scratch-Audio-Filter auch im Zusammenhang mit beliebigen an
deren Arten von Musik-Abspielgeräten mit "Scratching"-
Funktion eingesetzt werden.
In Kombination mit dem vorgeschlagenen CD-Grabbing-Verfahren
ergibt sich unter anderem auch die vorteilhafte Möglichkeit,
ein und denselben Titel zweimal in den interaktiven Musik-
Abspieler zu laden und über das Automix-Verfahren mit sich
selbst zu mischen bzw. zu "remixen" oder als Ein-Song-Dauer-
Mix laufen zu lassen, ohne jemals aus dem Takt zu kommen.
Sehr kurze Titel können dadurch vom DJ beliebig verlängert
werden.
Das Tempo eines Mix kann darüber hinaus über eine gezielte
Frequenzänderung an der Master-Clock MCLK (dem Referenz-
Oszillator aus Fig. 2) allmählich im Verlauf eines mehrstündi
gen Sets automatisch angehoben oder abgesenkt werden, um ge
zielte Effekte der Steigerung oder der Beruhigung beim Publi
kum zu erzeugen.
Wie bereits eingangs erwähnt, werden herkömmlicherweise beim
Mischen mehrerer Musikstücke die Audioquellen von Tonträgern
auf mehreren Abspielgeräten abgespielt und über ein Mischpult
abgemischt. Bei dieser Vorgehensweise beschränkt sich eine
Audioaufnahme auf eine Aufzeichnung des Endresultats. Eine
Reproduktion des Mischvorganges oder ein Aufsetzen zu einem
späteren Zeitpunkt exakt an einer vorgebbaren Position inner
halb eines Musikstückes ist damit nicht möglich.
Genau dies erreicht nun die vorliegende Erfindung, indem ein
Dateiformat für digitale Steuerinformationen vorgeschlagen
wird, welches die Möglichkeit biete, den Vorgang des interak
tiven Mischens und eine eventuelle Effektbearbeitung von Au
dioquellen aufzuzeichnen und akkurat wiederzugeben. Dies ist
insbesondere mit einem wie vorangehend beschriebenen Musik-
Abspieler möglich.
Die Aufzeichnung gliedert sich in eine Beschreibung der ver
wendeten Audioquellen und einen zeitlichen Ablauf von Steuer
informationen des Mischvorgangs und zusätzlicher Effektbear
beitung.
Es werden nur die Information über den eigentlichen Mischvor
gang und über die Ursprungsaudioquellen benötigt, um das Re
sultat des Mischvorgangs wiederzugeben. Die eigentlichen di
gitalen Audiodaten werden extern zur Verfügung gestellt. Dies
vermeidet urheberrechtlich problematische Kopiervorgänge von
geschützten Musikstücken. Es können durch das Abspeichern von
digitalen Steuerinformationen somit Mischvorgänge von mehre
ren Audiostücken im Hinblick auf Abspielpositionen, Synchro
nisationsinformationen, Echtzeiteingriffe mit Audio-Signal
verarbeitungsmitteln etc. als ein Mix der Audioquellen und
deren Effektbearbeitung als neues Gesamtwerk mit vergleichs
weise langer Abspieldauer realisiert werden.
Dies bietet den Vorteil, dass die Beschreibung der Bearbei
tung der Audioquellen im Vergleich zu den erzeugten Audioda
ten des Mischvorgangs gering sind, der Mischvorgang an belie
bigen Stellen editiert und wiederaufgesetzt werden kann. Au
ßerdem können vorhandene Audiostücke in verschiedenen Zusam
menfassungen oder als längere zusammenhängende Interpretatio
nen wiedergegeben werden.
Mit bisherigen Tonträgern und Musik-Abspielgeräten war es
hingegen nicht möglich, die Interaktion eines Anwenders auf
zuzeichnen und wiederzugeben, da den bekannten Abspielgeräten
die technischen Voraussetzungen fehlen, diese genau genug zu
steuern. Dies wird erst durch die vorliegende Erfindung er
möglicht, indem mehrere digitale Audioquellen wiedergegeben
und deren Abspielpositionen bestimmt und gesteuert werden
können. Dadurch wird es möglich, den gesamten Vorgang digital
zu verarbeiten und entsprechende Steuerdaten in einer Datei
zu speichern. Diese digitalen Steuerinformationen werden vor
zugsweise in einer Auflösung abgelegt, die der Abtastrate der
verarbeiteten digitalen Audiodaten entspricht.
Die Aufzeichnung gliedert sich im wesentlichen in 2 Teile:
- - eine Liste der verwendeten Audioquellen z. B. digitale Auf gezeichnete Audiodaten in komprimierter und unkomprimierter Form wie z. B. WAV, MPEG, ATFF und digitale Tonträger wie etwa eine Compact Disk und
- - den zeitlichen Ablauf der Steuerinformation.
Die Liste der Verwendeten Audioquellen enthält u. a.:
- - Informationen zur Identifizierung der Audioquelle
- - zusätzlich berechnete Information, die Charakteristiken der Audioquelle beschreibt (z. B. Abspiellänge und Tempoinformati onen)
- - beschreibende Information zur Herkunft und Urheberinforma tion der Audioquelle (z. B. Künstler, Album, Verlag etc.)
- - Metainformation, z. B. Zusatzinformation die über den Hin tergrund der Audioquelle informiert (z. B. Musikgenre, Infor mation zum Künstler und Verlag)
Die Steuerinformation speichert u. a.:
- - die zeitliche Abfolge von Steuerdaten
- - die zeitliche Abfolge von exakten Abspielpositionen in der Audioquelle
- - Intervalle mit kompletter Zustandsinformation aller Stell glieder, um als Wiederaufsetzpunkte der Wiedergabe zu dienen
Im Folgenden ist ein mögliches Beispiel der Verwaltung der
Liste von Audiostücken in einer Ausprägung des XML Formats
dargestellt. Dabei steht XML als Abkürzung für Extensible
Markup Language. Dies ist eine Bezeichnung für eine Metaspra
che zur Beschreibung von Seiten im WWW (World Wide Web). Da
bei ist es im Gegensatz zu HTML (Hypertext Markup Language)
möglich, dass der Autor eines XML-Dokumentes im Dokument
selbst bestimmte Erweiterungen von XML im Document-Type-
Definition-Teil des Dokumentes definiert und im gleichen Do
kument auch nutzt.
< ?xml version = "1.0" encoding = "ISO-8859-1"?<
<MJL VERSION = "Versions Beschreibung"<
<HEAD PROGRAM = "Programmname" COMPANY = "Firmenname"/<
<MIX TITLE = "Titel des Mixes"<
<LOCATION FILE = "Kennung der Steuerinformationsdatei" PATH = "Speicherort der Steuerinformationsdatei"/<
<COMMENT< Kommentare und Bemerkungen zum Mix</COMMENT<
</MIX<
<PLAYLIST<
<ENTRY TITLE = "Titel Eintrag 1" ARTIST = "Name des Autors" ID = "Kennung des Titels"<
<LOCATION FILE = "Kennung der Audioquelle" PATH = "Speicherort der Audioquelle" VOLUME = "Speichermedium der Datei"/<
<ALBUM TITLE = "Name des zugehörigen Albums" TRACK = "Kennung des Tracks auf Album"/<
<INFO PLAYTIME = "Abspieldauer in Sekunden" GENRE_ID = "Musik Genre-Kennung"/<
<TEMPO BPM = "Abspieltempo in BPM" BPM_QUALITY = "Güte des Tempo werts aus der Analyse"/<
<CUE POINT1 = "Lage des 1. Markierungspunkts" . . . POINTn = "Lage des n. Markierungspunkts"/<
<FADE TIME = "Überblendzeit" MODE = "Überblendmodus"<
<COMMENT<Kommentare und Bemerkungen zum Audiostück<
<IMAGE FILE = "Kennung einer Bilddatei als zusätzliche Kommen tarmöglichkeit"/<
<REFERENCE URL = "Kennung für weiterführende Informationen zur Audioquelle"/<
</COMMENT<
</ENTRY<
. . .
<ENTRY . . .<
. . .
</ENTRY<
</PLAYLIST<
</MJL<
< ?xml version = "1.0" encoding = "ISO-8859-1"?<
<MJL VERSION = "Versions Beschreibung"<
<HEAD PROGRAM = "Programmname" COMPANY = "Firmenname"/<
<MIX TITLE = "Titel des Mixes"<
<LOCATION FILE = "Kennung der Steuerinformationsdatei" PATH = "Speicherort der Steuerinformationsdatei"/<
<COMMENT< Kommentare und Bemerkungen zum Mix</COMMENT<
</MIX<
<PLAYLIST<
<ENTRY TITLE = "Titel Eintrag 1" ARTIST = "Name des Autors" ID = "Kennung des Titels"<
<LOCATION FILE = "Kennung der Audioquelle" PATH = "Speicherort der Audioquelle" VOLUME = "Speichermedium der Datei"/<
<ALBUM TITLE = "Name des zugehörigen Albums" TRACK = "Kennung des Tracks auf Album"/<
<INFO PLAYTIME = "Abspieldauer in Sekunden" GENRE_ID = "Musik Genre-Kennung"/<
<TEMPO BPM = "Abspieltempo in BPM" BPM_QUALITY = "Güte des Tempo werts aus der Analyse"/<
<CUE POINT1 = "Lage des 1. Markierungspunkts" . . . POINTn = "Lage des n. Markierungspunkts"/<
<FADE TIME = "Überblendzeit" MODE = "Überblendmodus"<
<COMMENT<Kommentare und Bemerkungen zum Audiostück<
<IMAGE FILE = "Kennung einer Bilddatei als zusätzliche Kommen tarmöglichkeit"/<
<REFERENCE URL = "Kennung für weiterführende Informationen zur Audioquelle"/<
</COMMENT<
</ENTRY<
. . .
<ENTRY . . .<
. . .
</ENTRY<
</PLAYLIST<
</MJL<
Die Steuerinformationsdaten, referenziert durch die Liste von
Audiostücken, werden vorzugsweise im Binärformat gespeichert.
Der prinzipielle Aufbau der abgespeicherten Steuerinformatio
nen in einer Datei lässt sich beispielhaft wie folgt be
schreiben:
Mit [Kennung des Controllers] ist ein Wert bezeichnet, der
ein Steuerglied (z. B. Lautstärke, Geschwindigkeit, Position)
des interaktiven Musik-Abspielers identifiziert. Solchen
Steuergliedern können mehrere Unterkanäle [Controller Kanal],
z. B. Nummer des Abspielmoduls, zugeordnet sein. Ein eindeuti
ger Steuerpunkt M wird durch [Kennung des Controllers],
[Controller Kanal] adressiert.
Als Resultat entsteht eine digitale Aufzeichnung des Misch
vorgangs, der gespeichert, nicht-destruktiv im Bezug auf das
Audiomaterial reproduziert, vervielfältigt und übertragen
werden kann, z. B. über das Internet.
Eine vorteilhafte Ausführung mit solchen Steuerdateien stellt
ein Datenträger D dar, wie dieser anhand von Fig. 6 veran
schaulicht ist. Dieser weist eine Kombination einer normalen
Audio-CD mit digitalen Audiodaten AUDIO_DATA eines ersten Da
tenbereichs D1 mit einem auf einem weiteren Datenteil D2 der
CD untergebrachten Programm PRG_DATA zum Abspielen solcher
ebenfalls vorhandener Mixdateien MIX_DATA auf, die unmittel
bar auf die auf der CD abgelegten Audio-Daten AUDIO_DATA
zugreifen. Dabei muss die Abspiel- bzw. Mix-Applikation
PRG_DATA nicht zwingend Bestandteil eines solchen Datenträ
gers sein. Auch eine Kombination aus einem ersten Datenbe
reich D1 mit digitalen Audioinformationen AUDIO_DATA und ei
nem zweiten Datenbereich mit einer oder mehreren Dateien mit
den genannten digitalen Steuerdaten MIX_DATA ist vorteilhaft,
denn ein solcher Datenträger beinhaltet in Verbindung mit ei
nem Musik-Abspieler der Erfindung alle erforderlichen Infor
mationen zur Reproduktion eines zu einem früheren Zeitpunkt
erstellten neuen Gesamtwerkes aus den vorhandenen digitalen
Audioquellen.
Besonders vorteilhaft jedoch lässt sich die Erfindung auf ei
nem geeignet programmierten digitalen Computer mit entspre
chenden Audio-Schnittstellen realisieren, indem ein Software
programm die im vorangehenden dargestellten Verfahrensschrit
te auf dem Computersystem durchführt (z. B. die Abspiel- bzw.
Mix-Applikation PRG_DATA). Der beschriebene Datenträger in
Verbindung mit dem auf einem Standard-CD-Rom-Laufwerk durch
geführten vorteilhaften CD-Grabbing-Verfahren ermöglicht dann
die komplette Funktionalität der Erfindung.
Alle in der vorstehenden Beschreibung erwähnten bzw. in den
Figuren dargestellten Merkmale sollen, sofern der bekannte
Stand der Technik dies zulässt, für sich allein oder in Kom
bination als unter die Erfindung fallend angesehen werden.
Die vorangehende Beschreibung bevorzugter Ausführungsformen
nach der Erfindung ist zum Zwecke der Veranschaulichung ange
geben. Diese Ausführungsbeispiele sind nicht erschöpfend.
Auch ist die Erfindung nicht auf die genaue angegebene Form
beschränkt, sondern es sind zahlreiche Modifikationen und Än
derungen im Rahmen der vorstehend angegebenen technischen
Lehre möglich. Eine bevorzugte Ausführungsform wurde gewählt
und beschrieben, um die prinzipiellen Details der Erfindung
und praktische Anwendungen zu verdeutlichen, um den Fachmann
in die Lage zu versetzen, die Erfindung zu realisieren. Eine
Vielzahl bevorzugter Ausführungsformen sowie weitere Modifi
kationen kommen bei speziellen Anwendungsgebieten in Be
tracht.
Claims (10)
1. Verfahren zur Bereitstellung digitaler Audiodaten mindes
tens zweier Musikstücke von einer Datenquelle (CD-ROM) mit
nur einer Leseeinheit in Echtzeit, insbesondere zu deren
Synchronisierung nach DE 101 01 473.2, wobei die Daten
quelle Audiodaten mit einer im Vergleich zu deren Abspiel
geschwindigkeit höheren Lesegeschwindigkeit liefert, indem
für jedes wiederzugebende Musikstück (TR1. . .TRn) ein je
weiliger Puffer-Speicher (P1. . .Pn), insbesondere Ringpuf
fer-Speicher, vorgesehen ist, und die höhere Lesegeschwin
digkeit dazu genutzt wird, die jeweiligen Pufferspeicher
(P1. . .Pn) derart mit zugehörigen Audiodaten zu füllen,
dass stets zeitlich vor und nach einer aktuellen Abspiel
position (A1. . .An) des jeweiligen Musikstückes (TR1. . .TRn)
Audiodaten bereitstehen.
2. Verfahren zur Bereitstellung digitaler Audiodaten nach An
spruch 1, wobei der Zustand jedes Puffer-Speichers
(P1. . .Pn) dahingehend überwacht wird, ob ausreichend Daten
bereitstehen, und bei Unterschreiten eines vorgebbaren
Schwellwertes eine von der Wiedergabe der Musikstücke
(TR1. . .TRn) entkoppelte zentrale Instanz (S) mit der
Bereitstellung der erforderlichen Audiodaten beauftragt
wird, die selbsttätig die erforderlichen Bereiche von Au
diodaten von der Datenquelle (CD-ROM) anfordert und den
zugehörigen Puffer-Speicher (P1. . .Pn) mit den erhaltenen
Daten auffüllt.
3. Verfahren zur Bereitstellung digitaler Audiodaten nach An
spruch 2, wobei beim Auffüllen eines Puffer-Speichers
(P1. . .Pn) nicht mehr benötigte Daten überschrieben werden.
4. Verfahren zur Bereitstellung digitaler Audiodaten nach An
spruch 2 oder 3, wobei die zentrale Instanz (S) parallel
eintreffende Anforderungen in eine sequentiell abzuarbei
tende Reihenfolge bringt.
5. Interaktiver Musik-Abspieler, insbesondere nach DE 101 01
473.2, dem ein nach einem der vorangehenden Ansprüche 1
bis 4 betriebenes CD-ROM-Laufwerk (CD-ROM) als Datenquelle
der Musikstücke (TR1. . .TRn) dient.
6. Computerprogrammprodukt, das direkt in den internen Spei
cher eines digitalen Computers geladen werden kann und
Softwareabschnitte umfasst, mit denen die Verfahrens
schritte gemäß einem der Ansprüche 1 bis 4 ausgeführt wer
den, wenn das Programmprodukt auf einem Computer ausge
führt wird.
7. Datenträger (D), insbesondere Compact Disc, der
- - einen ersten Datenbereich (D1) mit digitalen Audiodaten (AUDIO_DATA) eines oder mehrerer Musikstücke (TR1. . .TRn) und
- - einen zweiten Datenbereich (D2) mit einer Steuerdatei (MIX_DATA) mit digitalen Steuerinformationen zur Ansteue rung eines Musik-Abspielers umfasst, insbesondere eines solchen nach Anspruch 4, wobei
- - die Steuerdaten (MIX_DATA) des zweiten Datenbereichs (D2) auf Audiodaten (AUDIO_DATA) des ersten Datenbereichs (D1) Bezug nehmen.
8. Datenträger (D) nach Anspruch 7, wobei die digitalen Steu
erinformationen (MIX_DATA) des zweiten Datenbereichs (D2)
Mischvorgänge von Musikstücken und/oder interaktive Ein
griffe in Musikstücke mit Audiosignalverarbeitungsmitteln
als ein neues Gesamtwerk der digitalen Audioinformationen
(AUDIO_DATA) von Musikstücken des ersten Datenbereichs
(D1) repräsentieren.
9. Datenträger (D) nach Anspruch 7 oder 8, wobei gespeicherte
digitale Steuerinformationen (MIX_DATA) des zweiten Daten
bereichs (D2) ein Format aufweisen, das Informationen zur
Identifikation der verarbeiteten Musikstücke (TR1. . .TRn)
des ersten Datenbereichs (D1) und eine jeweilige diesen
zugeordnete zeitliche Abfolge von Abspielpositionen und
Zustandsinformationen der Stellglieder des Musik-
Abspielers umfasst.
10. Computerprogrammprodukt (PRG_DATA), das auf einem Daten
träger (D) nach einem der Ansprüche 7 bis 9 angeordnet ist
und direkt in den internen Speicher eines digitalen Compu
ters geladen werden kann und Softwareabschnitte umfasst,
mit denen dieser digitale Computer die Funktion eines Mu
sik-Abspielers übernimmt, insbesondere eines solchen nach
DE 101 01 473.2 oder Anspruch 5, mit dem entsprechend den
Steuerdaten (MIX_DATA) des zweiten Datenbereichs (D2) des
Datenträgers (D), die auf Audiodaten (AUDIO_DATA) des ers
ten Datenbereichs (D1) des Datenträgers (D) verweisen, ein
durch die Steuerdaten (MIX_DATA) repräsentiertes Gesamt
werk abspielbar ist, wenn das Programmprodukt (PRG_DATA)
auf einem Computer ausgeführt wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001101473 DE10101473B4 (de) | 2001-01-13 | 2001-01-13 | Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001101473 DE10101473B4 (de) | 2001-01-13 | 2001-01-13 | Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10164686A1 true DE10164686A1 (de) | 2002-09-19 |
DE10164686B4 DE10164686B4 (de) | 2007-05-31 |
Family
ID=7670543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10164686A Expired - Lifetime DE10164686B4 (de) | 2001-01-13 | 2001-01-13 | Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler |
Country Status (6)
Country | Link |
---|---|
US (2) | US7615702B2 (de) |
EP (1) | EP1380026A2 (de) |
JP (1) | JP2004527786A (de) |
AU (1) | AU2002244636A1 (de) |
DE (1) | DE10164686B4 (de) |
WO (1) | WO2002056292A2 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005049485A1 (de) * | 2005-10-13 | 2007-04-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Steuerung der Wiedergabe von Audioinformationen |
DE102005036286B4 (de) * | 2005-08-02 | 2010-01-21 | Continental Automotive Gmbh | Verfahren zur Bestimmung der Wiedergabezeit komprimierter Audiodaten |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL1014526C2 (nl) | 2000-02-29 | 2001-08-30 | N2It Dev B V I O | Schijf te gebruiken in een inrichting voor signaalbewerking, alsmede een dergelijke inrichting. |
DE10164686B4 (de) * | 2001-01-13 | 2007-05-31 | Native Instruments Software Synthesis Gmbh | Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler |
US7041892B2 (en) * | 2001-06-18 | 2006-05-09 | Native Instruments Software Synthesis Gmbh | Automatic generation of musical scratching effects |
US8077568B2 (en) * | 2002-11-12 | 2011-12-13 | Spencer Charles A | Method and system for synchronizing information specific to a location on a surface with an external source |
GB0230097D0 (en) * | 2002-12-24 | 2003-01-29 | Koninkl Philips Electronics Nv | Method and system for augmenting an audio signal |
JP3982443B2 (ja) * | 2003-03-31 | 2007-09-26 | ソニー株式会社 | テンポ解析装置およびテンポ解析方法 |
US20040254660A1 (en) * | 2003-05-28 | 2004-12-16 | Alan Seefeldt | Method and device to process digital media streams |
US8645336B2 (en) * | 2003-11-07 | 2014-02-04 | Magnaforte, Llc | Digital interactive phrasing system and method |
JP4650662B2 (ja) * | 2004-03-23 | 2011-03-16 | ソニー株式会社 | 信号処理装置および信号処理方法、プログラム、並びに記録媒体 |
US7358432B2 (en) * | 2004-04-28 | 2008-04-15 | Steven George Risley | Method and apparatus for teaching rhythm |
KR20060073100A (ko) * | 2004-12-24 | 2006-06-28 | 삼성전자주식회사 | 특정 패턴 타입의 음원 미디어를 검색하는 음원 검색기 및그 동작방법 |
WO2006104163A1 (ja) * | 2005-03-28 | 2006-10-05 | Pioneer Corporation | オーディオ信号再生装置 |
WO2007000866A1 (ja) * | 2005-06-28 | 2007-01-04 | Pioneer Corporation | ジョッキー再生装置 |
US20090223352A1 (en) * | 2005-07-01 | 2009-09-10 | Pioneer Corporation | Computer program, information reproducing device, and method |
JP4940588B2 (ja) * | 2005-07-27 | 2012-05-30 | ソニー株式会社 | ビート抽出装置および方法、音楽同期画像表示装置および方法、テンポ値検出装置および方法、リズムトラッキング装置および方法、音楽同期表示装置および方法 |
US7518053B1 (en) * | 2005-09-01 | 2009-04-14 | Texas Instruments Incorporated | Beat matching for portable audio |
KR101215937B1 (ko) * | 2006-02-07 | 2012-12-27 | 엘지전자 주식회사 | IOI 카운트(inter onset intervalcount) 기반 템포 추정 방법 및 이를 위한 템포 추정장치 |
US7645929B2 (en) * | 2006-09-11 | 2010-01-12 | Hewlett-Packard Development Company, L.P. | Computational music-tempo estimation |
CN102610222B (zh) * | 2007-02-01 | 2014-08-20 | 缪斯亚米有限公司 | 音乐转录的方法,系统和装置 |
US7888582B2 (en) * | 2007-02-08 | 2011-02-15 | Kaleidescape, Inc. | Sound sequences with transitions and playlists |
WO2008101126A1 (en) | 2007-02-14 | 2008-08-21 | Museami, Inc. | Web portal for distributed audio file editing |
JP4311466B2 (ja) * | 2007-03-28 | 2009-08-12 | ヤマハ株式会社 | 演奏装置およびその制御方法を実現するプログラム |
US7956274B2 (en) * | 2007-03-28 | 2011-06-07 | Yamaha Corporation | Performance apparatus and storage medium therefor |
GB2450894C (en) * | 2007-07-10 | 2017-03-22 | Genie Care | Apparatus for lifting and supporting the lower leg and foot of a patient |
US7985915B2 (en) * | 2007-08-13 | 2011-07-26 | Sanyo Electric Co., Ltd. | Musical piece matching judging device, musical piece recording device, musical piece matching judging method, musical piece recording method, musical piece matching judging program, and musical piece recording program |
US8269093B2 (en) * | 2007-08-21 | 2012-09-18 | Apple Inc. | Method for creating a beat-synchronized media mix |
US8173883B2 (en) * | 2007-10-24 | 2012-05-08 | Funk Machine Inc. | Personalized music remixing |
US8426715B2 (en) * | 2007-12-17 | 2013-04-23 | Microsoft Corporation | Client-side audio signal mixing on low computational power player using beat metadata |
WO2009103023A2 (en) * | 2008-02-13 | 2009-08-20 | Museami, Inc. | Music score deconstruction |
WO2009125489A1 (ja) * | 2008-04-11 | 2009-10-15 | パイオニア株式会社 | テンポ検出装置及びテンポ検出プログラム |
WO2010104226A1 (ko) * | 2009-03-13 | 2010-09-16 | 포항공과대학교 산학협력단 | 진동 저작 도구와 진동 저작 방법 및 이를 수록한 저장매체 |
US8515092B2 (en) | 2009-12-18 | 2013-08-20 | Mattel, Inc. | Interactive toy for audio output |
US9640216B2 (en) * | 2010-07-14 | 2017-05-02 | Pioneer Dj Corporation | Reproduction system for maintaining synchronization between a first audio content and a plurality of audio contents during special reproduction of the first audio content, and method and program thereof |
US8185079B2 (en) * | 2010-08-12 | 2012-05-22 | General Electric Company | Frequency estimation immune to FM clicks |
JP5500058B2 (ja) * | 2010-12-07 | 2014-05-21 | 株式会社Jvcケンウッド | 曲順決定装置、曲順決定方法、および曲順決定プログラム |
US8809663B2 (en) * | 2011-01-06 | 2014-08-19 | Hank Risan | Synthetic simulation of a media recording |
US9070352B1 (en) * | 2011-10-25 | 2015-06-30 | Mixwolf LLC | System and method for mixing song data using measure groupings |
US20130123961A1 (en) * | 2011-11-11 | 2013-05-16 | Numark Industries, Lp | Disc jockey controller for a handheld computing device |
JP5935503B2 (ja) * | 2012-05-18 | 2016-06-15 | ヤマハ株式会社 | 楽曲解析装置および楽曲解析方法 |
US9264840B2 (en) * | 2012-05-24 | 2016-02-16 | International Business Machines Corporation | Multi-dimensional audio transformations and crossfading |
JP6191459B2 (ja) * | 2012-06-26 | 2017-09-06 | ヤマハ株式会社 | オーディオ波形データを使用する自動演奏技術 |
JP6143444B2 (ja) * | 2012-12-03 | 2017-06-07 | 株式会社サクラクレパス | 過酸化水素ガス検知用インキ組成物、過酸化水素ガス検知インジケーター、過酸化水素ガス滅菌用包装体、及び過酸化水素ガス滅菌処理方法 |
EP2765573B1 (de) * | 2013-02-08 | 2016-08-03 | Native Instruments GmbH | Geste zwecks DJ Scratch Effect und Stellungserfassung auf einem Berührungsbildschirm, der duale gezoomte Zeitlinie anzeigt. |
US8729375B1 (en) * | 2013-06-24 | 2014-05-20 | Synth Table Partners | Platter based electronic musical instrument |
US10366121B2 (en) * | 2016-06-24 | 2019-07-30 | Mixed In Key Llc | Apparatus, method, and computer-readable medium for cue point generation |
WO2018016637A1 (ja) * | 2016-07-22 | 2018-01-25 | ヤマハ株式会社 | 制御方法、及び、制御装置 |
JP6252642B1 (ja) * | 2016-09-27 | 2017-12-27 | カシオ計算機株式会社 | 効果付与装置、効果付与方法、プログラムおよび電子楽器 |
GB201620838D0 (en) | 2016-12-07 | 2017-01-18 | Weav Music Ltd | Audio playback |
US10460709B2 (en) | 2017-06-26 | 2019-10-29 | The Intellectual Property Network, Inc. | Enhanced system, method, and devices for utilizing inaudible tones with music |
US11030983B2 (en) | 2017-06-26 | 2021-06-08 | Adio, Llc | Enhanced system, method, and devices for communicating inaudible tones associated with audio files |
US10593313B1 (en) | 2019-02-14 | 2020-03-17 | Peter Bacigalupo | Platter based electronic musical instrument |
FR3095070B1 (fr) * | 2019-04-15 | 2021-04-16 | Pa Cotte Sa | Système d’émission d’un effet sonore |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59207076A (ja) * | 1983-05-10 | 1984-11-24 | Naoyuki Murakami | 音楽再生装置 |
JPH0467470A (ja) * | 1990-07-06 | 1992-03-03 | Pioneer Electron Corp | 情報記憶装置及び情報再生装置 |
JP3245890B2 (ja) * | 1991-06-27 | 2002-01-15 | カシオ計算機株式会社 | 拍検出装置及びそれを用いた同期制御装置 |
JP2734909B2 (ja) | 1992-10-12 | 1998-04-02 | ヤマハ株式会社 | 波形データ読み出し装置 |
US5793739A (en) | 1994-07-15 | 1998-08-11 | Yamaha Corporation | Disk recording and sound reproducing device using pitch change and timing adjustment |
KR0135839B1 (ko) * | 1994-08-30 | 1998-05-15 | 김광호 | 영상노래반주용 기록매체 및 재생장치 |
AU6356996A (en) | 1995-06-20 | 1997-01-22 | Andre Rickli | Digital processing device for audio signal |
NL1000731C1 (nl) | 1995-07-05 | 1997-01-08 | Henk Schaake | Muziekweergave-stuurinrichting. |
KR0171851B1 (ko) * | 1995-09-29 | 1999-03-30 | 김광호 | 반도체 메모리 카드를 이용한 다중음향 재생장치 및 방법 |
US5804749A (en) * | 1995-12-28 | 1998-09-08 | Yamaha Corporation | Sound source chip having variable clock to optimize external memory access |
US5869783A (en) | 1997-06-25 | 1999-02-09 | Industrial Technology Research Institute | Method and apparatus for interactive music accompaniment |
US6782299B1 (en) * | 1998-02-09 | 2004-08-24 | Sony Corporation | Method and apparatus for digital signal processing, method and apparatus for generating control data, and medium for recording program |
JP3451192B2 (ja) | 1998-03-20 | 2003-09-29 | パイオニア株式会社 | 楽曲再生装置、楽曲再生方法および楽曲記録媒体 |
US6441290B2 (en) * | 2000-02-01 | 2002-08-27 | Yamaha Corporation | Apparatus and method for reproducing or recording, via buffer memory, sample data supplied from storage device |
JP2002124022A (ja) * | 2000-10-18 | 2002-04-26 | Yamaha Corp | オーディオデータ記録再生装置 |
DE10164686B4 (de) * | 2001-01-13 | 2007-05-31 | Native Instruments Software Synthesis Gmbh | Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler |
US7041892B2 (en) * | 2001-06-18 | 2006-05-09 | Native Instruments Software Synthesis Gmbh | Automatic generation of musical scratching effects |
US7732697B1 (en) * | 2001-11-06 | 2010-06-08 | Wieder James W | Creating music and sound that varies from playback to playback |
US6683241B2 (en) * | 2001-11-06 | 2004-01-27 | James W. Wieder | Pseudo-live music audio and sound |
US20090223352A1 (en) * | 2005-07-01 | 2009-09-10 | Pioneer Corporation | Computer program, information reproducing device, and method |
WO2007066818A1 (ja) * | 2005-12-09 | 2007-06-14 | Sony Corporation | 音楽編集装置及び音楽編集方法 |
JP5007563B2 (ja) * | 2006-12-28 | 2012-08-22 | ソニー株式会社 | 音楽編集装置および方法、並びに、プログラム |
-
2001
- 2001-01-13 DE DE10164686A patent/DE10164686B4/de not_active Expired - Lifetime
-
2002
- 2002-01-07 AU AU2002244636A patent/AU2002244636A1/en not_active Abandoned
- 2002-01-07 WO PCT/EP2002/000074 patent/WO2002056292A2/de active Application Filing
- 2002-01-07 JP JP2002556874A patent/JP2004527786A/ja active Pending
- 2002-01-07 EP EP02712804A patent/EP1380026A2/de not_active Withdrawn
- 2002-01-07 US US10/251,000 patent/US7615702B2/en active Active
-
2009
- 2009-09-24 US US12/565,766 patent/US8680388B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005036286B4 (de) * | 2005-08-02 | 2010-01-21 | Continental Automotive Gmbh | Verfahren zur Bestimmung der Wiedergabezeit komprimierter Audiodaten |
DE102005049485A1 (de) * | 2005-10-13 | 2007-04-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Steuerung der Wiedergabe von Audioinformationen |
DE102005049485B4 (de) * | 2005-10-13 | 2007-10-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Steuerung der Wiedergabe von Audioinformationen |
Also Published As
Publication number | Publication date |
---|---|
US20100011941A1 (en) | 2010-01-21 |
AU2002244636A1 (en) | 2002-07-24 |
US20040069123A1 (en) | 2004-04-15 |
WO2002056292A3 (de) | 2003-11-13 |
US7615702B2 (en) | 2009-11-10 |
JP2004527786A (ja) | 2004-09-09 |
DE10164686B4 (de) | 2007-05-31 |
WO2002056292A2 (de) | 2002-07-18 |
US8680388B2 (en) | 2014-03-25 |
EP1380026A2 (de) | 2004-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10164686A1 (de) | Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler | |
EP1415297B1 (de) | Automatische erzeugung von musikalischen sratch-effekten | |
DE69623318T2 (de) | Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken | |
DE69930787T2 (de) | Multimedia-System und Verfahren für die automatische Selektion einer Szene | |
DE69720706T2 (de) | Interaktives system zur synchronisierung und zum simultanen spielen von vorbestimmten musiksequenzen | |
DE69727002T2 (de) | Aufzeichnungsschnitt | |
DE69032365T2 (de) | Vorrichtung zur Wiedergabe von Begleitungsmusik | |
DE69804518T2 (de) | Vorrichtung und Verfahren zur Erzeugung von Tönen durch Zeitstrecken- und Kompressionstechnik | |
DE69810685T2 (de) | Karaoke System | |
DE69422910T2 (de) | Zeitabhängige scriptfolgen | |
DE102007034774A1 (de) | Vorrichtung zur Bestimmung von Akkordnamen und Programm zur Bestimmung von Akkordnamen | |
DE69723003T2 (de) | Verfahren zur datenverschachtelung für die kontinuierliche wiedergabe von mehreren programmversionen mit demselben material | |
DE202014100553U1 (de) | Gerät zur Wiedergabesteuerung von digitalen Multimediadaten sowieein entsprechendes computerlesbares Speichermedium | |
DE69611874T2 (de) | Verfahren und Vorrichtung zur Musiktonerzeugung | |
DE69718209T2 (de) | System und verfahren zum generieren fraktioneller längenaufschublinien in einem digitalen signalverarbeitungssystem | |
DE69921048T2 (de) | Vorrichtung zum automatischen Vortrag mit veränderlichen Arpeggiothema | |
DE112019006852T5 (de) | Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und datenverarbeitungsprogramm | |
DE69029319T2 (de) | Verfahren und Gerät zur Synchronisation einer Vielzahl von CD-Spielern | |
DE10101473A1 (de) | Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler | |
DE19603276A1 (de) | Schnittstelle zur Anwendungsprogrammierung für einen digitalen Diskrekorder | |
DE3905623C2 (de) | Vorrichtung zum Editieren von PCM-Signalen | |
DE10153673B4 (de) | Automatische Erzeugung von musikalischen Scratch-Effekten | |
DE4190031B4 (de) | Datenverdichtung von ausschwingenden Musikinstrumententönen für ein digitales Abtastungssystem | |
DE19843705A1 (de) | Editieren digitalisierter Audio/Videodaten über ein Netzwerk | |
DE69226720T2 (de) | Digitales Aufzeichnungsgerät |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AC | Divided out of |
Ref document number: 10101473 Country of ref document: DE |
|
AC | Divided out of |
Ref document number: 10101473 Country of ref document: DE |
|
OP8 | Request for examination as to paragraph 44 patent law | ||
AC | Divided out of |
Ref document number: 10101473 Country of ref document: DE Kind code of ref document: P |
|
AC | Divided out of |
Ref document number: 10101473 Country of ref document: DE Kind code of ref document: P |
|
8364 | No opposition during term of opposition | ||
R071 | Expiry of right |