[go: up one dir, main page]

DE69623318T2 - Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken - Google Patents

Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken Download PDF

Info

Publication number
DE69623318T2
DE69623318T2 DE69623318T DE69623318T DE69623318T2 DE 69623318 T2 DE69623318 T2 DE 69623318T2 DE 69623318 T DE69623318 T DE 69623318T DE 69623318 T DE69623318 T DE 69623318T DE 69623318 T2 DE69623318 T2 DE 69623318T2
Authority
DE
Germany
Prior art keywords
music
sequences
musical
tracks
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69623318T
Other languages
English (en)
Other versions
DE69623318D1 (de
Inventor
Joseph S Gershen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Callahan Cellular LLC
Original Assignee
Gershen Joseph S Santa Monica
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gershen Joseph S Santa Monica filed Critical Gershen Joseph S Santa Monica
Publication of DE69623318D1 publication Critical patent/DE69623318D1/de
Application granted granted Critical
Publication of DE69623318T2 publication Critical patent/DE69623318T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/086Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for transcription of raw audio or music data to a displayed or printed staff representation or to displayable MIDI-like note-oriented data, e.g. in pianoroll format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/151Music Composition or musical creation; Tools or processes therefor using templates, i.e. incomplete musical sections, as a basis for composing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/381Manual tempo setting or adjustment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S715/00Data processing: presentation processing of document, operator interface processing, and screen saver display processing
    • Y10S715/961Operator interface with visual structure or function dictated by intended use

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

  • Diese Erfindung bezieht sich auf das Gebiet der interaktiven Computertechnologie und insbesondere auf eine Anwendung der Computertechnologie auf das Problem des interaktiven Arrangierens zuvor aufgezeichneter Musikkompositionen.
  • Musikwerke, ob in analoger oder digitaler Form, wurden herkömmlicherweise an Verbraucher in relativ nicht-interaktiven Formen verkauft. Beispielsweise gestatten es eine Compact Disc oder eine Audiokassette, die eine zuvor aufgezeichnete Musikdarbietung enthalten, einem Benutzer, eine genaue Wiedergabe der ursprünglichen Musikdarbietung zu hören und zu genießen. Jedoch wird von dem Benutzer nicht erwartet oder dieser dazu ermutigt, daß er die zugrundeliegende Musik physisch ändert.
  • Das soll nicht heißen, daß niemals zuvor eine Endbenutzer-Interaktion mit Musik möglich war. Tatsächlich gestatteten es CD-Player und auch Audiokassettenwiedergabegeräte herkömmlicherweise den Benutzern, die Lautstärke oder gar die Frequenzentzerrung der aufgezeichneten Musik einzustelen; aufgezeichnete Musik zurückzuspulen, schnell vorwärts laufenzulassen und in ihr zu springen; und die Wiedergabereihenfolge mehrerer Musikstücke neu zu ordnen. Jedoch wurden im Stand der Technik Endbenutzern grundsätzlich keine bequemen Möglichkeiten zur Verfügung gestellt, die ihm ermöglichen, ein Musikstück in Teilsegmente zu zerlegen und diese Teile zu einem neuen Musikstück in einer musikalisch sinnvollen Weise neu zu arrangieren.
  • In jüngster Zeit wurden eine Reihe von vorgeblich „interaktiven" Musiktiteln für den sprießenden Multimediamarkt geschaffen, aber diese Titel gehen typischerweise nicht dar über hinaus, graphische Liner-Notizen, Anmerkungen und Kommentare dem zugrundeliegenden Musikvortrag hinzuzufügen. Mit anderen Worden, durch Eingabe interaktiver Eingaben, wie beispielsweise über eine Maus oder eine andere Cursorsteuereinrichtung, sind Benutzer dieser bekannten Titel in der Lage, zugehörige Musiktexte, Notenblätter oder sogar Videohintergrundmaterial über den aufzeichnenden Künstler anzuzeigen, und dies alles, während sie die darunterliegende zuvor aufgezeichnete Komposition hören. Einige Titel gestatten es ferner den Benutzern, die Lautstärke oder Klangeinstellung der Bestandteile eines gegebenen Werks einzustellen. Jedoch wurden im Stand der Technik den Benutzern keine geeigneten Möglichkeiten gegeben, die es den Benutzern gestatten, die Komponenten zuvor aufgezeichneter Musikkompositionen zu zergliedern und dynamisch neu zusammenzusetzen und dadurch interaktiv ihre eigenen neuen Arrangements derartiger Kompositionen zu schaffen.
  • Am anderen Ende des Spektrums sind verschiedene hochwertige Werkzeuge vorhanden, welche dem professionellen Aufzeichnungsingenieur gestatten, zuvor aufgezeichnete Musik digital zu verarbeiten, zu manipulieren und zu modifizieren. Derartige Ausrüstungen jedoch schaffen jedoch keine sinnvollen strukturellen Einschränkungen des Grades der musikalischen Verarbeitung und Modifikation, die ausgeführt werden können. Mit anderen Worten, eine derartige Ausrüstung bietet zu viel Freiheitsgrade und Komplexität und keine ausreichende Struktur und Orientierung für weniger qualifizierte Endbenutzer.
  • Andere komplexe Systeme befaßten sich mit der allgemeinen Darstellung von Musikstrukturen in Formen, die für weniger qualifizierte Benutzer nicht sinnvoll wären. In der W0 90/03629 ist ein Verfahren zum Darstellen von Musikinformationen beschrieben. Dieses sorgt für eine Auftrennung der Musikinformationen in Abschnitte eines Maßes (z. B. einer Note, eine Pause oder eines Akkords) und in Kanäle, die ei nen Klangdimensionswert aufweisen. Diese Informationen werden dann in einem programmierbaren Datenprozessor gespeichert, indem die Musikinformationen, die einer Note, einer Pause oder einem Akkord entsprechen, einem Speicherarrayknoten zugeordnet werden, der durch die dem Kanal und Segment zugewiesenen Zeitdimensions- und Klangdimensionswert spezifiziert wird. Kurz gesagt, gewünscht ist eine strukturierte Vorgehensweise und Architektur, die Endbenutzern mit unterschiedlichem Grad der musikalischen Qualifikation die lohnende Erfahrung des Zergliederns und Erforschens zuvor aufgezeichneter Musikwerke und des interaktiven Konstruierens neuer, zugeschnittener Arrangements dieser Werke geben.
  • Die vorliegende Erfindung schafft Verfahren und Einrich- tungen zum interaktiven Erzeugen neuer Arrangements für zuvor aufgezeichnete Musikwerke, wie sie in den beigefügten Ansprüchen definiert sind.
  • Ein Musikwerk oder Musikstück wird auf einem digitalen Medium (wie beispielsweise einer CD-ROM-Kompakt Disk) in Form einer digitalen Datenbank gespeichert, die eine Mehrzahl fester Musiksequenzen, die zusammen das Musikwerk bilden, und eine Schablone, die eine Mehrzahl fest vorgegebener Sequenzpositionen für Arrangements des Musikwerks spezifiziert, aufweist. Jede Sequenzposition in der Schablone kann eine einzelne Spur (Track) in einem Mehr-Spur-Musikarrangement repräsentieren, welche dem Vortrag einer Instrumentalgruppe oder einem Musiksolo beispielweise entspricht. Die verschiedenen Spuren (Tracks) eines Mehrspurarrangements sollen gleichzeitig, d. h. parallel wiedergegeben werden. Darüber hinaus können einige der Sequenzpositionen Teilseg- mente einer Einzelspur repräsentieren, die seriell wiedergegeben werden sollen.
  • Dieses digitale Medium wird als Eingabe einem digitalen Prozessorsystem zur Verfügung gestellt, wie es hier beschrieben wird. Ein Benutzer wählt dann interaktiv eine Mehrzahl der festen Musiksequenzen in gewünschter Weise aus und weist interaktiv die ausgewählten Sequenzen den verschiedenen festen Sequenzpositionen, die durch die Schablone definiert sind, zu. Die interaktive Auswahl wird vorzugsweise unter Verwendung einer menügesteuerten graphischen Benutzeroberfläche ausgeführt. Die ausgewählten Musiksequenzen werden dann in Übereinstimmung mit dem Zuweisungsschema des Benutzers kombiniert, womit ein neues Arrangement des Musikwerks geschaffen wird.
  • Bei einem weiteren Aspekt entsprechen die verschiedenen Musiksequenzen vorzugsweise dem Vortrag des Musikwerks in besonderen Musikstilen und durch verschiedene Instrumentengruppen. Es wird außerdem eine bevorzugte Struktur und Größe für diejenigen Musiksequenzen offenbart, die Teilsegmente darstellen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 veranschaulicht eine bevorzugte Systemarchitektur in Übersichtsform gemäß der vorliegenden Erfindung. 2 veranschaulicht eine repräsentative Architektur für ein Musikwerk gemäß der vorliegenden Erfindung.
  • 3 veranschaulicht eine repräsentative Architektur für eine Musikdatenbank gemäß der vorliegenden Erfindung.
  • 4 veranschaulicht ein Ablaufdiagramm für eine Grundvorgehensweise gemäß der vorliegenden Erfindung.
  • 5 veranschaulicht eine graphische Benutzeroberfläche zum Auswählen eines Stils eines Begleitensembles.
  • 6a veranschaulicht eine graphische Benutzeroberfläche zum Auswählen einer Version einer Spur für jede Gruppe von verschiedenen Instrumentengruppen innerhalb des Beleitensembles.
  • 7a veranschaulicht eine graphische Benutzeroberfläche zum Auswählen eines Arrangements der Solosegmente.
  • 7b veranschaulicht eine Anzeige, die sich aus dem Auswählen eines Soloarrangements ergibt.
  • 8 veranschaulicht eine graphische Benutzeroberfläche zum Aufrufen zusätzlicher Merkmale eines bevorzugten Ausführungsbeispiels der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • 1 zeigt die allgemeine Architektur eines digitalen prozessor-basierten Systems zum Ausführen der vorliegenden Erfindung. Prozessor 100 ist vorzugsweise ein Mikroprozessor eines Standard-Digitalcomputers, wie beispielsweise eine CPU der Intel-x86-Serie, der Motorola-PowerPC-Serie oder der Motorola-68000-Serie. Der Prozessor 100 arbeitet Systemsoftware 120 ab (wie beispielsweise das Apple Macintosh 0S, Microsoft Windows oder ein anderes graphisch orientiertes Betriebssystem für Personalcomputer), welches auf einer Speichereinheit 110 gespeichert ist, beispielsweise einem internen Standardfestplattenlaufwerk. Eine Musikkompositionssoftware 130, die ebenfalls auf der Speichereinheit 110 gespeichert ist, hält Computerprogrammcode für die nachfolgend beschriebenen Verarbeitungsschritte, einschließlich des Bereitstellens graphischer Benutzerschnittstellen (GUIs) und des Zugreifens und Zusammensetzens digitaler Musikspuren und -segmente in Abhängigkeit von, interaktiven Benutzerauswahlen. Der Prozessor 100 ist ferner mit einem Standard-CD-ROM-Laufwerk 140 zum Aufnehmen einer Compact Disc 150 gekoppelt, welche die Musikdatenbank und Schabloneninformationen ent hält, die unten detaillierter beschrieben sind. Die Benutzer verwenden eine Standardpersonalcomputertastatur 160 und – cursorsteuereinrichtung 165 (zum Beispiel eine Maus oder einen Trackball), um die nachfolgend erörterten GUI-Eingabekommandos einzugeben, welche dann an den Prozessor 100 übermittelt werden. Die Anzeigeausgabe, die die unten erörterte GUI-Ausgabe einschließt, wird von dem Prozessor 100 an den Videomonitor 170 zur Anzeige an die Benutzer übermittelt. Musikwerke, wie sie von dem Prozessor 100 unter Steuerung, der Kompositionssoftware 130 und auf der Grundlage der Daten des Digitalmediums 150 arrangiert werden, werden an die Soundkarte 180, vorzugsweise eine Standardpersonalcomputersoundkarte, übermittelt und anschließend an Lautsprecher zur Wiedergabe ausgegeben.
  • Bei dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung besteht eine Musikkomposition, wie sie in 2 veranschaulicht ist, aus einer Ensemblebegleitung 200 und einer parallelen Solospur 240 von kürzerer Dauer (bei dem bevorzugten Ausführungsbeispiel 8 Musiktakte lang). Diese Struktur soll der tatsächlichen Struktur der Musikkomposition bei vielen klassischen und populären Genres entsprechen, welche Solosegmente und Begleitungen einschließt, die in ein einzelnes Musikwerk aufgenommen sind.
  • Die Ensemblebegleitung 200 besteht bei dem bevorzugten Ausführungsbeispiel ferner aus zwei oder mehr Einzelinstrumentspuren. In 2 sind diese durch 210 (Begleitspur 1), 220 (Begleitspur 2) und 230 (Begleitspur 3) dargestellt. Gemäß der vorliegenden Erfindung kann der Benutzer interaktiv aus einer Mehrzahl von Einzelinstrumentabschnitten auswählen, die zu einer Ensemblebegleitung zusammengesetzt werden sollen, indem Benutzerauswahlen als Begleitspuren 1, 2 und 3 in den mit 210, 220 und 230 in 2 markierten Schablonenräumen kombiniert werden, wie es unten näher beschrieben wird.
  • Die Solospur 240 besteht ferner aus vier 2-Musiktakte-Segmenten 242, 244, 246 und 248, die hintereinander angeordnet sind. Es ist sofort klar, daß die Segmente 242, 244, 246 und 248 von irgendeiner gleichen Länge sein können, wobei die Länge ungefähr natürlichen Musiksätzen oder -takten entspricht. Gemäß der vorliegenden Erfindung kann der Benutzer interaktiv aus einer Mehrzahl von 2-Takt-Soloinstrument- oder Vokal-Abschnitten auswählen, um die Einzelheiten 242, 244, 246 und 248 in einer abweichenden seriellen Reihenfolge neu zusammenzusetzen, so daß sie eine neue Solospur 240 bil det, welche der Digitalcomputer gleichzeitig mit der Ensemblebegleitung 200 wiedergibt.
  • Die Solospur 240, die Ensemblebegleitung 200, die Ensemblespuren 210, 220 und 230 und die Solosegmente 242, 244, 246 und 248 müssen von einer speziellen Dauer sein, um den Musikrhythmus zu bewahren. Verfahren des Erzeugens digital codierter Klänge spezieller Dauer, so daß diese Klänge zuverlässig in einer rhythmisch korrekten Weise neu zusammengesetzt werden können, sind für Fachleute gut bekannt. Der SMPTE-Zeitcode ist ein Beispiel eines solchen üblicherweise verwendeten Verfahrens.
  • Der Benutzer wählt interaktiv aus einer in 3 veranschaulichten Musikdatenbank aus, wenn er verschiedene Musikelemente wählt, um die Musikkompositionsstruktur, die in 2 veranschaulicht ist, zu bilden. Bei dem bevorzugten Ausführungsbeispiel besteht die Musikdatenbank aus einer Mehrzahl von zuvor ausgewählten Ensemblebegleitabschnitten 300, 310 und 320. Jede Ensemblebegleitung ist zuvor von einem professionellen Musiker komponiert worden und gehört zu einem bestimmten Musikstil, so wie beispielsweise die Ensemblebegleitung 300 dem Stil 1 angehört, die Ensemblebegleitung 310 dem Stil 2 angehört und die Ensemblebegleitung 320 dem Stil 3 angehört. Jede Ensemblebegleitung wiederum besteht aus drei oder mehr Instrumentalteilen; Beispielsweise Klavier (Segmente 302, 312 und 322), Schlagzeug (Segmente 304, 314 und 324) und Bass (Segmente 306, 316 und 326). Bei dem bevorzugten Ausführungsbeispiel kann der Benutzer interaktiv ein Klaviersegment 302, 312 oder 322, ein Schlagzeugsegment 304, 314 oder 324 und ein Basssegment 306, 316 oder 326 auswählen, so daß jede Ensemblebegleitung ( 2, Abschnitt 200) zusammengesetzt wird, indem der Benutzer diese Auswahlen für sämtliche oder einige dieser drei Instrumente vornimmt.
  • Die Musikdatenbank besteht bei dem bevorzugten Ausführungsbeispiel ferner aus vier verschiedenen Solospurversio nen, aus welchen der Benutzer 2-Takte-Blöcke auswählen kann, um sie für die Solospur in Serie zusammenzusetzen, wie es als Block 240 in 2 dargestellt ist. Bei dem bevorzugten Ausführungsbeispiel besteht jede der vier Solospurversionen 330, 340, 350 und 360 in der Musikdatenbank aus einem von einem einzelnen Ausführenden auf einem einzigen Instrument gespielten Musiksolo. Jede Solospurversion wiederum besteht aus vier 2-Musiktakt-Segmenten, die seriell zusammengesetzt sind, so daß die Solospurversion A 330 aus den 2-Mu- siktakt-Blöcken 332, 334, 336 und 338 besteht, die Solospurversion B 340 aus den 2-Musiktakt-Blöcken 342, 344, 346 und 348 besteht, die Solospurversion C 350 aus den 2-Musiktakt-Blöcken 352, 354, 356 und 358 besteht und die Solospur D 360 aus den 2-Musiktakt-Blöcken 362, 364, 366 und 368 besteht. Die vorliegende Erfindung ermöglicht es dem Benutzer, interaktiv aus einem beliebigen der sechzehn 2-Musiktakt-Segmenten, die sämtliche vier der Soloversionen umfassen, auszuwählen, wenn die eigene Solospur des Benutzers zusammengesetzt wird, wie es im Block 240 der 2. dargestellt ist.
  • Das Zusammensetzen von Elementen aus der Musikdatenbank, die in 3. dargestellt ist, zu der in 2 dargestellten Musikkompositionsarchitektur folgt den in 4 veranschaulichten Schritten.
  • Die oben beschriebene Musikdatenbank wird definiert, gespeichert und einer Speichereinrichtung eingegeben, welche bei dem bevorzugten Ausführungsbeispiel die Compact Disc 150 ist. Wie zuvor beschrieben, gestattet es die vorliegende Erfindung dem Endbenutzer der Compact Disc 150, interaktiv Elemente aus der zuvor ausgewählten, auf der Compact Disc 150 gespeicherten Musikdatenbank auszuwählen und diese Auswahlen interaktiv zu der in 2 veranschaulichten Musikkompositionsarchitektur zusammenzusetzen. 4 ist ein Ablaufdiagramm, das die Grundschritte dieses Prozesses zeigt. Am Schritt 400 definiert ein Musikexperte Abschnitte einer zuvor aufgezeichneten Musikdarbietung und unterteilt sie in die Ensemblebegleitspuren und Solospuren, wie es oben erörtert wurde. Beim Schritt 410 werden diese Definitionsinformationen in die Datenbank eingegeben und auf der Compact Disc 150 zur Verwendung durch den Endbenutzer aufgezeichnet (wie beispielsweise auf eine CD-ROM oder einen Internet-Server). Die Schritte 420, 420 und 440 veranschaulichen den „Nur-Lese-Zugriff" des Endbenutzers auf die zuvor definierte Musikdatenbank. Beim Schritt 420 gestattet es die vorliegende Erfindung den Endbenutzern, interaktiv Begleitspuren auszuwählen, die den Abschnitt der Ensemblebegleitung 200 der Musikkomposition bilden. Beim Schritt 430 gestattet es die vorliegende Erfindung dem Endbenutzer, interaktiv die Solosegmente 242, 244, 246 und 248 auszuwählen. Beim Schritt 440 gestattet die vorliegende Erfindung es dem Endbenutzer, interaktiv eine serielle Sequenz für die im Schritt 430 ausgewählten Solosegmente auszuwählen.
  • Beim Schritt 450 kombiniert die vorliegende Erfindung unter Verwendung eines Zeitcodes, der der Datenbank beim Schritt 410 eingegeben worden ist, die Begleitspuren 210, 220 und 230 in die Ensemblebegleitung 200 und die Solosegmente 242, 244, 246 und 248 in die von dem Endbenutzer ausgewählte Sequenz, die die Solospur 240 bilden soll. Die Zeitcodekennzeichnung kann gemäß dem SMPTE oder anderen gut bekannten Verfahren ausgeführt werden. Bei 460 gibt die,vorliegende Erfindung das vom Benutzer definierte Musikarrangement an die Computersoundkarte und die Lautsprecher aus.
  • Die große Vielfalt verschiedener Musikvariationen, die gemäß der vorliegenden Erfindung gewonnen werden können, verdient es erwähnt zu werden. 1.769.472 verschiedene Musikkompositionen können auf der Grundlage der lediglich 21 Musikkomponenten, die bei dem bevorzugten Ausführungsbeispiel enthalten sind, zusammengesetzt werden. Es sind für jedes der drei Instrumente, die zum Bilden der Ensemblebegleitung verwendet werden, drei Stile verfügbare, was 27 (3 × 3 × 3 = 27) mögliche Kompositionen der Ensemblebegleitung 200 er gibt. Sechzehn einzelne Solosegmente sind für jedes der Solosegmente 242, 244, 246 und 248 verfügbar, um 65.536 mögli – che Kompositionen der Solospur 240 zu. bilden. Insgesamt gibt es siebenundzwanzig Ensemblebegleitungen, welche mit einer beliebigen der 65.536 Solospuren kombiniert werden können, was 1.769.472 verschiedene Musikkompositionen ergibt, welche Endbenutzer bei Verwendung des bevorzugten Ausführungsbeispiels der vorliegenden Erfindung erzeugen können.
  • 5 ist eine beispielhafte Benutzeroberfläche, aus welcher heraus der Endbenutzer interaktiv Stile für Ensemblebegleitungen gemäß der vorliegenden Erfindung auswählen kann. Block 540 zeigt den Titel der Gesamtmusikkomposition an. 550 zeigt die Auswahlmöglichkeiten für einen Benutzer der Ensemblebegleitstile an. Bei dieser Darstellung kann der Benutzer zwischen einem Fusion-Stil-Icon 560, einem Bebop-Stil-Icon 570 oder einem Latin-Stil-Icon 580 auswählen. Wenn der Benutzer auf das Fusion-Stil-Icon 560 bei dieser Darstellung klickt, so hört er die Fusion-Stil-Ensemblebegleitung über die Soundkarte 180 und die Lautsprecher 190 abgespielt. Wenn der Benutzer auf das Bebop-Stil-Icon 570 bei dieser Darstellung klickt, so hört er das Abspielen der Bebop-Stii-Ensemblebegleitung über die Soundkarte 180. und die Lautsprecher 190. Wenn der Benutzer auf das Latin-Stil-Icon 580 bei dieser Darstellung klickt, so hört er die Wiedergabe der Latin-Stil-Ensemblebegleitung über die Soundkarte 180 und die Lautsprecher 190. Darüber hinaus veranschaulichen bei dieser Darstellung die Blöcke 510, 520 und 530 die Identität der die Solosegmente darbietenden Solokünstler.
  • Bei dem bevorzugten Ausführungsbeispiel kann der Benutzer interaktiv drei Instrumentalspuren auswählen, die die Ensemblebegleitung bilden: Klavier, Schlagzeug und Bass. 6a veranschaulicht eine graphische Benutzeroberfläche, die es dem Benutzer ermöglicht, den gewünschten Musikstil für jede der drei Instrumentbegleitspuren innerhalb der En semblebegleitung auszuwählen. Für jedes Instrument (Bass, Schlagzeug und Klavier) kann der Benutzer aus einem der drei Stile auswählen: ein Latin-Icon 610, ein Bebop-Icon 620 oder eine Fusion-Icon 630. Durch Klicken auf das zugehörige Bild kann der Benutzer interaktiv eine Schlagzeugversion (612, 524 und 632), eine Bassversion (614, 622 und 636) und eine Klavierversion (616, 626 und 634) auswählen, Bei der vorliegenden Veranschaulichung erscheint die Schlagzeugauswahl des Benutzer in einem Jukebox-Icon 650, die Bassauswahl in einem. Jukebox-Icon 660 und die Klavierauswahl des Benutzers in einem Jukebox-Icon 680.
  • Spur 7a veranschaulicht einen Bildschirm, der es Benutzern gestattet, die vier 2-Musik-Takt-Segmente auszuwählen, die die 8-Takte-Solospur bei dem bevorzugten Ausführungsbeispiel bilden. Bei der vorliegenden Darstellung sind die die vier Segmente einer Trompetensolospur 710 darstellenden Icons in der Reihenfolge angeordnet, wie sie von dem ursprünglichen Darbieter oder Musikexperten vorgesehen sind. In ähnlicher Weise sind die die Saxophon- und Gitarrensolospuren (720 beziehungsweise 730) darstellenden Icons in der von dem ursprünglichen Darbieter oder Musikexperten vorgesehenen Reihenfolge angeordnet. Der Benutzer kann sich irgendein spezielles Solosegment anhören, indem er zunächst auf das gewünschte Segment-Icon klickt und dann auf eine Wiedergabeschaltfläche. Wenn beispielsweise der Benutzer zunächst das Segment-Icon 722 auswählte und dann auf die Wiedergabeschaltfläche klickte, würde er das erste Einzelsegment der Saxophonsolospur hören, Um vier Solosegmente zu der Solospur 240 zusammenzusetzen, klickt der Benutzer auf jedes gewünschte Solosegment-Icon und zieht dann die Auswahl in eine von vier gewünschten Sequenzpositionen, die durch Icons dargestellt sind. Das in die erste Position gebrachte Solosegment-Icon wird zuerst wiedergegeben. Das in die zweite Position gebrachte Solosegment-Icon wird als zweites wiedergegeben. Das in die dritte Position gebrachte Solosegment-Icon wird als drittes wiedergegeben, und das in die letzte Position gebrachte Solosegment-Icon wird zuletzt wiedergegeben. Bei der vorliegenden Darstellung gibt das Computersystem in 1 dann, wenn der Benutzer eine Schaltfläche auswählt, die gesamte vom Benutzer definierte Musikkomposition einschließlich Solospur und Ensemblebegleitung wieder.
  • Sobald der Benutzer. interaktiv Solosegmente auswählt, indem er auf einzelne Solosegmente klickt und sie in die Sequenzposition-Icons in der Reihenfolge zieht, ergibt sich die in 7b gezeigte Anzeige. Das bevorzugte Ausfüh- rungsbeispiel der vorliegenden Erfindung gestattet es den Benutzern, auf weitere Informationen über die Musik zuzugreifen und die Musik auf andere Weise zu manipulieren.
  • 8 veranschaulicht eine graphische Benutzeroberfläche zum Aufrufen dieser zusätzlichen Merkmale eines bevorzugten Ausführungsbeispiels der vorliegenden Erfindung. Indem er interaktiv ein Icon 810 auswählt, kann der Benutzer eine Transkription seiner eigenen gemäß der vorliegenden Erfindung erzeugten Musikkomposition betrachten. Indem er auf ein Icon 820 klickt, kann der Benutzer sich einzelne,lnstrumentalstimmen,in der Musikkomposition, die er gemäß der vorliegenden Erfindung erzeugte, oder der ursprünglichen Musikkomposition, wie sie von dem ursprünglichen Musiker gedacht war, anhören. Durch Klicken auf ein Icon kann der Benutzer zusätzliche Daten betrachten, die zu den. Musiken gehören, einschließlich Videotext und Interviews. Indem er auf ein Icon 840 klickt, kann der Benutzer das Tempo seiner gemäß der vorliegenden Erfindung erzeugten eigenen Musikkomposi- tion oder der Musikkomposition, wie sie von. dem ursprünglichen Musiker gedacht war, beschleunigen oder verlangsamen. Da die vorliegende Erfindung über die Verwendung eines digital codierten Audiosignals implementiert ist, kann das Tempo der Musik verlangsamt oder erhöht werden, ohne den Klang oder die Stimmhöhe der Musik zu beeinflussen. Indem er auf ein Icon 850 klickt, kann der Benutzer auswählen, daß ein zelne Stimmen oder Instrumente aus der von dem Benutzer gemäß der vorliegenden Erfindung erzeugten Musikkomposition oder der ursprünglichen Musikkomposition, wie sie von dem ursprünglichen Musiker gedacht war, gelöscht werden. Indem er auf ein Icon 860 klickt, kann der Benutzer auf den MIDI-Code der eigenen Musikkomposition des Benutzers, die gemäß der vorliegenden Erfindung zusammengesetzt worden ist, oder der Musikkomposition, wie sie von dem ursprünglichen Musiker vorgesehen war, zugreifen. Das Zugreifen auf den MIDI-Code, der dem digital codierten Audiosignal entspricht, gestattet es dem Benutzer, die Musikkomposition unter Verwendung einer Vielzahl von Computersoftware-Musik-Tools von Dritten zu manipulieren.
  • Andere Variationen
  • Detaillierte Veranschaulichungen und bevorzugte Ausführungsbeispiele der vorliegenden Erfindung wurden hier zur Erbauung von Fachleuten und nicht als Einschränkungen des Umfangs der Erfindung zur Verfügung gestellt.

Claims (24)

  1. Ein Verfahren zum Erzeugen eines neuen Arrangements eines Musikwerks, zur Verwendung mit einem digitalen Prozessor (100), wobei das Verfahren die folgenden Schritte umfaßt: Speichern einer Musikdatenbank (150), die eine Mehrzahl von festen Musiksequenzen (300, 310, 320) definiert, die das Musikwerk darstellen und von einem Musikexperten durch Definieren von Abschnitten einer zuvor aufgezeichneten Musikdarbietung und deren Unterteilung in Ensemblebegleitspuren und Solospuren vorab ausgewählt sind, und die eine Musikschablone definiert, die von einem Musikexperten durch Definieren von Abschnitten einer zuvor aufgezeichneten Musikdarbietung und deren Unterteilung in Ensemblebegleitspuren und Solospuren vorab ausgewählt ist und die eine Mehrzahl von festen Sequenzpositionen bezüglich der Zeit definiert, wobei die Schablone das Musikwerk repräsentiert; Bereitstellen der Musikdatenbank (150) und der Musikschablone als Eingaben für den Digitalprozessor (100); interaktives Auswählen einer Mehrzahl der festen Musiksequenzen (300, 310, 320) so, wie es von einem Endbenutzer gewünscht wird; interaktives Zuweisen der ausgewählten Musiksequenzen (300, 310, 320) zu den festen Sequenzpositionen (210, 220, 230) der Schablone so, wie es von dem Endbenutzer gewünscht wird; und Kombinieren der ausgewählten Musiksequenzen (300, 310, 320) in Übereinstimmung der gewünschten Zuweisung, wodurch das neue Arrangement des Musikwerks erzeugt wird.
  2. Das Verfahren nach Anspruch 1, wobei eine Mehrzahl der festen Sequenzpositionen (210, 220, 230) der Schablone parallele Spuren darstellen und wobei der Schritt (450) des Kombinierens der ausgewählten Musiksequenzen ein Zusammenfassen der den parallelen Spuren zugewiesenen ausgewählten Musiksequenzen auf eine parallele Weise einschließt.
  3. Das Verfahren nach Anspruch 2, wobei die jeweils den parallelen Spuren zugewiesenen ausgewählten Musiksequenzen eine Darbietung des Musikwerks in einem besonderen Stil (300, 310, 320) darstellen.
  4. Das Verfahren nach Anspruch 2, wobei die den jeweilgen parallelen Spuren zugewiesenen ausgewählten Musiksequenzen jeweils eine besondere Instrumentengruppe darstellen.
  5. Das Verfahren nach Anspruch 1, wobei eine Mehrzahl der Sequenzpositionen (240) der Schablone Teilsegmente einer Einzelspur sind und wobei der Schritt (450) des Kombinierens der ausgewählten Musiksequenzen das Zusammenfassen der den Teilsegmenten zugewiesenen ausgewählten Musiksequenzen auf eine serielle Weise einschließt.
  6. Das. Verfahren nach Anspruch 5, wobei der Schritt des interaktiven Zuweisens der ausgewählten Musiksequenzen zu den Sequenzpositionen das Zuweisen jeweils einer der ausgewählten Musiksequenzen zu jedem der Teilsegmente und ein Spezifizieren einer gewünschten Wiedergabereihenfolge für die den Teilsegmenten zugewiesenen Musiksequenzen einschließt.
  7. Das Verfahren nach Anspruch 5, wobei jedes der Teilsegmente eine Länge einer fest vorgegebenen Anzahl von Musiktakten hat.
  8. Das Verfahren nach Anspruch 7, wobei die fest vorgegebene Anzahl von Musiktakten zwei ist.
  9. Das Verfahren nach Anspruch 7, wobei die fest vorgegebene Anzahl von Musiktakten eine beliebige fest vorgegebene Anzahl von Takten ist, deren Länge in etwa der Länge natürlicher Musiksätze entspricht.
  10. Das Verfahren nach Anspruch 1, wobei die Musiksequenzen jeweils digital abgetastete Musik aufweisen.
  11. Das Verfahren nach Anspruch 1, wobei die Musikdatenbank auf einem digitalen Nur-Lese-Medium gespeichert wird.
  12. Das Verfahren nach Anspruch 1, wobei die Schritte der interaktiven Auswahl unter Verwendung einer menügesteuerten grafischen Benutzeroberfläche ausgeführt werden.
  13. Eine Einrichtung zum Erzeugen eines neuen Arrangements eines Musikwerks, aufweisend: ein oder mehrere digitale Medien (150), das bzw. die eine Musikdatenbank speichert bzw. speichern, wobei die Datenbank eine Mehrzahl fester Musiksequenzen, die das Musikwerk darstellen und von einem Musikexperten durch Definieren von Abschnitten einer zuvor aufgezeichneten Musikdarbietung und deren Unterteilung in Ensemblebegleitspuren und Solospuren zuvor ausgewählt sind, und die ferner eine Musikschablone speichert, die eine Mehrzahl fester Sequenzpositionen bezüglich der Zeit definiert, wobei die Musikschablone von einem Musikexperten durch Definieren von Abschnitten einer zuvor aufgezeichneten Musikdarbietung und deren Unterteilung in Ensemblebegleitspuren und Solospuren zuvor ausgewählt ist, wobei die Musikschablone das Musikwerk repräsentiert; und ein digitales Prozessorsystem, aufweisend: Eingabemittel (140) zum Lesen des Inhalts des digitalen Mediums; Mittel zum interaktiven Auswählen (420–440) einer Mehrzahl der festen Musiksequenzen und zum interaktiven Zuweisen der ausgewählten Musiksequenzen zu den festen Sequenzpositionen der Schablone so, wie es durch den Endbenutzer gewünscht wird; und Mittel zum Kombinieren (450) der ausgewählten Musiksequenzen in Übereinstimmung mit der gewünschten Zuweisung, wodurch das neue Arrangement des Musikwerks erzeugt wird.
  14. Die Einrichtung nach Anspruch 13, wobei eine Mehrzahl der festen Sequenzpositionen der Schablone parallele Spuren darstellen und wobei die Mittel zum Kombinieren der ausgewählten Musiksequenzen Mittel zum Zusammenfassen der den parallelen Spuren zugewiesenen ausgewählten Musiksequenzen auf eine parallele Weise enthalten.
  15. Die Einrichtung nach Anspruch 14, wobei jede einer Mehrzahl der ausgewählten Musiksequenzen eine Darbietung des Musikwerks in einem besonderen Stil darstellt.
  16. Die Einrichtung nach Anspruch 14, wobei jede einer Mehrzahl der ausgewählten Musiksequenzen eine besondere Instrumentengruppe darstellt.
  17. Die Einrichtung nach Anspruch 13, wobei eine Mehrzahl der Sequenzpositionen der Schablone Teilsegmente einer Einzelspur sind und wobei die Mittel zum Kombinieren der ausgewählten Musiksequenzen Mittel zum Zusammenfassen der den Teilsegmenten zugewiesenen ausgewählten Musiksequenzen auf eine serielle Weise einschließen.
  18. Die Einrichtung nach Anspruch 17, wobei die Mittel zum interaktiven Zuweisen der ausgewählten Musiksequenzen zu den Sequenzpositionen Mittel zum Zuweisen jeweils einer der ausgewählten Musiksequenzen zu jedem der Teilsegmente und Mittel zum Spezifizieren einer gewünschten Wiedergabereihenfolge für die den Teilsegmenten zugewiesenen Musiksequenzen einschließen.
  19. Die Einrichtung nach Anspruch 17, wobei jedes der Teilsegmente eine fest vorgegebene Anzahl von Musiktakten lang ist.
  20. Die Einrichtung nach Anspruch 19, wobei die fest vorgegebene Anzahl von Musiktakten gleich zwei ist.
  21. Die Einrichtung nach Anspruch 19, wobei die fest vorgegebene Anzahl von Musiktakten irgendeine fest vorgegebene Anzahl von Takten ist, deren Länge in etwa der Länge natürlicher Musiksätze entspricht.
  22. Die Einrichtung nach Anspruch 13, wobei die Musiksequenzen jeweils digital abgetastete Musik aufweisen.
  23. Die Einrichtung nach Anspruch 13, wobei, das digitale Medium ein oder mehrere digitale Nur-Lese-Medien umfaßt.
  24. Die Einrichtung nach Anspruch 13, wobei die Mittel zum Ausführen der interaktiven Auswahlen Mittel zum Erzeugen einer menügesteuerten grafischen Benutzeroberfläche aufweisen.
DE69623318T 1995-12-04 1996-12-04 Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken Expired - Lifetime DE69623318T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US567370 1995-12-04
US08/567,370 US5801694A (en) 1995-12-04 1995-12-04 Method and apparatus for interactively creating new arrangements for musical compositions
PCT/US1996/019201 WO1997021210A1 (en) 1995-12-04 1996-12-04 Method and apparatus for interactively creating new arrangements for musical compositions

Publications (2)

Publication Number Publication Date
DE69623318D1 DE69623318D1 (de) 2002-10-02
DE69623318T2 true DE69623318T2 (de) 2004-02-26

Family

ID=24266874

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69623318T Expired - Lifetime DE69623318T2 (de) 1995-12-04 1996-12-04 Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken

Country Status (6)

Country Link
US (1) US5801694A (de)
EP (1) EP0865650B1 (de)
AU (1) AU733315B2 (de)
CA (1) CA2239684C (de)
DE (1) DE69623318T2 (de)
WO (1) WO1997021210A1 (de)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243725B1 (en) 1997-05-21 2001-06-05 Premier International, Ltd. List building system
GB2335781A (en) * 1998-03-24 1999-09-29 Soho Soundhouse Limited Method of selection of audio samples
US6118450A (en) * 1998-04-03 2000-09-12 Sony Corporation Graphic user interface that is usable as a PC interface and an A/V interface
DE19838245C2 (de) * 1998-08-22 2001-11-08 Friedrich Schust Verfahren zum Ändern von Musikstücken sowie Vorrichtung zur Durchführung des Verfahrens
ATE221241T1 (de) * 1998-09-04 2002-08-15 Lego As Verfahren und vorrichtung zum komponieren von elektronischer musik und zur erzeugung von graphischer information
JP3533975B2 (ja) * 1999-01-29 2004-06-07 ヤマハ株式会社 自動作曲装置および記憶媒体
US6353167B1 (en) * 1999-03-02 2002-03-05 Raglan Productions, Inc. Method and system using a computer for creating music
HU225078B1 (en) * 1999-07-30 2006-06-28 Sandor Ifj Mester Method and apparatus for improvisative performance of range of tones as a piece of music being composed of sections
US6392133B1 (en) 2000-10-17 2002-05-21 Dbtech Sarl Automatic soundtrack generator
US7078609B2 (en) * 1999-10-19 2006-07-18 Medialab Solutions Llc Interactive digital music recorder and player
US9818386B2 (en) 1999-10-19 2017-11-14 Medialab Solutions Corp. Interactive digital music recorder and player
US7176372B2 (en) * 1999-10-19 2007-02-13 Medialab Solutions Llc Interactive digital music recorder and player
JP3700532B2 (ja) * 2000-04-17 2005-09-28 ヤマハ株式会社 演奏情報編集再生装置
US6985897B1 (en) 2000-07-18 2006-01-10 Sony Corporation Method and system for animated and personalized on-line product presentation
US7191023B2 (en) * 2001-01-08 2007-03-13 Cybermusicmix.Com, Inc. Method and apparatus for sound and music mixing on a network
US6738318B1 (en) * 2001-03-05 2004-05-18 Scott C. Harris Audio reproduction system which adaptively assigns different sound parts to different reproduction parts
US7032178B1 (en) 2001-03-30 2006-04-18 Gateway Inc. Tagging content for different activities
AU2002305332A1 (en) * 2001-05-04 2002-11-18 Realtime Music Solutions, Llc Music performance system
US20030046333A1 (en) * 2001-06-15 2003-03-06 Jarman Jason G. Recording request, development, reproduction and distribution acquisition system and method
FR2827992B1 (fr) * 2001-07-27 2003-10-31 Thomson Multimedia Sa Procede et dispositif pour la distribution de donnees musicales
EP1326228B1 (de) * 2002-01-04 2016-03-23 MediaLab Solutions LLC Verfahren und Vorrichtung zur Erzeugung, zur Veränderung, zur Wechselwirkung und zum Spielen von Musikstücken
US7076035B2 (en) * 2002-01-04 2006-07-11 Medialab Solutions Llc Methods for providing on-hold music using auto-composition
US7169996B2 (en) * 2002-11-12 2007-01-30 Medialab Solutions Llc Systems and methods for generating music using data/music data file transmitted/received via a network
US7928310B2 (en) * 2002-11-12 2011-04-19 MediaLab Solutions Inc. Systems and methods for portable audio synthesis
US7022906B2 (en) * 2002-11-12 2006-04-04 Media Lab Solutions Llc Systems and methods for creating, modifying, interacting with and playing musical compositions
US9065931B2 (en) * 2002-11-12 2015-06-23 Medialab Solutions Corp. Systems and methods for portable audio synthesis
US7695284B1 (en) * 2003-07-11 2010-04-13 Vernon Mears System and method for educating using multimedia interface
US20050098022A1 (en) * 2003-11-07 2005-05-12 Eric Shank Hand-held music-creation device
US8732221B2 (en) * 2003-12-10 2014-05-20 Magix Software Gmbh System and method of multimedia content editing
US20050132293A1 (en) * 2003-12-10 2005-06-16 Magix Ag System and method of multimedia content editing
WO2005104088A1 (ja) * 2004-04-19 2005-11-03 Sony Computer Entertainment Inc. 楽音を再生する装置、及びそれを含む複合装置
KR100677156B1 (ko) * 2004-12-08 2007-02-02 삼성전자주식회사 음원 관리 방법 및 그 장치
US7601904B2 (en) * 2005-08-03 2009-10-13 Richard Dreyfuss Interactive tool and appertaining method for creating a graphical music display
US7563975B2 (en) * 2005-09-14 2009-07-21 Mattel, Inc. Music production system
KR100689849B1 (ko) * 2005-10-05 2007-03-08 삼성전자주식회사 원격조정제어장치, 영상처리장치, 이를 포함하는 영상시스템 및 그 제어방법
CA2567021A1 (en) * 2005-11-01 2007-05-01 Vesco Oil Corporation Audio-visual point-of-sale presentation system and method directed toward vehicle occupant
EP1969587A2 (de) * 2005-11-14 2008-09-17 Continental Structures SPRL Verfahren zum komponieren eines musikstücks durch einen nichtmusiker
JP2010512554A (ja) * 2006-12-12 2010-04-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音楽作品の生成を制御する音楽作品システム及び方法
US20090078108A1 (en) * 2007-09-20 2009-03-26 Rick Rowe Musical composition system and method
US20090125799A1 (en) * 2007-11-14 2009-05-14 Kirby Nathaniel B User interface image partitioning
US9190110B2 (en) * 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US8327268B2 (en) * 2009-11-10 2012-12-04 Magix Ag System and method for dynamic visual presentation of digital audio content
US20110131493A1 (en) * 2009-11-27 2011-06-02 Kurt Dahl Method, system and computer program for distributing alternate versions of content
US11611595B2 (en) 2011-05-06 2023-03-21 David H. Sitrick Systems and methodologies providing collaboration among a plurality of computing appliances, utilizing a plurality of areas of memory to store user input as associated with an associated computing appliance providing the input
US8990677B2 (en) 2011-05-06 2015-03-24 David H. Sitrick System and methodology for collaboration utilizing combined display with evolving common shared underlying image
US8806352B2 (en) 2011-05-06 2014-08-12 David H. Sitrick System for collaboration of a specific image and utilizing selected annotations while viewing and relative to providing a display presentation
US10402485B2 (en) 2011-05-06 2019-09-03 David H. Sitrick Systems and methodologies providing controlled collaboration among a plurality of users
US8914735B2 (en) 2011-05-06 2014-12-16 David H. Sitrick Systems and methodologies providing collaboration and display among a plurality of users
US8924859B2 (en) 2011-05-06 2014-12-30 David H. Sitrick Systems and methodologies supporting collaboration of users as members of a team, among a plurality of computing appliances
US8918723B2 (en) 2011-05-06 2014-12-23 David H. Sitrick Systems and methodologies comprising a plurality of computing appliances having input apparatus and display apparatus and logically structured as a main team
US9330366B2 (en) 2011-05-06 2016-05-03 David H. Sitrick System and method for collaboration via team and role designation and control and management of annotations
US8918722B2 (en) 2011-05-06 2014-12-23 David H. Sitrick System and methodology for collaboration in groups with split screen displays
US9224129B2 (en) 2011-05-06 2015-12-29 David H. Sitrick System and methodology for multiple users concurrently working and viewing on a common project
US8918724B2 (en) 2011-05-06 2014-12-23 David H. Sitrick Systems and methodologies providing controlled voice and data communication among a plurality of computing appliances associated as team members of at least one respective team or of a plurality of teams and sub-teams within the teams
US8918721B2 (en) * 2011-05-06 2014-12-23 David H. Sitrick Systems and methodologies providing for collaboration by respective users of a plurality of computing appliances working concurrently on a common project having an associated display
US8826147B2 (en) 2011-05-06 2014-09-02 David H. Sitrick System and methodology for collaboration, with selective display of user input annotations among member computing appliances of a group/team
US8875011B2 (en) 2011-05-06 2014-10-28 David H. Sitrick Systems and methodologies providing for collaboration among a plurality of users at a plurality of computing appliances
US10496250B2 (en) 2011-12-19 2019-12-03 Bellevue Investments Gmbh & Co, Kgaa System and method for implementing an intelligent automatic music jam session
IES86526B2 (en) 2013-04-09 2015-04-08 Score Music Interactive Ltd A system and method for generating an audio file
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US10424280B1 (en) 2018-03-15 2019-09-24 Score Music Productions Limited Method and system for generating an audio or midi output file using a harmonic chord map
CN110555126B (zh) 2018-06-01 2023-06-27 微软技术许可有限责任公司 旋律的自动生成
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4526078A (en) * 1982-09-23 1985-07-02 Joel Chadabe Interactive music composition and performance system
US4943866A (en) * 1983-12-02 1990-07-24 Lex Computer And Management Corporation Video composition method and apparatus employing smooth scrolling
US4960031A (en) * 1988-09-19 1990-10-02 Wenger Corporation Method and apparatus for representing musical information
US5052267A (en) * 1988-09-28 1991-10-01 Casio Computer Co., Ltd. Apparatus for producing a chord progression by connecting chord patterns
US5092216A (en) * 1989-08-17 1992-03-03 Wayne Wadhams Method and apparatus for studying music
US5519684A (en) * 1990-05-14 1996-05-21 Casio Computer Co., Ltd. Digital recorder for processing in parallel data stored in multiple tracks
JP2631030B2 (ja) * 1990-09-25 1997-07-16 株式会社光栄 ポインティング・デバイスによる即興演奏方式
US5208421A (en) * 1990-11-01 1993-05-04 International Business Machines Corporation Method and apparatus for audio editing of midi files
US5307456A (en) * 1990-12-04 1994-04-26 Sony Electronics, Inc. Integrated multi-media production and authoring system
JP2836258B2 (ja) * 1991-01-11 1998-12-14 ヤマハ株式会社 演奏データ記録装置
DE69222102T2 (de) * 1991-08-02 1998-03-26 Grass Valley Group Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
JP3292492B2 (ja) * 1992-01-17 2002-06-17 ローランド株式会社 演奏情報処理装置
US5281754A (en) * 1992-04-13 1994-01-25 International Business Machines Corporation Melody composer and arranger
US5399799A (en) * 1992-09-04 1995-03-21 Interactive Music, Inc. Method and apparatus for retrieving pre-recorded sound patterns in synchronization
US5339393A (en) * 1993-04-15 1994-08-16 Sony Electronics, Inc. Graphical user interface for displaying available source material for editing
US5430244A (en) * 1993-06-01 1995-07-04 E-Mu Systems, Inc. Dynamic correction of musical instrument input data stream
US5469370A (en) * 1993-10-29 1995-11-21 Time Warner Entertainment Co., L.P. System and method for controlling play of multiple audio tracks of a software carrier

Also Published As

Publication number Publication date
CA2239684C (en) 2004-01-27
AU733315B2 (en) 2001-05-10
DE69623318D1 (de) 2002-10-02
WO1997021210A1 (en) 1997-06-12
AU1276897A (en) 1997-06-27
US5801694A (en) 1998-09-01
EP0865650B1 (de) 2002-08-28
CA2239684A1 (en) 1997-06-12
EP0865650A1 (de) 1998-09-23

Similar Documents

Publication Publication Date Title
DE69623318T2 (de) Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken
DE69902284T2 (de) Verfahren und vorrichtung zum komponieren von elektronischer musik und zur erzeugung von graphischer information
DE69810685T2 (de) Karaoke System
DE69633863T2 (de) Tonblockfolge-computer zur erzeugung von tonfolgen mit vorgeschriebener dauer
EP1336173B1 (de) Anordnung bzw. anlage zum komponieren
DE69720706T2 (de) Interaktives system zur synchronisierung und zum simultanen spielen von vorbestimmten musiksequenzen
DE69225653T2 (de) Wiedergabevorrichtung für aufgezeichnete Information
DE202020005830U1 (de) Vorrichtung zum Zerlegen, Rekombinieren und Abspielen von Audiodaten
DE112013005807B4 (de) Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung
DE60308370T2 (de) Musikalisches notierungssystem
DE69922284T2 (de) Vorrichtung und Verfahren zur Wiedergabe von Musik zusammen mit Taktschlaginformation
KR20080051054A (ko) 매시업용 데이터의 배포 방법, 매시업 방법, 매시업용데이터의 서버 장치 및 매시업 장치
EP1415297A2 (de) Automatische erzeugung von musikalischen sratch-effekten
DE69517294T2 (de) Vorrichtung zur automatischen Aufführung
DE202015006043U1 (de) Signalfolge und Datenträger mit einem Computerprogramm zur Wiedergabe eines Musikstücks
DE60006131T2 (de) Verfahren und vorrichtung zur erzeugung von improvisierter musik
DE112019006852T5 (de) Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und datenverarbeitungsprogramm
Brockhaus et al. Inside The Cut
DE69123109T2 (de) Verfahren zum mehrzweckigen Playback-Gebrauch eines Videobandes oder ähnlichen Mittels für die Reproduktion der Instrumentalmusik
Febrian et al. Music scoring for film using Fruity Loops Studio
DE10056980A1 (de) Verfahren und Gerät zum Verarbeiten einer Audiowellenform
DE10304098B4 (de) Verfahren und Vorrichtung zur Steuerung eines Tonfolge gekoppelten Bildfolgeablaufs sowie zugehöriges Programm
DE19838245C2 (de) Verfahren zum Ändern von Musikstücken sowie Vorrichtung zur Durchführung des Verfahrens
DE10214431B4 (de) Verfahren und Vorrichtung zur Visualisierung von Audiodaten
Dias et al. Music listening history explorer: an alternative approach for browsing music listening history habits

Legal Events

Date Code Title Description
8332 No legal effect for de
8370 Indication related to discontinuation of the patent is to be deleted
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: RUSH HOUR MUSIC, L.L.C., LONGMEADOW, MASS., US

8328 Change in the person/name/address of the agent

Representative=s name: ZENZ PATENT- UND RECHTSANWAELTE, 45128 ESSEN

8381 Inventor (new situation)

Inventor name: GERSHEN, JOSEPH S., SANTA MONICA, US

8327 Change in the person/name/address of the patent owner

Owner name: PETORONSKI FOUNDATION NY LLC, DOVER, DEL., US