DE19843702A1 - Editieren digitalisierter Audio/Videodaten über ein Netzwerk - Google Patents
Editieren digitalisierter Audio/Videodaten über ein NetzwerkInfo
- Publication number
- DE19843702A1 DE19843702A1 DE19843702A DE19843702A DE19843702A1 DE 19843702 A1 DE19843702 A1 DE 19843702A1 DE 19843702 A DE19843702 A DE 19843702A DE 19843702 A DE19843702 A DE 19843702A DE 19843702 A1 DE19843702 A1 DE 19843702A1
- Authority
- DE
- Germany
- Prior art keywords
- editing
- video data
- data
- audio
- stations
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/20—Disc-shaped record carriers
- G11B2220/25—Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
- G11B2220/2508—Magnetic discs
- G11B2220/2516—Hard disks
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/90—Tape-like record carriers
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Studio Circuits (AREA)
Description
Die vorliegende Erfindung betrifft das Feld des Audio/Videoeditierens. Insbesondere
bezieht sich die vorliegende Erfindung auf ein Verfahren und eine Vorrichtung zum
Editieren von digitalisierten Audio/Videodaten über ein Netzwerk.
Bisher wird das Audio/Videoeditieren meistens gemäß dem in Fig. 1 illustrierten System
ausgeführt. Eine Editier-Workstation enthält heute lokale Platten (Disks), auf denen
Audio/Videodaten gespeichert sind. Das Editieren kann mittels eines Anzeigeschirms
ausgeführt werden, ist jedoch auf die lokal gespeicherten Audio/Videodaten beschränkt.
Diese Art von System erfüllt eine unzulängliche Funktionalität zum Editieren einer großen
Menge von auf mehreren Workstations gespeicherten Audio/Videodaten.
Insbesondere ist dieses System unzureichend, da bisherige Editier-Workstations den
Editiervorgang nicht über die Grenzen der Workstations, über Netzwerke ausführen.
Audio/Videodaten auf jeder Workstation müssen separat editiert werden und das
Ausgangssignal des Editiervorgangs kann dann einer Mischkonsole eingegeben werden,
um das fertige Audio/Video-Ausgangssignal zu erzeugen. Wenn irgendwelche Probleme
bei dem fertigen Audio/Videoausgang bestehen, dann muß der mühsame Prozeß des
Editierens der verschiedenen Audio/Video-Datenspuren, die auf jeder separaten
Workstation vorhanden sind, wiederholt werden. Dieser Prozeß geht weiter, bis das fertige
Ausgangssignal zufriedenstellend ist.
Die vorliegende Erfindung beschreibt ein System zum Editieren von digitalisierten
Audio/Videodaten. Das System weist mehrere Stationen, die die digitalisierten
Audio/Videodaten enthalten, und eine entfernt von den mehreren Stationen angeordnete
und mit den mehreren Stationen über ein Netzwerk kommunikativ verbundene Editier
station auf. Die Editierstation kann auch eine graphische Schnittstelle enthalten und eine
Eingabe über die graphische Schnittstelle akzeptieren, wobei die Eingabe Editierfunktionen
bestimmt, die bezüglich der digitalisierten Audio/Videodaten auszuführen sind, die auf den
mehreren Audiostationen liegen.
Weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung sind in der
folgenden detaillierten Beschreibung und den beiliegenden Zeichnungen erläutert. Die
Erfindung wird anhand eines bevorzugten Ausführungsbeispiels unter Bezugnahme auf die
Zeichnungen erläutert, in denen gleiche Bezugszeichen gleiche Elemente bezeichnen, und
in denen:
Fig. 1 ein bekanntes Audio-Editierverfahren illustriert;
Fig. 2 einen Überblick über ein erfindungsgemäßes Ausführungsbeispiel illustriert;
Fig. 3 Softwaremodule gemäß einem Ausführungsbeispiel der vorliegenden Erfindung im
Detail illustriert;
Fig. 4 eine Datenstruktur illustriert, die eine Spur gemäß einem erfindungsgemäßen
Ausführungsbeispiel definiert;
Fig. 5A bis 5E verschiedene Editiervorgänge illustrieren, die auf einer Spur von
Audiodaten ausgeführt werden;
Fig. 6 ein Beispiel einer graphischen Benutzerschnittstelle illustriert, die zur Ausführung
des Editierens verwendet werden kann;
Fig. 7 ein Ausführungsbeispiel eines Systems illustriert, das durch den Benutzer
konfigurierbare Schnittstellen in Übereinstimmung mit der Lehre der vorliegenden
Erfindung illustriert;
Fig. 8 ein Beispiel einer graphischen Benutzerschnittstelle für eine andere Art von
Benutzer illustriert;
Fig. 9 ein alternatives Beispiel einer graphischen Benutzerschnittstelle für einen
bestimmten Benutzer illustriert.
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Editieren von
digitalisierten Audio/Videodaten über ein Netzwerk. In der folgenden detaillierten
Beschreibung werden zahlreiche spezielle Details erläutert, um ein gutes Verstandnis der
vorliegenden Erfindung zu ermöglichen. Dem Fachmann ist es offensichtlich, daß diese
speziellen Details nicht benötigt werden, um die vorliegende Erfindung auszuführen.
Andererseits werden wohlbekannte Strukturen, Schnittstellen und Verfahren nicht im
Detail beschrieben, um die Erfindung nicht unnötig zu verbergen.
Fig. 2 illustriert einen Überblick eines erfindungsgemäßen Ausführungsbeispiels. Obwohl
die folgenden Abschnitte ein Audio-Editierverfahren beschreiben, kann die gleiche
Technik erfolgreich auf ein Video-Editierverfahren angewandt werden. Wie illustriert,
weist das erfindungsgemäße System wenigstens eine Editierstation auf, die an mehrere
entfernte Stationen (entfernte Stationen 1-N) gekoppelt ist. Die entfernten Stationen 1-N
enthalten in digitaler Form auf einer oder mehreren Platten gespeicherte Audio/Video
daten. Gemäß diesem erfindungsgemäßen Ausführungsbeispiel kann ein Toningenieur die
in einer beliebigen der entfernten Stationen 1-N vorhandenen Daten von einem einzigen
Ort, nämlich der Editierstation 200 editieren. Der Toningenieur kann auch die
digitalisierten Daten über entfernte Stationen 1-N, beispielsweise durch Kopieren von
Audiodaten von einer Spur auf einer Station und Einfügen der ausgeschnittenen
Audiodaten auf eine Spur einer anderen Station editieren. Editiervorgänge über entfernte
Stationen werden im folgenden im Detail erläutert.
Die Editierstation 200 kann ein Personal Computer (PC) oder jedes andere System sein,
das in der Lage ist, eine graphische Anwendung anzuzeigen, eine Eingabe über die
graphische Anwendung akzeptiert, und die Eingabe zu einem entfernten Ort kommuniziert.
Die entfernten Stationen 1-N können auch einen PC oder eine herstellerspezifische
Audio/Video-Speicher/Editierstation, wie ein Abspiel-Aufzeichnungssystem der Sony®
Corporation enthalten. Die entfernten Stationen 1-N können Schlitze für mehrere entfern
bare Platten, wie Iomega Jaz-Platten enthalten, die die für die entfernten Stationen zur
Verfügung stehende Speicherkapazität erhöhen, und es erlauben, daß die gespeicherten
Daten leicht von einem entfernten Ort zu einem anderen bewegt werden.
Fig. 3 illustriert die Softwaremodule gemäß einem erfindungsgemäßen Ausführungs
beispiel. Die Editierstation 200 enthält eine Editieranwendung 302, dynamische
Verknüpfungsdateien (DLLs) 304 und einen Fernverarbeitungsruf(Remote Procedure Call,
RPC)-Mechanismus 306. Die Editieranwendung 302 erlaubt es dem Toningenieur, Editier
funktionen über eine graphische Benutzerschnittstelle (GUI) auszuführen. Der RPC-
Mechanismus 306 liefert eine Kommunikationsverbindung zwischen der Editierstation und
den entfernten Stationen 1-N (s. Fig. 2). Gemäß einem Ausführungsbeispiel der
vorliegenden Erfindung ist der RPC-Mechanismus 306 ein auf Microsoft® Windows NT
basierter RPC-Mechanismus. Andere RPC-Mechanismen oder andere Netzwerk-
Mechanismen zur Fernkommunikation können auch verwendet werden.
Fig. 3 illustriert auch ein Beispiel der Softwaremodule einer beispielhaften entfernten
Station gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Die beispielhafte
entfernte Station weist einen RPC-Mechanismus 308 (entsprechend dem RPC-
Mechanismus 306 in der Editierstation 200), DLLs 310 und einen Ansteuer-Mechanismus
312 auf, der mit einem Digitalsignal-Verarbeitungs(DSP)-System 314 wechselwirkt. Ein
Toningenieur arbeitet mit den entfernten Stationen 1-N von der Editierstation 200 über
eine GUI, wobei die mittels der GUI spezifizierten Funktionen zwischen der Editierstation
200 und den entfernten Stationen 1-N über die RPC-Mechanismen 306 und 308
übertragen werden, wobei die DLLs 310 und das DSP-System 314 alle notwendige
Verarbeitungen ausführen, um die bestimmten Funktionen zu implementieren.
Fig. 4 illustriert die Datenstruktur einer Audiospur auf einer beispielhaften entfernten
Station gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Eine Audiospur ist
eine statische Repräsentation von Audiodaten, die den Ort der Audiodaten auf einer Platte,
die organisatorischen Daten, die zur korrekten Wiedergabe der Audiodaten erforderlich
sind, sowie eine Mehrzahl anderer Parameter in Verbindung mit den Audiodaten
spezifiziert. Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung sind die
verschiedenen, den Audiodaten zugehörigen Parameter jeweils in einer Liste spezifiziert.
Die verschiedenen in Fig. 4 illustrierten Listen entsprechen daher einer einzigen
Audiospur. Diese Spur wird durch eine Datenstruktur repräsentiert, die alle Listen auf
logische Art und Weise verbindet. Durch Verwendung einer einzigen Datenstruktur, um
alle Listen zu verbinden, ermöglicht es ein Ausführungsbeispiel der vorliegenden
Erfindung, daß alle einer bestimmten Spur von Audiodaten zusammen durch eine
gemeinsame Editier-Schnittstelle editiert werden. Wenn so beispielsweise ein Toningenieur
entscheidet, einen Abschnitt einer Audiospur zu editieren, können alle zu dem Abschnitt
der Audiospur zugehörigen Listen im Gegensatz zu bekannten Systemen, bei denen
verschiedene Aspekte der Spur separat editiert werden müssen, gleichzeitig editiert
werden.
Der Mechanismus, der ein Editieren über die Datenspurstruktur von Fig. 4 ausführt,
enthält verschiedene Komponenten. Gemäß einem Ausführungsbeispiel sind die
Komponenten als C++-Klassen implementiert. Die primären Komponenten sind: Spuren,
Ereignislisten und Ereignisse. Jede dieser Komponenten ist in Fig. 4 illustriert und wird im
folgenden im Detail erläutert. Obwohl die folgende Beschreibung eine C++-
Implementierung annimmt, kann die gleiche oder eine ähnliche Funktionalität in anderen
Programmierumgebungen implementiert werden.
Eine "Spur" (Track) ist ein öffentliches Objekt, das für Audio-Anwendungen verwendet
wird, um statische Folgen von Audio- und anderen zeitbasierten Daten zu repräsentieren.
Eine Spur wird als benanntes Objekt (d. h. mit einem Zeichenkettennamen) implementiert,
welches eine Sammlung von (unten beschriebenen) Ereignislisten beibehält. Eine Spur
zeigt eine Editier-Schnittstelle, die auf jede Ereignisliste angewandt wird. Gemäß einem
Ausführungsbeispiel behält eine Spur wenigstens eine Ereignisliste, nämlich die Tonliste
(Sound List; Fig. 4) bei.
"Ereignislisten" sind zweifach verbundene Datenstrukturen, die zwei grundlegende Arten
von Ereignissen enthalten. Das Vorgabe-Ereignis wird ein "Stille"-Ereignis genannt und
das andere Ereignis wird ein "Nicht-Stille"-Ereignis genannt. Es gibt eine separate
Ereignisliste für jede Art von Stille/Nicht-Stille-Ereignis-Kombination. Beispielsweise
repräsentieren, wie in Fig. 4 illustriert ist, mit Farbe ausgefüllte Kreise entlang der Audio-
Zeit das Auftreten von Ton, während die nicht ausgefüllten Kreise Stille repräsentieren.
Andere Listen sind auch möglich. Beispielsweise illustriert die Verstärkungsliste, wie in
Fig. 4 gezeigt ist, wieviel Verstärkung auf bestimmte Abschnitte einer Audiospur
angewandt wird. Beispielsweise gibt der ausgefüllte Kreis einen bestimmten skalaren Wert
der Verstärkung an, der angewandt wird, während der ungefüllte Kreis repräsentiert, daß
die Einheitsverstärkung anzuwenden ist. Fig. 4 zeigt auch andere Listen, die, wie dem
Fachmann ersichtlich ist, verschiedene Parameter einschließlich Parametern bezüglich
Video- oder anderer Editiervorgänge enthalten. Jede Art von Ereignis hat eine in
Abtastungen gemessene Minimallänge und andere Daten, die erforderlich sind, um das
Ereignis-Verhalten zu definieren. Gemäß einem Ausführungsbeispiel wird beinahe das
gesamte Editierverhalten der Ereignislisten in einer C++-Klasse implementiert.
Jede Art von Ereignis enthält zwei wichtige virtuelle Funktionen: Gleit-Anfang (. . .) und
Gleit-Ende (. . .). Wenn neue Nicht-Stille-Ereignisse erzeugt werden, muß jedes Ereignis
diese Funktionen erneut implementieren. Dies resultiert aus der Tatsache, daß, wenn eine
Start- und/oder Endzeit eines Editiervorgangs nicht mit dem Beginn eines Ereignisses
übereinstimmt, ein Übergang ("Seam") erzeugt werden muß. Dies wird erreicht durch
Kopieren des geeigneten Ereignisses ("Gleiten") des Endes des Quell-Ereignisses und dann
"Gleiten" des Beginns des kopierten Ereignisses. Dieser Gleitmechanismus wird später im
Detail illustriert (s. Fig. 5C).
Ereignislisten sind zeitbasierte Datenstrukturen, die verbundene Ereignisse enthalten,
wobei jedes Ereignis eine in Abtastungen gemessene Minimallänge hat. Die Summe der
Längen aller Ereignisse plus der Start-Offset (wird später im Detail erläutert) ist gleich der
Länge der Ereignisliste. Durch Vorgabe beginnt das erste Ereignis bei der Absolutzeit Null
Abtastungen, solange kein Start-Offset vorhanden ist, in welchem Falle das erste Ereignis
bei dem Wert des Start-Offsets beginnt. Die Absolutzeit (gemessen in Abtastungen) am
Beginn eines Ereignisses wird gemessen durch Aufaddieren der Längen aller
vorangehenden Ereignisse einschließlich des Start-Offsets.
Für die Zwecke dieser Diskussion werden Spuren und Ereignislisten austauschbar
verwendet. Spuren repräsentieren mehrere Ereignislisten. Eine Arbeits-Ereignisliste ist
eine Liste, die die Ereignisse enthält, die aufgebaut werden, um eine bestimmte Art eines
Audio-Verhaltens zu modellieren. Arbeits-Ereignislisten werden ursprünglich mit einem
sehr großen Stille-Ereignis erzeugt. Wenn die Arbeits-Ereignisliste einmal erzeugt wurde,
können Editiervorgänge auf diese angewendet werden. Einzelne Ereignisse können der
Liste durch Aufruf einer geeigneten Addier(. . .)-Funktion hinzugefügt werden. Weiterhin
können gemäß einem Ausführungsbeispiel der vorliegenden Erfindung sechs einfache
Editiervorgänge angewandt werden. Diese sind:
Löschen ()
Ausschneiden ()
Kopieren ()
Einsetzen ()
Einfügen ()
Einfügen () (Leerraum)
Löschen ()
Ausschneiden ()
Kopieren ()
Einsetzen ()
Einfügen ()
Einfügen () (Leerraum)
Spuren, Ereignislisten und andere Objekte, die den Editiervorgang modellieren,
verwenden die obigen Begriffe zur Definition einer Editier-Schnittstelle. Die
Editiervorgänge, die auf die Ereignislisten angewendet werden, werden im folgenden
diskutiert und in den Fig. 5A-E illustriert. Gemäß einem alternativen Ausführungsbeispiel
der vorliegenden Erfindung können auch andere Editiervorgänge ausgeführt werden.
"Löschen" ersetzt einen Abschnitt von Ereignissen durch Stille, ohne die Zeiten der
Ereignisse nach dem Endzeitpunkt zu beeinflussen. Löschen ist effektiv ein Überschreib
vorgang. Der Löschen-Editiervorgang ist in Fig. 5A illustriert. "Einsetzen" setzt eine
Quell-Liste in eine Ziel-Liste ein. Die Start- und Endzeitpunkte der Einfügung werden
durch die Quell-Liste bestimmt. Einsetzungsvorgänge überschreiben, da die Zeiten der
Ereignisse nach dem Endzeitpunkt unverändert bleiben, wie in Fig. 5B illustriert ist.
"Einfügen"-Vorgänge setzen eine Quell-Liste in eine Ziel-Liste ein. Der Einfügepunkt
wird durch die Startzeit der Quell-Liste bestimmt. Die Zeiten aller Ereignisse während und
nach dem Einfügungspunkt werden um die Länge der Quell-Liste verschoben. Dies ist in
Fig. 5C gezeigt. "Leerraum einfügen" fügt eine Leerraum-Ereignisliste einer bestimmten
Länge anstatt einer Quell-Liste in ein Ziel ein. "Ausschneiden" entfernt einen Abschnitt
von Ereignissen von einer Ereignisliste. Alle Ereignisse nach dem Endzeitpunkt werden
um die Länge des ausgeschnittenen Stückes nach vorne verschoben, wie in Fig. 5D
illustriert ist. Schließlich kopieren "Kopieren"-Vorgänge einen Abschnitt einer
Ereignisliste, während die Quell-Liste unbeeinflußt bleibt, wie in Fig. 5E illustriert ist.
Fig. 6 illustriert ein Beispiel eines Schirmes einer graphischen Benutzerschnittstelle (GUI),
die durch die Editieranwendung 302 in der Editierstation 200 erzeugt werden kann. Diese
GUI-Schirme erlauben es dem Toningenieur, eine Anzahl von auf die Audiodaten anzu
wendende Editierfunktionen zu spezifizieren. Beispielsweise illustriert der Schirm in Fig. 6
eine Anzeige von sieben separaten Spuren (FXL, FXC, FXR, FXS, FoleyL, FoleyC und
FoleyR).
Diese sieben Spuren können in einer einzigen Station oder in separaten Stationen in einem
Netzwerk vorliegen. Die Möglichkeit, daß ein Toningenieur auf mehrere Stationen über
ein Netzwerk zur simultanen Editierung von einem einzigen entfernten Ort zugreifen kann,
repräsentiert eine signifikante Verbesserung gegenüber bekannten Verfahren zur
Audio/Videoeditierung. Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung
kann der Toningenieur mehrere Editiervorgänge über so viele entfernte Stationen, wie er
wünscht, ausführen, wodurch dem Toningenieur die Flexibilität gegeben wird, eine große
Menge von Audiodaten sehr einfach zu editieren. So kann ein Toningenieur beispielsweise
jede der oben beschriebenen Editiervorgänge auf den hervorgehobenen Abschnitt des
Schirms anwenden. Der hervorgehobene Abschnitt entspricht einem Abschnitt von
Audiodaten auf mehreren Spuren von Audiodaten, wobei jede Spur mehrere Listen enthält.
Die visuelle Repräsentation der Audiodaten ermöglicht dem Toningenieur eine große
Flexibilität, um Editierfunktionen zu spezifizieren. Beispielsweise kann der Toningenieur
einen festgelegten Abschnitt auf dem Schirm hervorheben und Editierfunktionen
spezifizieren, die auf dem gesamten hervorgehobenen Bereich ausgeführt werden sollen.
Dieser hervorgehobene Bereich kann, wie in Fig. 6 illustriert ist, sowohl schattierte als
auch nicht-schattierte Abschnitte des Schirmes enthalten. Die schattierten Abschnitte geben
die aktiven Audioabschnitte (Nicht-Stille) jeder Spur an, während weiße Bereiche Stille
angeben. Wenn der Toningenieur eine Editierfunktion spezifiziert, wird die Funktion über
die Spuren angewandt, wodurch es dem Benutzer ermöglicht wird, mehrere Spuren
gleichzeitig zu editieren. Insbesondere können diese Spuren auf separaten Geräten über das
Netzwerk verteilt gespeichert sein, im Gegensatz zum Stand der Technik, wo eine
Editierstation nur Daten editieren kann, die auf einer lokalen Station vorhanden sind.
Die Möglichkeit, digitalisierte Audio/Videodaten von einer einzigen Editierstation über ein
Netzwerk auszuführen, liefert weitere bedeutende praktische Vorteile, als das Verfahren
nur effizienter zu machen. Bei einer bisherigen Film-Editiereinrichtung können
verschiedene Editierstudios jeweils mehrere Editierstationen enthalten, um verschiedene
Abschnitte von Audio/Videodaten zu editieren, wobei die Ausgänge aller Editierstationen
einer Mischkonsole eingegeben werden. In dem Fall, wenn eine Maschine einem anderen
Studio zugeordnet wird, muß die gesamte Editierstation physisch zu dem neuen Ort bewegt
werden. Demgegenüber müssen bei einem erfindungsgemäßen Ausführungsbeispiel die
physisch entfernten Stationen nicht bewegt werden. Statt dessen können die entfernten
Stationen an jedem Ort angeordnet sein, und jedem Studio können einfach eine festgelegte
Anzahl von entfernten Stationen zugeordnet werden. Auf diese Weise kann die Anzahl von
entfernten Stationen, die einem Studio zugeordnet werden, täglich oder sogar stündlich
ohne wesentliche Probleme geändert werden.
Bei einem alternativen Ausführungsbeispiel kann die Datenstruktur verwendet werden, um
eine Vielzahl von graphischen Benutzerschnittstellen zu unterstützen, die für verschiedene
Arten von Benutzern maßgeschneidert sind. Beispielsweise arbeiten in der Filmindustrie
verschiedene Personen an der Tonproduktion, der Musikkomposition, der Musikeditierung
und der Toneditierung. Die durch die verschiedenen Personen ausgeführte Arbeit umfaßt
teilweisen oder vollständigen Zugriff auf die Datenstruktur, von der ein Beispiel durch
Fig. 4 illustriert ist. Jedoch sind diese verschiedenen Personen an unterschiedliche
Benutzerschnittstellen gewöhnt. Beispielsweise arbeiten Tonerzeuger und
Musikkomponisten mit Balkendiagrammen, Reglern und Takten, um bestimmte Abschnitte
zu identifizieren, auf welche sich eine Funktion bezieht. Toningenieure einschließlich
Mischern arbeiten mit SMPTE-Code. Wenn Audio für Nicht-Video-Anwendungen bei
diesem System verarbeitet wurde, können ähnlich die verschiedenen Audioabschnitte durch
einen MIDI-Code identifiziert werden. In diesem alternativen Ausführungsbeispiel enthält
das System ferner eine Datenbeschreibungsmaschine, wie in Fig. 7 illustriert ist. Wie in
Fig. 7 gezeigt ist, wird die GUI 705, die die A/V-Daten enthält, durch die Daten
beschreibungsmaschine 710 erzeugt, die auf die A/V-Datenbank 715 zugreift. Die Daten
beschreibungsmaschine 710 kann durch Software implementiert werden, die auf
bestehenden Prozessoren oder anderen Prozessoren läuft. Alternativ kann sie durch ein
spezifisches Hardware- oder Softwaresystem implementiert werden. Die erzeugte
graphische Benutzerschnittstelle ist abhängig von der Art des Benutzers. Beispielsweise
kann der Benutzer zunächst durch die Datenbeschreibungsmaschine aufgefordert werden,
die gewünschte Art der GUI, beispielsweise Toneditieren, Tonerzeugung usw. zu
identifizieren. Alternativ kann das System eine GUI eines Vorgabetyps basierend auf dem
Einloggen oder einer anderen Benutzer-Identifizierung implementieren.
Die Datenbeschreibungsmaschine greift auf die A/V-Datenbank 715 zu und der Anzeige
generator zeigt die betreffenden Daten in einer Repräsentation an, die auf die Art des
Benutzers zugeschnitten ist. Dies ist durch die Fig. 6 und 8 graphisch repräsentiert. Wie
vorher erwähnt, ist Fig. 6 eine für einen Toneditierer zugeschnittene GUI-Repräsentation.
Fig. 8 ist eine GUI-Repräsentation zum Überspielen. Es sei erwähnt, daß die Daten von
unterschiedlichen Spuren graphisch auf verschiedene Art und Weise repräsentiert werden.
Beispielsweise wird bezüglich Fig. 6 der Toneditierer mit einer graphischen Repräsentation
der Audiodaten (beispielsweise Bereich 655) zusätzlich zur Identifizierung der jeweiligen
Audiodaten, auf die gerade zugegriffen wird, und die in jeder der gezeigten Spuren
repräsentiert sind, versorgt. Die Überspielanzeige ist auch mit einer Identifizierung 805
der Audiodaten, auf die zugegriffen wird, versehen. Da jedoch keine Editiervorgänge an
der Überspielstation ausgeführt werden, wird eine graphische Repräsentation der
Audiodaten nicht geliefert. Ähnlich erfordert das Überspielen häufig Offsets, um
verschiedene Spuren relativ zueinander zu verschieben (z. B. zum Mischen), während
Offsets beim Editiervorgang typischerweise nicht verwendet werden. So sind Offset-Felder
in der graphischen Benutzeroberfläche (GUI) von Fig. 8 vorgesehen (beispielsweise 810),
jedoch nicht bei der GUI von Fig. 6.
Die Repräsentationen können vorher erzeugt und beispielsweise in der Referenz-Datendatei
735 oder einem anderen Speicher oder Speichermedium gespeichert werden. Die
Repräsentation kann als beschreibende Daten oder ausführbarer Code (beispielsweise Java
Script oder dergleichen) gespeichert werden. Es sei erwähnt, daß eine gewisse Gemein
samkeit der Repräsentation vorhanden sein kann. Beispielsweise können die Zeitcodes, die
Eingangspunkte, Ausgangspunkte usw. repräsentieren (beispielsweise 686-690 und 830-836)
in Abhängigkeit von der Art des Benutzers die gleichen sein.
Zusätzlich erzeugt die Menü-Erzeugungseinrichtung 725 (Fig. 7) die durch den Benutzer
auswählbaren Merkmale, Optionen und Funktionen der bestimmten Art der graphischen
Benutzerschnittstelle. Wie die Datenrepräsentationen können die Menüs vorher erzeugt und
beispielsweise in der Referenz-Datendatei 735 oder einem anderen Speicher oder Speicher
medium gespeichert werden. Die Repräsentation kann als beschreibende Daten oder
ausführbarer Code (beispielsweise Java Script oder dergleichen) gespeichert sein. Beispiele
der verschiedenen durch den Benutzer auswählbaren Merkmale, Optionen und Funktionen
können wiederum den Fig. 6 und 8 entnommen werden. Bei der Überspiel-GUI gibt es
verschiedene Optionen wie "s" Sicherung 812, "R" Aufzeichnung 814, "I" Eingang 816,
"S" Solo 818 und "M" Mute 820. Diese werden durch Tasten implementiert, so daß,
wenn sie durch Plazieren des Cursors auf den Bereich der Taste und "Anklicken" mit
Maus oder Trackball gewählt werden, die Funktion freigegeben wird. Beispielsweise
implementiert die Sicherungs-Taste 812 einen Schreibeschutzmechanismus der gesamten
Spur. Die Aufzeichnungs-Taste 814 veranlaßt unmittelbar eine Aufzeichnung des Eingangs
auf die gewählte Spur.
Die Eingangs-Taste 816 ermöglicht es dem Benutzer zu hören, was am Eingang vorhanden
ist (gegenüber demjenigen, was am Ausgang vorhanden ist). Die Mute-Taste 820 schaltet
die gewählte Spur stumm und der Solo-Knopf 818 schaltet alle Spuren mit Ausnahme der
ausgewählten Spur stumm.
Bei der Editier-GUI von Fig. 6 sind ähnliche Funktionen vorgesehen, wobei manche unter
schiedlich implementiert sind, um auf verschiedene Benutzer zugeschnitten zu sein. Wie
gezeigt, sind Tasten für die Funktionen Solo 678, Mute 680, Eingang 682 und
Aufzeichnung 684 vorgesehen. Anders als eine Überspiel-Anwendung implementiert
jedoch eine Editier-Anwendung ein bandbasiertes Mehrspurenmodell der Aufzeichnung.
Wenn daher ein Benutzer die Aufzeichnungsfunktion auswählt, blinkt die Taste, um einen
Wartevorgang zur Auslösung der Aufzeichnung anzugeben und ändert sich in eine
feststehende Farbe, um anzugeben, wenn die Aufzeichnung eingeleitet ist, die durch den
Benutzer gesteuert wird, der eine Master-Aufzeichnungstaste (beispielsweise Taste 691)
auf der Anzeige auswählt. Wenn die Master-Aufzeichnung einmal ausgewählt ist, können
zusätzliche Spur-Aufzeichnungstasten ausgewählt und unmittelbar ausgelöst werden. Wenn
ferner die Master-Aufzeichnung wiederum ausgewählt wird, um die Master-
Aufzeichnungsfunktion auszuschalten, blinken die Spur-Aufzeichnungstasten wieder, um
einen Aufzeichnungs-Wartezustand anzugeben.
Identische Funktionen wie die Bandsteuerfunktionen etwa Schnellvorspulen, Rückspulen,
Spielen, Stop usw. (690 und 840) und Rollen im Zeitcode (692 und 842) sind auch vorge
sehen. Zusätzlich sind manche Funktionen nur in bestimmten Arten von graphischen
Benutzerschnittstellen vorhanden. Beispielsweise sind die programmierbaren Spur-
Auswahltasten 844 und "alle" 845 oder "keine" 846 bei einem Überspielvorgang sehr
nützlich, wo der Benutzer viele verschiedene Spuren gleichzeitig manipuliert. Ferner
können die Funktionen durch die Menü-Erzeugungseinrichtung definiert unterschiedlich
graphisch repräsentiert werden. Beispielsweise wird der Verstärkungswert in der Editier-
GUI als Gleitreglersymbol und bei der Überspiel-GUI als numerischer Wert repräsentiert.
Die Auswahl der Verstärkungsspalte oder der Symbols bei der geeigneten GUI erzeugt ein
Popup-Fenster, wie in Fig. 9 gezeigt ist, das es dem Benutzer ermöglicht, die Verstärkung
mittels eines graphischen Gleitreglers einzustellen. Es sei erwähnt, daß Fig. 9 ein
alternatives Ausführungsbeispiel einer Überspiel-GUI illustriert, die durch den Benutzer
konfigurierbar ist. Bei dieser Illustration werden Spuren, die Eingang und Ausgang separat
identifizieren, benutzt, um die angezeigte Information anzuzeigen. Andere Ausführungsbeispiele
sind auch denkbar.
Wenn die Daten und die durch den Benutzer auswählbaren Funktionen einmal angezeigt
sind, ist der Benutzer in der Lage, Eingaben an das System zu machen und bestimmte
Aufgaben auszuführen. Die Benutzer-Eingabe wird vorzugsweise über die Manipulations
maschine (730, Fig. 7) verarbeitet, die die Eingabe interpretiert und Befehle erzeugt, die
durch das System verstanden werden. Der Vorteil ist, daß der Benutzer die spezifische
Nomenklatur oder Sprache benutzen kann, die üblicherweise benutzt wird, und das System
versteht, was zu tun ist und die Aufgabe ausführt. So sind manche Funktionen nur für eine
bestimmte Art von Benutzer gedacht, und manche sind allgemein, werden jedoch
unterschiedlich bezeichnet. Beispielsweise wird bei der Tonerzeugung ein Vorgang als ein
"Swap" bezeichnet, während der gleiche Vorgang bei der Musik-Editierung als "Verse"
bezeichnet wird und beim Ton-Editieren der gleiche Vorgang als ein "Take" bezeichnet
wird. Alle drei beziehen sich auf einen Vorgang eines Zeitprotokolls von einem
festgelegten Punkt, um verschiedene Versionen des gleichen Tons aufzuzeichnen. So ist
der Vorgang der Aufzeichnung der Daten der gleiche, obwohl er von verschiedenen Arten
von Benutzern verschieden bezeichnet wird. Die Manipulationsmaschine kann auf
verschiedene Arten implementiert werden. In einem Ausführungsbeispiel wird ein
Wörterbuch gebildet und beispielsweise in der Speichereinrichtung 735 gespeichert, das
mögliche Benutzerfunktionen und entsprechende interne Funktionen enthält. Die
Manipulationsmaschine kann dann das Wörterbuch bezüglich der bestimmten Funktion
durchsuchen und die auszuführende interne Funktion bestimmen.
Es wird deutlich, daß die vorliegende Illustration über die Audio-Beispiele auf Video und
andere Arten von Audio- und Video-Benutzer erweitert werden kann. So ist es denkbar,
daß das gleiche System eine Vielzahl von Benutzern unterstützt, ohne daß spezialisierte
Benutzer-Hardware für eine bestimmte Art von Benutzer vorgesehen sein muß.
So wird ein Verfahren und eine Vorrichtung zum Editieren von digitalisierten
Audio/Videodaten über ein Netzwerk beschrieben. Diese bestimmten hier beschriebenen
Anordnungen und Verfahren erläutern die Prinzipien der vorliegenden Erfindung. Der
Fachmann kann verschiedene Modifikationen der Erfindung ausführen, wobei das
beschriebene Ausführungsbeispiel nicht als beschränkend anzusehen ist.
Claims (26)
1. System zum Editieren digitalisierter Audio/Videodaten, welches System aufweist:
mehrere Stationen, die die digitalisierten Audio/Videodaten enthalten; und
eine entfernt von den mehreren Stationen angeordnete Editierstation, die mit den mehreren Stationen über ein Netzwerk kommunikativ gekoppelt ist.
mehrere Stationen, die die digitalisierten Audio/Videodaten enthalten; und
eine entfernt von den mehreren Stationen angeordnete Editierstation, die mit den mehreren Stationen über ein Netzwerk kommunikativ gekoppelt ist.
2. System gemäß Anspruch 1,
wobei die Editierstation eine graphische Schnittstelle aufweist, die Editierstation Eingaben
über die graphische Schnittstelle annimmt, wobei die Eingabe Editierfunktionen
spezifiziert, die bezüglich der auf den mehreren Stationen vorhandenen digitalisierten
Audio/Videodaten auszuführen sind.
3. System gemäß Anspruch 2,
wobei die graphische Schnittstelle die auf den mehreren Stationen vorhandenen
digitalisierten Audio/Videodaten anzeigt.
4. System gemäß einem der Ansprüche 1 bis 3,
wobei jede der Stationen wenigstens eine Speicherplatte enthält.
5. System gemäß einem der Ansprüche 2 bis 4,
wobei die digitalisierten Audio/Videodaten einen Spurabschnitt und einen Datenabschnitt
enthalten.
6. System gemäß Anspruch 5,
wobei der Spurabschnitt der digitalisierten Audio/Videodaten eine statische Folge von
Audio/Videodaten repräsentiert.
7. System gemäß Anspruch 5 oder 6,
wobei die Eingabe über die graphische Schnittstelle Editierfunktionen spezifiziert, die auf
einem Spurabschnitt der digitalisierten Audio/Videodaten ausgeführt werden sollen, die in
den mehreren Stationen vorhanden sind.
8. Computer-implementiertes Verfahren zum Editieren digitalisierter Audio/Videodaten,
wobei das computerimplementierte Verfahren die Schritte aufweist:
Spezifikation von Editiervorgängen mittels einer graphischen Schnittstelle auf einer Editierstation; und
Ausführung der Editiervorgänge auf den mehreren Stationen, die die digitalisierten Audio/Videodaten enthalten, wobei die mehreren Stationen entfernt von der Editierstation angeordnet und kommunikativ mit der Editierstation gekoppelt sind.
Spezifikation von Editiervorgängen mittels einer graphischen Schnittstelle auf einer Editierstation; und
Ausführung der Editiervorgänge auf den mehreren Stationen, die die digitalisierten Audio/Videodaten enthalten, wobei die mehreren Stationen entfernt von der Editierstation angeordnet und kommunikativ mit der Editierstation gekoppelt sind.
9. Computer-implementiertes Verfahren gemäß Anspruch 8,
wobei die graphische Schnittstelle die digitalisierten Audio/Videodaten anzeigt die auf den
mehreren Stationen vorhanden sind.
10. Computer-implementiertes Verfahren gemäß Anspruch 8 oder 9,
wobei jede der mehreren Stationen wenigstens eine Speicherplatte enthält.
11. Computer-implementiertes Verfahren gemäß Anspruch 9 oder 10,
wobei die digitalisierten Audio/Videodaten einen Spurabschnitt und einen Datenabschnitt
aufweisen.
12. Computer-implementiertes Verfahren gemäß Anspruch 11,
wobei der Spurabschnitt der digitalisierten Audio/Videodaten eine statische Folge von
Audio/Videodaten repräsentiert.
13. Computer-implementiertes Verfahren gemäß Anspruch 11,
wobei der Schritt der Ausführung der Editiervorgänge den Schritt des Editierens des Spur
abschnitts der digitalisierten Audio/Videodaten enthält.
14. Maschinenlesbares Medium mit darauf gespeicherten Daten, die Sequenzen von
Befehlen repräsentieren, die, wenn sie durch ein Computersystem ausgeführt werden, das
Computersystem veranlassen, folgende Schritte auszuführen:
Spezifikation von Editiervorgängen über eine graphische Schnittstelle auf einer Editier station; und
Ausführung der Editiervorgänge auf mehreren Stationen, die die digitalisierten Audio/Videodaten enthalten, wobei die mehreren Stationen entfernt von der Editierstation angeordnet sind und kommunikativ mit der Editierstation gekoppelt sind.
Spezifikation von Editiervorgängen über eine graphische Schnittstelle auf einer Editier station; und
Ausführung der Editiervorgänge auf mehreren Stationen, die die digitalisierten Audio/Videodaten enthalten, wobei die mehreren Stationen entfernt von der Editierstation angeordnet sind und kommunikativ mit der Editierstation gekoppelt sind.
15. Maschinenlesbares Medium gemäß Anspruch 14,
wobei das Computersystem die graphische Schnittstelle veranlaßt, die in den mehreren
Stationen vorhandenen digitalisierten Audio/Videodaten anzuzeigen.
16. Maschinenlesbares Medium gemäß Anspruch 14 oder 15,
wobei jede der mehreren Stationen wenigstens eine Platte enthält.
17. Maschinenlesbares Medium gemäß Anspruch 15 oder 16,
wobei die digitalisierten Audio/Videodaten einen Spurabschnitt und einen Datenabschnitt
aufweisen.
18. Maschinenlesbares Medium gemäß Anspruch 17,
wobei der Spurabschnitt der digitalisierten Audio/Videodaten eine statische Folge von
Audio/Videodaten repräsentiert.
19. Maschinenlesbares Medium gemäß Anspruch 17 oder 18,
wobei das Computersystem, das den Schritt der Ausführung der Editiervorgänge ausführt,
die Ausführung des Schrittes des Editierens des Spurabschnitts der digitalisierten
Audio/Videodaten umfaßt.
20. Maschinenlesbares Medium mit darauf gespeicherten Daten, die, wenn sie durch ein
Computersystem bearbeitet werden, das Computersystem veranlassen, Editiervorgänge zu
spezifizieren und auszuführen, wobei die Daten wenigstens eine Spur mit wenigstens einer
Liste, mehrere Listen, die durch eine Datenstruktur verbunden sind, enthalten, wobei die
Listen einen Datentyp und für diese Datentypen relevante Editiervorgänge beschreiben.
21. Maschinenlesbares Medium gemäß Anspruch 20,
wobei der Datentyp Audiodaten umfaßt.
22. Maschinenlesbares Medium gemäß Anspruch 20,
wobei der Datentyp Videodaten umfaßt.
23. Maschinenlesbares Medium gemäß einem der Ansprüche 20 bis 22,
wobei die Liste eine Ereignisliste umfaßt.
24. Maschinenlesbares Medium gemäß Anspruch 23,
wobei die Ereignisliste eine in Abtastungen gemessene Lange und andere zur Definition
des Ereignisverhaltens erforderliche Daten identifiziert.
25. Maschinenlesbares Medium gemäß Anspruch 23 oder 24,
wobei der Datentyp Audiodaten ist und die Ereignisliste Stille-Ereignisse und Nicht-Stille-
Ereignisse identifiziert.
26. Maschinenlesbares Medium gemäß einem der Ansprüche 20 bis 25,
wobei die Liste eine Verstärkungsliste enthält.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/936,847 US6166731A (en) | 1997-09-24 | 1997-09-24 | Editing digitized audio/video data across a network |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19843702A1 true DE19843702A1 (de) | 1999-06-17 |
Family
ID=25469153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19843702A Ceased DE19843702A1 (de) | 1997-09-24 | 1998-09-23 | Editieren digitalisierter Audio/Videodaten über ein Netzwerk |
Country Status (6)
Country | Link |
---|---|
US (1) | US6166731A (de) |
JP (2) | JP4721480B2 (de) |
CN (1) | CN1133319C (de) |
DE (1) | DE19843702A1 (de) |
FR (1) | FR2768878B1 (de) |
GB (1) | GB2329750B (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10215160A1 (de) * | 2002-04-05 | 2003-10-16 | Bts Media Solutions Gmbh | Vorrichtung zur Programmierung eines Videomischers |
DE102012103248A1 (de) * | 2012-04-13 | 2013-10-17 | Cinepostproduction Gmbh | Verfahren, Computerprogrammprodukt und Endgerät zur Wiedergabe von Filmen |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2329812B (en) * | 1997-09-24 | 2002-04-10 | Sony Pictures Entertainment | User interface systems and methods |
US7167763B2 (en) * | 1997-09-24 | 2007-01-23 | Sony Corporation | Method and apparatus for providing a graphical user interface for a player/recorder system |
US20020056119A1 (en) * | 1999-12-23 | 2002-05-09 | Moynihan Michael W. | Personal video channel system |
JP2002124022A (ja) * | 2000-10-18 | 2002-04-26 | Yamaha Corp | オーディオデータ記録再生装置 |
WO2003027893A1 (en) * | 2001-09-27 | 2003-04-03 | The Trustees Of Columbia University In The City Of New York | Method and system for annotating audio/video data files |
US20030088875A1 (en) * | 2001-11-08 | 2003-05-08 | Gay Lance J | Simultaneous viewing of video files on networked computer systems |
US7032177B2 (en) * | 2001-12-27 | 2006-04-18 | Digeo, Inc. | Method and system for distributing personalized editions of media programs using bookmarks |
US7320137B1 (en) | 2001-12-06 | 2008-01-15 | Digeo, Inc. | Method and system for distributing personalized editions of media programs using bookmarks |
DE10204575A1 (de) * | 2002-02-04 | 2003-08-14 | Agir Werbe Gmbh & Co Kg | Verfahren und Vorrichtung zum automatischen Erstellen von Beiträgen für Kommunikationsmedien |
US8009966B2 (en) * | 2002-11-01 | 2011-08-30 | Synchro Arts Limited | Methods and apparatus for use in sound replacement with automatic synchronization to images |
JP4546331B2 (ja) * | 2004-07-23 | 2010-09-15 | キヤノン株式会社 | ビデオカメラ |
US8577204B2 (en) * | 2006-11-13 | 2013-11-05 | Cyberlink Corp. | System and methods for remote manipulation of video over a network |
US8103150B2 (en) * | 2007-06-07 | 2012-01-24 | Cyberlink Corp. | System and method for video editing based on semantic data |
JP5483888B2 (ja) * | 2009-01-09 | 2014-05-07 | キヤノン株式会社 | 映像再生装置、映像再生方法、及び映像再生プログラム |
US10380722B2 (en) * | 2017-10-30 | 2019-08-13 | Adobe Inc. | Editing a graphic object in a vector representation to improve crisp property in raster representation |
US11200910B2 (en) | 2019-06-28 | 2021-12-14 | International Business Machines Corporation | Resolution of edit conflicts in audio-file development |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU540275B2 (en) * | 1979-09-27 | 1984-11-08 | Sony Corporation | V.t.r. synchronizing system |
JPS5870474A (ja) * | 1981-10-20 | 1983-04-26 | Sony Corp | 編集装置 |
GB2187324B (en) * | 1986-02-28 | 1989-11-08 | Sony Corp | Tape recorder synchronizer apparatus |
JPH023134A (ja) * | 1988-06-09 | 1990-01-08 | Sony Corp | 編集装置 |
JP2773372B2 (ja) * | 1990-03-26 | 1998-07-09 | ソニー株式会社 | 編集装置 |
WO1993008664A1 (en) * | 1991-10-21 | 1993-04-29 | Accom, Inc. | On-line video editing system |
GB2273220B (en) * | 1992-12-07 | 1997-01-08 | Quantel Ltd | A video processing system |
JPH06302157A (ja) * | 1993-04-14 | 1994-10-28 | Sony Corp | 編集装置 |
EP0625781B1 (de) * | 1993-04-13 | 2000-06-14 | Sony Corporation | Editiergerät |
JPH08130521A (ja) * | 1994-10-31 | 1996-05-21 | Sony Corp | 映像信号記録再生装置 |
JP3536423B2 (ja) * | 1995-04-07 | 2004-06-07 | ソニー株式会社 | 放送設備運用システムおよび方法 |
JP3277753B2 (ja) * | 1995-04-14 | 2002-04-22 | ソニー株式会社 | 映像素材編集システム |
JP3062080B2 (ja) * | 1995-04-28 | 2000-07-10 | 三菱電機株式会社 | 映像素材登録システム、映像素材オンエアシステム及び番組送出管理システム |
JPH0991463A (ja) * | 1995-07-14 | 1997-04-04 | Matsushita Electric Ind Co Ltd | 画像編集装置 |
JP3744027B2 (ja) * | 1995-07-20 | 2006-02-08 | ソニー株式会社 | 映像音声素材記録装置 |
JPH0944524A (ja) * | 1995-07-31 | 1997-02-14 | Sony Corp | 画像音声蓄積装置および画像音声蓄積方法 |
GB2306750B (en) * | 1995-10-23 | 1999-11-10 | Quantel Ltd | An audio editing system |
JP3827170B2 (ja) * | 1996-02-20 | 2006-09-27 | トムソン ライセンシング | 放送用録画再生システム |
GB2312078B (en) * | 1996-04-12 | 1999-12-15 | Sony Corp | Cataloguing video information |
DE69704942T2 (de) * | 1996-04-12 | 2002-03-28 | Avid Technology, Inc. | Multimediasystem mit verbesserten datenverwaltungsmechanismen |
FR2753329B1 (fr) * | 1996-09-10 | 1998-10-30 | Netia Sarl | Dispositif de mixage d'une sequence son avec une sequence video |
KR19990077225A (ko) * | 1996-11-22 | 1999-10-25 | 이데이 노부유끼 | 편집 장치, 편집 시스템 및 편집 방법 |
CA2284886A1 (en) * | 1997-04-04 | 1999-02-04 | Avid Technology, Inc. | A digital multimedia editing and data management system |
GB2328550B (en) * | 1997-08-01 | 2000-02-09 | Discreet Logic Inc | Editing image data |
-
1997
- 1997-09-24 US US08/936,847 patent/US6166731A/en not_active Expired - Lifetime
-
1998
- 1998-09-21 GB GB9820542A patent/GB2329750B/en not_active Expired - Lifetime
- 1998-09-23 DE DE19843702A patent/DE19843702A1/de not_active Ceased
- 1998-09-24 CN CN98119549.0A patent/CN1133319C/zh not_active Expired - Lifetime
- 1998-09-24 FR FR9811922A patent/FR2768878B1/fr not_active Expired - Lifetime
- 1998-09-24 JP JP27037398A patent/JP4721480B2/ja not_active Expired - Lifetime
-
2009
- 2009-03-04 JP JP2009050296A patent/JP4554716B2/ja not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10215160A1 (de) * | 2002-04-05 | 2003-10-16 | Bts Media Solutions Gmbh | Vorrichtung zur Programmierung eines Videomischers |
DE102012103248A1 (de) * | 2012-04-13 | 2013-10-17 | Cinepostproduction Gmbh | Verfahren, Computerprogrammprodukt und Endgerät zur Wiedergabe von Filmen |
Also Published As
Publication number | Publication date |
---|---|
US6166731A (en) | 2000-12-26 |
CN1133319C (zh) | 2003-12-31 |
JP4721480B2 (ja) | 2011-07-13 |
JP4554716B2 (ja) | 2010-09-29 |
GB2329750B (en) | 2002-04-10 |
CN1218349A (zh) | 1999-06-02 |
GB2329750A (en) | 1999-03-31 |
JP2009118539A (ja) | 2009-05-28 |
FR2768878B1 (fr) | 2004-03-12 |
JPH11168442A (ja) | 1999-06-22 |
FR2768878A1 (fr) | 1999-03-26 |
GB9820542D0 (en) | 1998-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69701566T2 (de) | Medieneditiersystem und verfahren mit verbesserter effektsteuerung | |
DE69835553T2 (de) | Nichtlineares digitales Multimediakompositionsverfahren und -system ohne Timeline | |
DE3854916T2 (de) | System und Verfahren zur Verarbeitung digitalisierter Audiosignale | |
DE19843702A1 (de) | Editieren digitalisierter Audio/Videodaten über ein Netzwerk | |
DE69133127T2 (de) | Computergesteuerte Anzeigeverfahren | |
DE69424084T2 (de) | Verfahren und Vorrichtung zum Anzeigen von verfügbarem Editierquellenmaterial | |
DE69125510T2 (de) | Offline Schnittsysteme | |
DE19944746B4 (de) | Editierungssystem und Editierungsverfahren | |
DE69722507T2 (de) | Aufzeichnungsschnitt | |
DE69817158T2 (de) | Benutzerschnittstellen-Mechanismus zur Manipulierung von Kontexten in Computerverwaltungsapplikationen | |
DE69320516T2 (de) | Methode und Gerät zum Editieren von Video | |
DE69428988T2 (de) | Interaktive anwenderschnittstelle | |
DE69222102T2 (de) | Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial | |
DE69718652T2 (de) | Zeitbasiertes medienverarbeitungssystem und -verfahren | |
DE69720706T2 (de) | Interaktives system zur synchronisierung und zum simultanen spielen von vorbestimmten musiksequenzen | |
DE69828974T2 (de) | Verfahren und system zur veränderung und aufbereitung dreidimensionaler animationen in einer nicht-linearen editionsumgebung | |
DE19915008A1 (de) | Editiervorrichtung | |
DE69835570T2 (de) | Digitales Videoschnittsystem und -verfahren | |
DE60025406T2 (de) | Laufbilderinformationsanzeigeverfahren und -gerät | |
DE69310934T2 (de) | Ballonhilfssystem. | |
DE69310214T2 (de) | Dialogsystem | |
DE69310201T2 (de) | Objektorientierte applikationsschnittstelle. | |
DE69727002T2 (de) | Aufzeichnungsschnitt | |
DE69422910T2 (de) | Zeitabhängige scriptfolgen | |
DE69522854T2 (de) | Verfahren und Gerät zum Editieren von Multimediadaten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |