[go: up one dir, main page]

DE69623712T2 - Schnittsystem - Google Patents

Schnittsystem

Info

Publication number
DE69623712T2
DE69623712T2 DE69623712T DE69623712T DE69623712T2 DE 69623712 T2 DE69623712 T2 DE 69623712T2 DE 69623712 T DE69623712 T DE 69623712T DE 69623712 T DE69623712 T DE 69623712T DE 69623712 T2 DE69623712 T2 DE 69623712T2
Authority
DE
Germany
Prior art keywords
data
clip
image data
clip image
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69623712T
Other languages
English (en)
Other versions
DE69623712D1 (de
Inventor
Takeshi Kanda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of DE69623712D1 publication Critical patent/DE69623712D1/de
Publication of DE69623712T2 publication Critical patent/DE69623712T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/36Monitoring, i.e. supervising the progress of recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2512Floppy disks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/40Combinations of multiple record carriers
    • G11B2220/41Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title
    • G11B2220/415Redundant array of inexpensive disks [RAID] systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

    Technisches Gebiet
  • Diese Erfindung betrifft ein Schnitt- bzw. Editionssystem. Die Erfindung ist beispielsweise für ein System zum Schneiden bzw. Editieren von so bald wie möglich zu berich¬ tendem Material, beispielsweise Sport- und Nachrichtenreportagen, geeignet.
  • Technischer Hintergrund
  • Mit einem Videoeditiersystem gemäß US-A-5 237648 kann ein Benutzer Quellenvideodaten durch Steuern der Rate, mit der die Quellenvideodaten zugeführt werden, so, wie sie dem Editiersystem zugeführt werden, direkt schneiden bzw. editieren, und das System stellt eine Einrichtung zum direkten Manipulieren jedes Rahmens oder Punktes in einer Liste vorher markierter Clips bereit.
  • Ein Videoeditiersystem gemäß EP-A-0601749 weist eine Direktzugriffsspeichereinrichtung auf und stellt "Verarbeitungs- bzw. Einstelldaten" bereit, die von einem Benutzer an Quellenvideodaten gemachte Auswahlen und Modifikationen beschreiben, wobei die editierten Daten nicht in der Direktzugriffsspeichereinrichtung gespeichert, sondern anstelle dessen durch die Einstelldaten in Zuordnung zu den ursprünglichen Videodaten dargestellt werden. Dieses Editiersystem kann Videodaten von einer externen Quelle in Realzeit in der Speichereinrichtung aufzeichnen und die gleichen Quellendaten an einen Videoprozessor ausgeben. Es kann auch Videodaten von der Speichereinrichtung an den Videoprozessor zum Editieren ausgeben.
  • Diese Erfindung ist im Hinblick auf den vorstehend genannten Punkt gemacht worden. Die Erfindung bezweckt die Bereitstellung eines Editionssystems, das einen Realzeitschnitt bzw. eine Realzeitedition mit einem im Vergleich zum Stand der Technik kleineren System realisieren kann.
  • Im Hinblick auf den obigen Punkt weist bei dieser Erfindung ein Schnitt- bzw. Editionssystem auf ein Haupt- Aufzeichnungs- und -Wiedergabegerät mit einer Eingabe/Ausgabe-Einrichtung zum Empfangen von in Realzeit eingegebenen Eingangsvideodaten, Ausgeben von aus den eingegebenen Videodaten erhaltenen Videodaten als erste Videodaten in Realzeit und Ausgeben von vom Aufzeichnungsmedium wiedergegebenen Videodaten als zweite Videodaten in Realzeit, und einer Aufzeichnungs- und Wiedergabeeinrichtung zum tatsächlichen Ausführen der Aufzeichnungsoperation zur Aufzeichnung von in Realzeit eingegebenen Eingangsvideodaten auf dem Aufzeichnungsmedium gleichzeitig mit der Wiedergabeoperation zur Wiedergabe der auf dem Aufzeichnungsmedium in Realzeit aufgezeichneten Videodaten, wobei ein Computer mit einer Anzeigeeinrichtung zum Anzeigen einer graphischen Anzeige für eine Benutzerschnittstelle, die einen sich auf die Aufzeichnungs- und Wiedergabeoperation des Haupt-Aufzeichnungs- und - Wiedergabegeräts beziehenden Steuerungsbefehl und die vom Haupt-Aufzeichnungs- und -Wiedergabegerät in Realzeit zugeführten ersten Videodaten und die zweiten Videodaten erzeugt, und eine Ereigniserzeugungseinrichtung mit einer ersten Ereigniserzeugungsoperation zum Erzeugen eines ersten Ereignisses aus den ersten Videodaten durch Betätigen der auf der Anzeigeeinrichtung angezeigten Benutzerschnittstelle und einer unabhängig von der ersten Ereigniserzeugungsoperation ausgeführten zweiten Ereigniserzeugungsoperation zum Erzeugen eines zweiten Ereignisses aus den zweiten Videodaten durch Betätigen der auf der Anzeigeeinrichtung angezeigten Benutzerschnittstelle verwendet ist, wodurch eine Hochgeschwindigkeits-Realzeitedition realisiert werden kann.
  • Kurze Beschreibung der Zeichnungen
  • Fig. 1 ist ein Diagramm zur Erläuterung der generellen Struktur eines Editionssystems dieser Erfindung.
  • Fig. 2 ist ein Diagramm, das die innere Struktur eines Computers 1 zeigt.
  • Fig. 3 ist ein Diagramm, dass eine graphische Anzeige für eine auf dem Monitor 14 des Computers 1 angezeigte GUI zeigt.
  • Fig. 4 ist ein Diagramm, das erste Managementaufzeichnungsdaten für Clipdaten, Ereignisdaten und Programmdaten darstellt.
  • Fig. 5 ist ein Diagramm, das zweite Managementaufzeichnungsdäten für Clipdaten darstellt.
  • Fig. 6 ist ein Diagramm, das zweite Managementaufzeichnungsdaten für Ereignisdaten und Programmdaten darstellt.
  • Fig. 7 ist ein Diagramm, das die Markierungsordnung abgeschnittener bzw. geclippter Bilddaten und eine zu diesen in Form · einer Tabelle addierten Indexnummer, Clipnummer und Ereignisnummer zeigt.
  • Fig. 8 ist ein Diagramm, das alle geclippten Bilddaten zeigt, die in einem Clipanzeigebereich 28, einem Ereignisanzeigebereich 29 und einem Programmanzeigebereich 30 angezeigt werden.
  • Fig. 9A ist ein Diagramm, das den Verbindungszustand von Verwaltungs- bzw. Managementaufzeichnungsdaten zum Verwalten bzw. Managen von Programmdaten zeigt.
  • Fig. 9B ist ein Diagramm, das den Verbindungszustand von Managementaufzeichnungsdaten zum Managen von Ereignisdaten zeigt.
  • Fig. 9C ist ein Diagramm, das den Verbindungszustand von Managementaufzeichnungsdaten zum Managen von Clipdaten zeigt.
  • Fig. 10 ist ein Diagramm, das die innere Struktur des Festplattenarrays 2 zeigt.
  • Fig. 11 ist ein Flussdiagramm, das die Anfangsoperation · dieses Editionssystems zeigt.
  • Fig. 12 ist ein Flussdiagramm, das die erste Markierungsoperation dieses Editionssystems zeigt.
  • Fig. 13A und 13B sind Flussdiagramme, welche die zweite Markierungsoperation dieses Editionssystems zeigen.
  • Beste Art und Weise der Ausführung der Erfindung
  • Es wird unter Bezugnahme auf die beigefügten Zeichnungen eine Ausführungsform dieser Erfindung beschrieben.
  • [Beschreibung der generellen Struktur des Editionssystems]
  • Die generelle Struktur dieses Editionssystems wird anhand der Fig. 1 beschrieben. Fig. 1 zeigt generell die Hardwarestruktur des ganzen Editionssystems.
  • Dieses Editionssystems besteht aus einem Computer 1 und einem Festplattenarray 2. Im Computer 1 ist ein Anwendungsprogramm zum Editieren von zum Computer übertragenen Videodaten installiert. Dieses im Editiercomputer installierte Anwendungsprogramm ist ein Programm, das unter dem Betriebssystem des Computers betrieben werden kann. Dieses Anwendungsprogramm enthält eine GUI (Graphik User Interface = graphische Benutzerschnittstelle bzw. Benutzeroberfläche) zum Erzeugen eines Steuerungsbefehls.
  • Im Festplattenarray 2 sind auf dem Array mehrere Festplatten angeschlossen bzw. verbunden. Das Festplattenarray 2 wird so gesteuert, dass eine Aufzeichnung und Wiedergabe gleichzeitig nach außen ausgeführt werden. Insbesondere kann von der Festplatte ein Videosignal in Realzeit wiedergegeben werden, während das Signal aufgezeichnet wird.
  • Der Computer 1 und das Festplattenarray 2 sind durch ein Kommunikationskabel entsprechend dem Kommunikationsformat der RS-422-Schnittstelle miteinander verbunden. Das Kommunikationsformat der RS-422-Schnittstelle ist ein Kommunikationsformat, bei dem ein Videosignal und ein Steuerungsbefehl gleichzeitig gesendet/empfangen werden können.
  • Das in das Editionssystem eingegebene Eingangsvideosignal V1 ist ein beispielsweise von einer Videokamera aufgenommenes zusammengesetztes Videosignal bzw. Videomischsignal, ein von einem VTR oder dgl. ausgegebenes zusammengesetztes Videosignal bzw. Videomischsignal oder dgl. Dieses Videomischsignal ist ein entsprechend dem SDI-Format (SDI = Seriell Digital Interface = serielle digitale Schnittstelle) zu übertragendes Signal. Das vom Editionssystem ausgegebene Videosignal V2 oder V3 ist ebenfalls ein entsprechend einem SDI-Format zu übertragendes Videomischsignal. Natürlich kann das in das/aus dem Editionssystem eingegebene/ausgegebene Videosignal ein Videomischsignal sein. Gleichzeitig ist das in das/aus dem Editionssystem eingegebene/ausgegebene Videosignal nicht auf ein digitales Videosignal beschränkt, sondern kann ein analoges Videomischsignal sein.
  • Die Gesamtoperation dieses Editionssystems wird anhand der Fig. 1 beschrieben. Es sei darauf hingewiesen, dass die detaillierte Beschreibung später ausgeführt wird. Das beispielsweise von einer Videokamera aufgenommen Videomischsignal wird in den Computer 1 bzw. das Festplattenarray 2 eingegeben. Das in den Computer 1 eingegebene Videosignal wird auf dem Monitor des Editiercomputers 1 angezeigt. Andererseits wird das in das Festplattenarray 2 eingegebene Videosignal in Realzeit codiert und auf einer Festplatte aufgezeichnet.
  • Eine den Computer 1 betätigende Bedienungsperson kann durch Betätigen einer Zeigereinrichtung, beispielsweise einer mit dem Computer 1 verbundene Maus, einen Editionspunkt, beispielsweise einen übertragenen EIN-Punkt (Editionsstartpunkt) und einen AUS-Punkt (Editionsendpunkt) zuordnen. Außerdem kann durch Verwendung der auf dem Monitor des Computers 1 angezeigten GUI ein Steuerungsbefehl zur Edition erzeugt werden. Ein derart erzeugter Steuerungsbefehl wird zum Festplattenarray 2 als ein Steuerungsbefehl von RS-422 übertragen, um die Wiedergabe des Festplattenarrays 2 zu steuern. Das wiedergegebene Videosignal V3 wird auf dem Monitor des Computers 1 angezeigt und an eine externe Einrichtung ausgegeben.
  • [Beschreibung der inneren Struktur des Computers]
  • Nachfolgend wird anhand der Fig. 2 die innere Struktur des Computers 1 detailliert beschrieben. Der Computer 1 stellt einen Systembus 5 zur Übertragung eines Steuerungssignals, eines Videosignals usw., eine CPU 10 zur Steuerung des Ganzen des Computers, einen ersten Videoprozessor 11 und einen zweiten Videoprozessor 12 zur Ausführung einer Bildvetarbeitung usw. an einem Videosignal, einen Anzeigekontroller 13 zur Kontrolle bzw. Steuerung eines auf einem Videomonitor 14 und einer graphischen Anzeige für eine GUI angezeigten Videosignals, eine HDD-Schnittstelle 15 zur Kontrolle bzw. Steuerung eines lokalen Festplattenlaufwerks (HDD) 15a, eine FDD- Schnittstelle 16 zur Kontrolle bzw. Steuerung eines Diskettenlaufwerks (FDD) 15a, eine Zeigereinrichtungs-Schnittstelle 17 zur Erzeugung von Steuerungsdaten auf der Basis des Be¬ fehls von einer Zeigereinrichtung wie beispielsweise einer generell als Maus bezeichneten Cursoreinrichtung 17a, eines Bedienfeldes 17b und einer Tastatur 17c, und eine externe Schnittstelleneinheit 18, die einen Softwaretreiber zur Ausführung einer Datenkommunikation gemäß dem RS-422- Kommunikationsformat mit dem Festplattenarray 2 bereit.
  • Der Systembus 5 ist ein Block zur Ausführung der Kommunikation der Videodaten, Befehlsdaten, Adressendaten usw. im Computer 1 und besteht aus einem Bilddatenbus 5a zur Übertragung von Videodaten und einem Befehlsdatenbus 5b zur Übertragung eines Steuerungssignals. Mit dem Bilddatenbus 5a sind jeweils der erste und zweite Videoprozessor 11 und 12, der Anzeigekontroller 13, die HDD-Schnittstelle 15 und die FDD- Schnittstelle 16 verbunden. Infolgedessen sind der erste Videoprozessor 11, der zweite Videoprozessor 12, der Anzeigekontroller 13, die HDD-Schnittstelle 15 und die FDD- Schnittstelle 16 über den Datenbus 5a verbunden, und so können Videodaten zwischen den Blöcken übertragen werden. Andererseits sind die CPU 10, der erste Videoprozessor 11, der zweite Videoprozessor 12, der Anzeigekontroller 13, die HDD- Schnittstelle 15, die FDD-Schnittstelle 16, die Zeigeinrichtungs-Schnittstelle 17 und die externe Schnittstelleneinheit 18 mit dem Befehlsdatenbus 5b verbunden. Das heißt, alle Blöcke im Computer 1 sind über den Befehlsdatenbus 5b verbunden.
  • Die CPU 10 ist ein Block zum Steuern des ganzen Computers. Die CPU 10 stellt einen ROM 10a, in welchem ein Betriebssystem des Computers 1 gespeichert ist, und einen RAM 10b, in welchem ein auf der Festplatte 15a aufgezeichnetes Anwendungsprogramm durch Hinaufladen gespeichert ist, bereit. Beim Hochfahren des Computers 1 führt die CPU 10 ein Softwareprogramm entsprechend dem im RCM 10a gespeicherten Betriebssystem aus. Außerdem liest die CPU 10 bei der Ausführung einer Anwendung unter diesem Betriebssystem das Anwendungsprogramm aus, das auf der Festplatte des Festplattenlaufwerks 15a gespeichert worden ist, und lädt auf den RAM 10b in der CPU 10 hinauf.
  • Der erste Videoprozessor 11 ist ein Block zum Empfang und zur Umwandlung des in den Computer 1 eingegebenen ersten Videomischsignals und zur vorübergehenden Pufferung des so umgewandelten Videomischsignals. Konkret weist der erste Videoprozessor 11 einen Prozessorkontroller 11a zur Kontrolle bzw. Steuerung des Ganzen des Videoprozessors 11, eine Datenumwandlungseinheit 11b zur Umwandlung eines empfangenen analogen Videomischsignals in digitale Komponentenvideodaten und einen Rahmenspeicher 11c zur vorübergehenden Speicherung der Videodaten für mehrere Rahmen, die von der Datenumwandlungseinheit 11b ausgegeben werden, auf.
  • Der Prozessorkontroller 11a gibt an die Datenumwandlungseinheit 11b ein Steuerungssignal zur Datenumwandlung und ein Steuerungssignal zur Extraktion eines Zeitcodes aus dem eingegebenen Videomischsignal V2 aus. Außerdem gibt der Prozessorkontroller 11a ein Steuerungssignal zur Steuerung eines Lese/Schreib-Timings und einer Lese/Schreib-Adresse des Rahmenspeichers 11c aus. Konkret steuert der Prozessorkontroller 11a das Lesetiming des Rahmenspeichers so, dass ein an einen Anzeigekontroller 13 ausgegebener Zeitcode mit Videodaten. (Rahmendaten) korrespondiert.
  • Die Datenumwandlungseinheit 11b wandelt ein analoges Videomischsignal auf der Basis eines Steuerungssignals aus dem Prozessorkontroller 11a in ein Komponentenvideosignal um, und wandelt es dann in digitale Videodaten um. Zu diesem Zeitpunkt werden Zeitcodedaten extrahiert. Die digital umgewandelten Videodaten werden an den Rahmenspeicher 11c ausgegeben, und der extrahierte Zeitcode wird an den Prozessorkontroller 11a ausgegeben.
  • Als nächstes wird die Art und Weise der Übertragung und Extraktion des Zeitcodes beschrieben. Das Videomischsignal V2 ist ein analoges Videomischsignal, bei dem ein Zeitcode in der Vertikalsynchronisierungsperiode des Videoeingangsignals 51 überlagert worden ist. Dieser Zeitcode ist ein in zwei Linien bzw. Zeilen von 14H und 16H oder 12H und 14H in der mit VITC (Vertical Interval Time Code = Vertikalintervall- Zeitcode) bezeichneten Vertikaleaustastperiode eingesetztes Signal. Bei dieser Ausführungsform wird als dieser Zeitcode ein von einem mit einem externen Rundfunksendesystem synchronisierender Zeitcodegenerator erzeugter Zeitcode verwendet, jedoch kann durch Bereitstellen des Zeitcodegenerators in ei¬ nem Festplattenarray 2 ein von einem internen Generator erzeugter Zeitcode verwendet werden. Wie oben beschrieben wird bei dieser Ausführungsform dem Mischsignal ein codierter Zeitcode überlagert. In dem Fall, dass dieser Zeitcode aus dem Videomischsignal extrahiert wird, kann beim Umwandeln eines analogen Signals in digitale Daten leicht ein Zeitcode extrahiert werden, indem nur ein digital umgewandelter Zeitcode in der Vertikalsynchronisierungsperiode decodiert wird.
  • Die digital umgewandelten Videodaten werden im Rahmenspeicher 11c vorübergehend gespeichert. Das Lese/Schreib- Timing dieses Rahmenspeichers 11c wird vom Prozessorkontroller 11a kontrolliert bzw. gesteuert. Der Rahmenspeicher 11c besteht aus zwei Rahmenspeichern, deren jeder die Kapazität 1MByte aufweist. Insgesamt weist er die Kapazität 4MByte auf. Die im Rahmenspeicher 11c gespeicherten Videodaten sind Videodaten aus 1520 Pixel mal 960 Pixel, und es können im obigen Rahmenspeicher Videodaten für zwei Rahmen gespeichert werden. Die Videodaten aus 1520 Pixel mal 960 Pixel werden entsprechend der Auslesesteuerung des Prozessorkontrollers 11a ausgelesen. Die aus dem Rahmenspeicher 11c ausgelesenen Videodaten sind nicht Videodaten aus 1520 Pixel mal 960 Pixel, das heißt allen Pixeln, sondern Videodaten, bei denen die Datenmenge so verdünnt ist, dass sie 380 Pixel mal 240 Pixel geworden sind. Hier bedeutet das Verdünnender Daten¬ menge einfach die Reduzierung der ausgelesenen Videodatenmenge durch Reduzierung der Abtastrate der aus dem Rahmenspeicher 11c ausgelesenen Videodaten auf 1/4. Die ausgelesenen Videodaten aus 380 Pixel mal 240 Pixel werden durch den Bilddatenbus 5a an den Anzeigekontroller 13 ausgegeben.
  • Der zweite Videoprozessor 12 weist komplett die gleiche Struktur wie der erste Videoprozessor auf. Das heißt der Prozessor 12 weist einen Prozessorkontroller 12a zur Steuerung des Ganzen des Videoprozessors 12, eine Datenumwandlungseinheit 12b zur Umwandlung eines empfangenen analogen zusammengesetzten Videosignals in digitale Komponentenvideodaten und einen Rahmenspeicher 12c zur vorübergehenden Speicherung von aus der Datenumwandlungseinheit 12b ausgegebenen Videodaten für mehrere Rahmen auf. Der unterschiedliche Punkt zwischen dem ersten Videoprozessor 11 und dem zweiten Videoprozessor liegt darin, dass in den ersten Videoprozessor 11 das Videomischsignal V2 eingegeben wird, in den zweiten Videoprozessor 12 dagegen ein Videomischsignal V3 eingegeben wird.
  • Das zusammengesetzte Videosignal V2 ist ein Videosignal, bei dem in der Vertikalsynchronisierungsperiode des Eingangsvideosignals V1 im Festplattenarray 2 ein Zeitcode überlagert ist, und deshalb ist es das gleiche Videosignal wie ein zeitlich in Realzeit eingegebenes Eingangsvideosignal. Das heißt, die im Rahmenspeicher 11c gespeicherten Videodaten sind die gleichen Videodaten wie ein Videosignal, bei dem das Eingangsvideosignal digitalisiert ist.
  • Das Videomischsignal V3 ist ein vom Festplattenarray durch den Befehl aus dem Computer 1 wiedergegebenes Videosignal. Demgemäss ist das Videomischsignal V3 ein Videosignal, das zeitlich nicht das Eingangsvideosignal V1 betrifft. Dies wird nachfolgend detailliert beschrieben. Ist die Bedienungsperson angewiesen, gewünschte Videodaten an den Computer 1 wiederzugeben, gibt der Computer 1 einen Wiedergabebefehl an das Festplattenarray 2 aus. Das Festplattenarray 2 gibt von der Bedienungsperson zugeordnete Videodaten und einen damit korrespondierenden Zeitcode in Abhängigkeit von dem Befehl aus dem Computer 1 wieder. Es sei darauf hingewiesen, dass ein Zeitcode und Videodaten so gespeichert sind, dass sie für jede Rahmeneinheit miteinander korrespondieren. Die detaillierte Struktur im Festplattenarray wird später beschrieben.
  • Dann wird in der Vertikalsynchronisierungsperiode der wiedergegebenen Videodaten ein wiedergegebener Zeitcode überlagert. Danach werden die Videodaten zur Übertragung zum Computer 1 in das analoge Videomischsignal V3 umgewandelt und an diesen ausgegeben.
  • Das dem zweiten Prozessor zugeführte Videomischsignal V3 wird ähnlich wie das dem ersten Videoprozessor zugeführte Videomischsignal als digitale Videodaten aus 380 Pixel mal 240 Pixel über die Datenumwandlungseinheit 12b und den Rahmenspeicher 12c zum Anzeigekontroller 13 übertragen.
  • Der Anzeigekontroller 13 ist ein Steuerungsblock zur Steuerung von auf dem Monitor 14 angezeigten Daten. Der Anzeigekontroller 13 weist einen Speicherkontroller 13a und einen VRAM (Video Random Access Memory = Video- Direktzugriffsspeicher) 13b auf. Der Speicherkontroller 13a steuert das Lese/Schreib-Timing des VRAM 14b entsprechend der internen Synchronisation im Computer 1. Im VRAM 13b werden entsprechend einem Timingsteuerungssignal aus dem Speicherkontroller 14a Videodaten aus dem Rahmenspeicher 11c des ersten Videoprozessors 11, Videodaten aus dem Rahmenspeicher 12c des zweiten Videoprozessors 12 und Bilddaten aus der CPU 10 gespeichert. Die im VRAM 13b gespeicherten Bilddaten werden aus dem VRAM 13b entsprechend dem auf der internen Synchronisation des Computers basierenden Timingsteuerungssignal aus dem Speicherkontroller 12b, gelesen und dann auf dem Videomonitor 14 graphisch angezeigt. Die in der obigen Art und Weise auf dem Monitor 14 angezeigte graphische Anzeige wird eine graphische Anzeige für eine GUI. Hier sind die von der CPU 10 an den VRAM 13b ausgegebenen Bilddaten solche Bilddaten wie beispielsweise ein Fenster, ein Cursor und/oder eine Bildlaufleiste. Die graphische Anzeige für die GUI kann durch Anzeigen dieser mehreren Typen von Bilddaten auf dem Monitor erhalten werden.
  • Die Festplatten-Schnittstelle 15 ist ein Block zum Schnittstellenverbinden mit dem im Computer 1 vorhandenen lokalen Festplattenlaufwerk (HDD) 15a. Die Kommunikation zwischen der Festplatten-Schnittstelle 15 und dem Festplattenlaufwerk 15a wird entsprechend dem Übertragungsformat der SCSI-Schnittstelle (SCSI = Small Computer System Interface = Kleincomputersystem-Schnittstelle) ausgeführt. Im Festplattenlaufwerk 15a ist ein Anwendungsprogramm zum. Hochfahren durch den Computer 1 installiert, so dass es beim Ausführen des Anwendungsprogramms aus dem Festplattenlaufwerk 15a ausgelesen und auf den RAM 11b hinaufgeladen wird. Außerdem wird bei Beendigung dieses Anwendungsprogramms eine von der im RAM 11b gespeicherten Editieroperation gebildete Arbeitsdatei auf die Festplatte 15a heruntergeladen.
  • Die Disketten-Schnittstelle 16 ist ein Block zum Schnittstellenverbinden mit dem im Computer 1 vorhandenen Diskettenlaufwerk (FDD) 16a. Die Kommunikation zwischen der Disketten-Schnittstelle 16 und dem Diskettenlaufwerk 16a wird entsprechend dem SCSI-Übertragungsformat ausgeführt. Im Diskettenlaufwerk 16a ist die EDL (Edit Decision List = Editierentscheidungsliste), die das Editionsergebnis der Editieroperation zeigt, gespeichert.
  • Die Zeigereinrichtungs-Schnittstelle 17 ist ein Block zum Schnittstellenverbinden mit der Maus 17a, dem Bedienfeld 17b und der Tastatur 17c, die mit dem Computer 1 verbunden sind. Die Zeigereinrichtungs-Schnittstelle 17 empfängt von der Maus 17a beispielsweise eine Detektionsinformation eines in der Maus 17a vorhanden zweidimensionalen Drehcodierers und eine Klickinformation der auf der Maus 17a vorgesehenen linken und rechten Taste. Die Zeigereinrichtungs-Schnittstelle 17 decodiert die empfangene Information und gibt sie an die CPU 10 aus. Ähnlich empfängt die Zeigereinrichtungs- Schnittstelle 17 Information aus dem Bedienfeld 17b und der Tastatur 17c, um die empfangene Information zu decodieren und sie an die CPU 10 auszugeben.
  • Die externe Schnittstelle 18 ist ein extern mit dem Computer 1 verbundener Block zur Kommunikation mit dem Festplattenarray 2. Die externe Schnittstelle 18 weist einen RS-422- Treiber zur Umwandlung von in der CPU 10 erzeugten Befehlsda¬ ten für ein RS-422-Kommunikationsprotokoll auf.
  • [Beschreibung der graphischen Anzeige für die GUI]
  • Nachfolgend Wird eine graphische Anzeige für die GUI anhand der Fig. 3 beschrieben. Die graphische Anzeige auf dem Monitor 14 ist grob in zehn Bereiche eingeteilt: einen Aufzeichnungsvideoanzeigebereich 21, einen Timinganzeigebereich 22, einen Wiedergabevideoanzeigebereich 23, einen Aufzeichnungsvideomarkierungsbereich 24, einen Wiedergabegeschwindigkeitseinstellungsbereich 25, einen Rückgewinnungsboxbereich 26 mit den Zeichen "RECYCLE BOX", einen wiedergabevideomarkierungsbereich 27, einen Clipanzeigebereich 28 mit den Zeichen "CLIP", einen Ereignisanzeigebereich 29 mit den Zeichen "EVENT" und einen Programmanzeigebereich 30 mit den Zeichen "PROGRAM". Diese Bereiche werden in der obigen Reihenfolge jeweils beschrieben.
  • Der Aufzeichnungsvideoanzeigebereich 21 weist einen Aufzeichnungsvideoschirm 21a, einen Aufzeichnungsstartpunktanzeigeabschnitt 21b mit den Zeichen "REC START", einen Speicherverbleibzeitanzeigeabschnitt 21c mit den Zeichen "REMAIN" und einen Aufzeichnungsanzeigeabschnitt 21d mit den Zeichen "REC" auf.
  • Ein auf dem Aufzeichnungsvideoschirm 21a angezeigtes Videosignal ist ein Videosignal, das von dem vom Festplattenarray 2 ausgegebenen Videomischsignal V2 erhalten wird, wobei das vom Rahmenspeicher 11c dem VRAM 13b zugeführte Videosignal 380 Pixel · 240 Pixel aufweist.
  • Beim Aufzeichnungsstartpunktanzeigeabschnitt 21b wird vom Festplattenarray 2 ein den Zeitpunkt, bei dem die Aufzeichnung des auf dem Aufzeichnungsvideoschirm 21a angezeigten Videosignals gestartet wird, anzeigender Zeitcode angezeigt.
  • Beim Speicherverbleibzeitanzeigeabschnitt 21c wird die restliche bzw. verbleibende Zeit des Speichers des Festplattenarrays 2 angezeigt. Die Operation dieser Verbleibzeit kann leicht von der aufzeichenbaren Zeit des Festplattenarrays 2 durch Subtrahieren der die Aufzeichnung startenden Zeit von der gegenwärtigen Zeit subtrahierenden Zeit erhalten werden, da die ganze Kapazität des Festplattenarrays 2 vorher eingestellt worden ist.
  • Der Timinganzeigebereich 22 weist einen Einminutentaktanzeigeabschnitt 22a, einen Zeitanzeigeabschnitt 22b, einen Eingangsvideosignalzeitcodeanzeigeabschnitt 22c, einen Wie¬ dergabevideosignalzeitcodeanzeigeabschnitt 22d, einen mit "ON AIR" bezeichneten Rundfunksendeanzeigeabschnitt 22e, eine mit. "MODE" bezeichnete Modustaste 22f, eine mit "PREROLL" bezeichnete Vorrolltaste 22g und eine mit "DMC" (DMC = Dynamic Motion Control = dynamische Bewegungssteuerung) bezeichnete Wiedergabegeschwindigkeitseinstelltaste 22h auf.
  • Der Einminutentaktanzeigeabschnitt 22a ist ein Bereich zum Zählen einer Minute (oder von drei Minuten) in der Einheit Sekunde und zu ihrer visuellen Anzeige. Ist die Zählung vorbei, wird die Farbe des Anzeigeabschnitts Sekunde um Sekunde geändert, und deshalb kann die Bedienungsperson die verstreichende Zeit visuell erfassen. Wird gesagt, dass dieser Einminutenanzeigeteil 22a in der Situation, bei der eine Minute gezählt wird, verwendet ist, wird er bei vorausschauender Betrachtung des erzeugten Programms beispielsweise bei der Zuordnung eines AUS-Punktes nach dem Zählen einer Minute ab dem Zeitpunkt der Zuordnung eines EIN-Punktes und dem Zählen einer Minute ab dem Start der Vorausschau verwendet.
  • Im Zeitanzeigeabschnitt 22b wird die gegenwärtige Zeit angezeigt. Beim Aufzeichnungsvideosignalzeitcodeanzeigeabschnitt 22c wird ein mit dem beim Aufzeichnungsvideoanzeige¬ bereich 21 angezeigten Videosignal korrespondierender Zeitcode angezeigt. Dieser Zeitcode ist ein vom Prozessorkontroller 11a im ersten Videoprozessor 11 von der Vertikalsynchronisierungsperiode des Videomischsignals V2 extrahierter Zeitcode.
  • Beim Wiedergabevideosignalzeitcodeanzeigeabschnitt 22c wird ein mit dem beim Wiedergabevideo-Anzeigebereich 23 angezeigten Videosignal korrespondierender Zeitcode angezeigt. Dieser Zeitcode ist ein vom Prozessorkontroller 12a im zweiten Videoprozessor 12 aus der Vertikalsynchronisationsperiode des Videomischsignals V3 extrahierter Zeitcode.
  • Wenn von einer externen Einrichtung ein Rundfunksenden anzeigendes verzögertes Signal zugeführt wird, ändert sich die Anzeigefarbe des Rundfunksendeanzeigeabschnitts 22e auf rot. Dieses Rundfunksenden anzeigende Signal ist ein Signal, das zugeführt wird, wenn das vom Festplattenarray 2 ausgegebene Videomischsignal V3 rundfunkgesendet wird. Wie oben ist die Farbe des Rundfunksendeanzeigeabschnitts 22e variabel, und so kann die Bedienungsperson das Rundfunksenden visuell erfassen.
  • Die Modustaste 22f ist ein Taste, die beim Schalten zwischen einem Bildmodus zur Anzeige eines wie beispielsweise in Fig. 3 gezeigten Graphikbildes und einem Zeitlinienmodus zur Anzeige einer Zeitlinie verwendet wird. Beim Anklicken der Modustaste 22f mit der Maus 17a wird der Modus zwischen dem Bildmodus und dem Zeitlinienmodus geschaltet.
  • Es sei darauf hingewiesen, dass später beschrieben wird, wie die Vorrolltaste 22g und die Wiedergabegeschwindigkeits- Einstelltaste (DMC: Dynamic Motion Control) 22h zu verwenden sind.
  • Beim Wiedergabevideo-Anzeigebereich 23 sind ein Wiedergabevideoschirm 23a, eine Hin-und-Herbewegungstaste 23b, Suchlauftasten bzw. Tippschalter 23c und ein Wiedergabezustandsanzeigeabschnitt 23d mit den Zeichen "PLAY" vorgesehen.
  • Ein auf den Wiedergabevideoschirm 23a angezeigtes Video¬ signal ist ein Videosignal, das von dem vom Festplattenarray 2 wiedergegebenen Videomischsignal V3 erhalten wird und vom Rahmenspeicher 12c dem VRAM 13b zugeführt wird, so dass es gleich 380 Pixel · 240 Pixel ist.
  • Die Hin-und-Herbewegungstaste 23b wird verwendet, wenn das Revue passieren Lassen bzw. Überprüfen (Bildsuchlaufsenden) der vom Festplattenarray 2 wiedergegebenen und auf dem Wiedergabevideoschirm 23a angezeigten Videodaten gewünscht ist. Wird die Hin-und-Herbewegungstaste 23b in der Richtung gezogen, bei der die Videodaten durch Zuordnen mit der Maus 17b gesendet werden sollen, wird eine Wiedergabesteuerung des Festplattenarrays 2 entsprechend dem Zug ausgeführt.
  • Die Tippschalter 23c werden verwendet, wenn der Benutzer die vom Festplattenarray 2 wiedergegebenen und auf dem Wiedergabevideoschirm 23a angezeigten Videodaten Rahmen um Rahmen bzw. rahmenweise senden will. Will der Benutzer die auf dem Wiedergabevideoschirm 23a angezeigten Videodaten rahmenweise senden, muss der Benutzer den Tippschalter 23c in der Richtung zum rahmenweisen Senden klicken, wodurch die Wiedergabevideodaten rahmenweise gesendet werden.
  • Beim Wiedergabezustandsanzeigeabschnitt 23d werden die Zeichen "PLAY" oder STILL" angezeigt. Sind die auf dem Wiedergabevideoschirm 23a angezeigten Videodaten ein vom Festplattenarray 2 wiedergegebenes Bewegtbild, werden die Zeichen "PLAY" angezeigt, und wenn die auf dem Wiedergabevideoschirm 23a angezeigten Videodaten ein vom Festplattenarray 2 wiedergegebenes statisches Bild sind, werden die Zeichen "STILL" angezeigt.
  • Der Aufzeichnungsvideomarkierungsbereich 24 ist ein Bereich, der benutzt wird, wenn die geclippten Bilddaten eines EIN-Punktes oder eines AUS-Punktes von den auf dem Aufzeichnungsvideoschirm angezeigten Videodaten markiert wird. Hier bedeutet "Markieren" das Zuordnen oder Setzen eines EIN- Punktes oder eines AUS-Punktes. Außerdem bedeutet hier "Clipbild" ein "statisches Bild". Der Aufzeichnungsvideomarkierungsbereich 24 weist einen EIN-Clipanzeigebereich 24a bei den Zeichen "IN", einen Zeitcodeanzeigeabschnitt 24b, eine Markierungs-EIN-Taste 24c, einen AUS-Clipanzeigebereich 24d bei den Zeichen "OUT", einen Zeitcodeanzeigeabschnitt 24e und eine Markierungs-AUS-Taste 24f auf.
  • Der EIN-Clipanzeigebereich 24a ist ein Bereich mit den Clipbilddaten des EIN-Punktes, der von der Bedienungsperson durch Anklicken der Markierungs-EIN-Taste 24c als ein EIN- Punkt markiert worden ist. Diese im EIN-Clipanzeigebereich 24a angezeigten Clipbilddaten sind Bilddaten, die von dem vom Festplattenarray 2 ausgegebenen und dem VRAM 13b zugeführten zusammengesetzten Videosignal V2 erhalten werden, so dass sie 95 Pixel · 60 Pixel sind.
  • Beim Zeitcodeanzeigeabschnitt 24b wird ein Zeitcode der auf den EIN-Clipanzeigebereich 24a angezeigten Clipbilddaten angezeigt. Dieser Zeitcode ist ein vom Prozessorkontroller 12a des ersten Videoprozessors 11 beim Markieren eines EIN- Punktes durch klicken der Markierungs-EIN-Taste 24c durch eine Bedienungsperson aus dem Videomischsignal extrahierter Zeitcode.
  • Die Markierungs-EIN-Taste 24c ist eine Taste zum Markieren eines EIN-Punktes. Die Bedienungsperson klickt diese Taste, während sie die auf dem Aufzeichnungsvideoschirm 21a angezeigten Videodaten betrachtet. Beim Klicken der Taste 24c werden aus den auf dem Aufzeichnungsvideoschirm 21a zu diesem Zeitpunkt angezeigten Videodaten Clipbilddaten (95 Pixel · 60 Pixel) erzeugt, und die so erzeugten Clipbilddaten werden im EIN-Clipanzeigebereich 24a angezeigt. Die Beschreibung der konkreten Operation wird später gegeben.
  • Der AUS-Clipanzeigebereich 24d ist ein Bereich zum Anzeigen der Clipbilddaten des AUS-Punktes, der von der Bedienungsperson durch Klicken der Markierungs-AUS-Taste 24f markiert worden ist. Diese auf dem AUS-Clipanzeigebereich 24b angezeigten Clipbilddaten sind Bilddaten, die aus dem von dem Festplattenarray 2 ausgegebenen und dem VRAM 13b zugeführten Videomischsignal V2 erhalten werden, so dass sie gleich 95 Pixel · 60 Pixel sind.
  • Beim Zeitcodeanzeigeabschnitt 24e wird ein Zeitcode der auf dem AUS-Clipanzeigebereich 24a angezeigten Clipbilddaten angezeigt. Dieser Zeitcode ist ein vom Prozessorkontroller 12a des ersten Videoprozessors 11 beim Markieren eines AUS- Punktes durch klicken der Markierungs-AUS-Taste 24c durch eine Bedienungsperson aus dem Videomischsignal extrahierter Zeitcode.
  • Die Markierungs-AUS-Taste 24c ist eine Taste zum Markieren eines AUS-Punktes. Die Bedienungsperson klickt die Mar¬ kierungs-AUS-Taste 24c, während sie die auf dem Aufzeichnungsvideoschirm 21a angezeigten Videodaten betrachtet. Beim Klicken der Taste 24c werden von den zu diesem Zeitpunkt auf dem Aufzeichnungsvideoschirm 21a angezeigten Videodaten geclippte Bilddaten (95 mal 60 Pixel) erzeugt, und die so erzeugten Clipbilddaten werden im AUS-Clipanzeigebereich 24d angezeigt. Die Beschreibung dieser konkreten Operation wird später gegeben.
  • Die Rückgewinnungsbox 26 ist ein Bereich, der benutzt wird, wenn die erzeugten Clipbilddaten gelöscht werden. Beim Löschen ordnet der Benutzer die geclippten Bilddaten mit der Maus zu und zieht die geclippten Bilddaten auf den Bereich der Rückgewinnungsbox 26, wodurch das Löschen ausgeführt wird. Beim Wiederherstellen der gelöschten Clipbilddaten wird beim Klicken der Rückgewinnungsbox 26 das Ganze der bei der Rückgewinnungsbox 26 fallengelassenen Clipbilddaten angezeigt. Beim Zeigen auf Clipbilddaten, die aus diesen wiederhergestellt werden sollen, werden die zugeordneten Clipbilddaten wieder hergestellt.
  • Der Wiedergabevideomarkierungsbereich 27 ist ein Bereich, der benutzt wird, wenn Clipbilddaten eines EIN-Punktes oder AUS-Punktes von den auf dem Wiedergabevideoschirm 23a angezeigten Videodaten markiert werden. Dieser Wiedergabevideomarkierungsbereich 27 weist einen EIN-Clipanzeigebereich 27a bei den Zeichen "IN", einen Zeitcodeanzeigeabschnitt 27b, eine Markierungs-EIN-Taste 27c, einen AUS-Clipanzeigebereich 27d bei den Zeichen "OUT", einen Zeitcodeanzeigeabschnitt 27e und eine Markierungs-AUS-Taste 27f auf.
  • Der EIN-Clipanzeigebereich 27a ist ein Bereich zum Anzeigen der Clipbilddäten, die von der Bedienungsperson durch Klicken der Markierungs-EIN-Taste 27c als ein EIN-Punkt markiert worden sind. Die im EIN-Olipanzeigebereich 27a angezeigten Clipbilddaten werden aus dem vom Festplattenarray 2 ausgegebenen und vom Rahmenspeicher 12c den VRAM 13b zugeführten Videomischsignal V2 erhalten, so dass sie gleich 95 mal 60 Pixel sind.
  • Im Zeitcodeanzeigeabschnitt 27b wird ein Zeitcode der im EIN-Clipanzeigebereich 27a angezeigten Clipbilddaten angezeigt. Dieser Zeitcode ist ein Zeitcode, der aus dem vom Videomischsignal V3 durch den Prozessorkontroller 12a des zweiten Videoprozessors 12 beim Markieren eines EIN-Punktes durch Klicken des Markierungs-EIN-Taste 27c durch die Bedienungsperson extrahiert wurde.
  • Die Markierungs-EIN-Taste 27c ist eine Taste zum Markieren eines EIN-Punktes. Die Bedienungsperson klickt diese Markierungs-EIN-Taste 27c, während sie die auf dem Wiedergabevideoschirm 23a angezeigten Videodaten betrachtet. Beim Klicken der Taste 27c werden aus den auf dem Wiedergabevideoschirm 23a zu diesem Zeitpunkt angezeigten Videodaten Clipbilddaten (95 mal 60 Pixel) erzeugt, und die so erzeugten Clipbilddaten werden im EIN-Clipanzeigebereich 27a angezeigt. Die Beschreibung der konkreten Operation wird später gegeben.
  • Der AUS-Clipanzeigebereich 27d ist ein Bereich zum Anzeigen der Clipbilddaten eines AUS-Punktes, der von der Bedienungsperson durch Klicken der Markierungs-AUS-Taste 27f markiert worden ist. Die im AUS-Clipanzeigebereich 27d angezeigten Clipbilddaten sind Bilddaten, die von den vom Festplattenarray 2 ausgegebenen und vom Rahmenspeicher 12c dem VRAM 13b zugeführten Videomischsignal V3 erhalten werden, so dass sie gleich 95 Pixel · 60 Pixel sind.
  • Im Zeitcodeanzeigeabschnitt 27e wird ein Zeitcode der im AUS-Clipanzeigebereich 27a angezeigten Clipbilddaten angezeigt. Der Zeitcode ist ein Zeitcode, der aus dem vom Prozes¬ sorkontroller 12a des zweiten Videoprozessors 12 extrahiert worden ist, wenn die Bedienungsperson durch Klicken der Markierungs-AUS-Taste 24f einen AUS-Punkt markiert hat.
  • Die Markierungs-AUS-Taste 27f ist eine Taste zum Markieren eines AUS-Punktes. Die Bedienungsperson sollte diese Markierungs-AUS-Taste 27f anklicken, während sie die auf dem Wiedergabevideoschirm 23a angezeigten Videodaten betrachtet. Beim Klicken der Taste 27f werden von den zu diesem Zeitpunkt auf dem Wiedergabevideoschirm 23a angezeigten Videodaten Clipbilddaten (95 Pixel · 60 Pixel) erzeugt, und die so erzeugten Clipbilddaten werden im AUS-Clipanzeigebereich 27d angezeigt. Die Beschreibung der konkreten Operation wird später gegeben.
  • Der Clipanzeigebereich 28 ist ein Bereich zum Anzeigen der Clipbilddaten, die durch Klicken der Markierungs-EIN- Taste 24c und der AUS- Markierungstaste 24f, die im Aufzeichnungsvideomarkierungsbereich 24 vorgesehen sind, markiert worden sind, und der Clipbilddaten, die durch Klicken der im Wiedergabevideomarkierungsbereich 27 vorgesehenen Marklerungs-EIN-Taste 27c und Markierungs-AUS-Taste 27f markiert worden sind. Es sei darauf hingewiesen, dass die auf dem Clipanzeigebereich 28 angezeigten Clipbilddaten solche Clipbilddaten sind, die nicht als der EIN-Punkt und der AUS-Punkt eines Ereignisses verwendet werden. Die als ein EIN-Punkt und als ein AUS-Punkt eines Ereignisses verwendeten geclippten Bilddaten werden im Ereignisanzeigebereich 29 angezeigt. Der Clipanzeigebereich 28 weist einen Clipbilddatenanzeigebereich 28a, einen Zeitcodeanzeigeabschnitt 28b, einen Cliptypanzeigeabschnitt 28c mit den Zeichen "IN" oder "OUT", einen Clipnummeranzeigeabschnitt 28d, eine Vorwärtstaste 28e und ein Rückwärtstaste 28f auf.
  • Der Clipbilddatenanzeigebereich 28a ist ein Bereich zum Anzeigen von 95 Pixel · 60 Pixel-Clipbilddaten, die vom EIN- Clipanzeigebereich 24a oder vom AUS-Clipanzeigebereich 24d oder vom EIN-Clipanzeigebereich 27a oder vom AUS- Clipanzeigebereich 27d bewegt worden sind.
  • Im Zeitcodeanzeigeabschnitt 28b wird ein Zeitcode der auf dem Clipbildanzeigebereich 28a angezeigten Clipbilddaten angezeigt. Dieser Zeitcode wird ähnlich wie die Clipbilddaten, die vom EIN-Clipanzeigebereich 24a oder AUS- Clipanzeigebereich 24d oder EIN-Clipanzeigebereich 27a oder AUS-Clipanzeigebereich 27d zum Clipanzeigebereich 28a bewegt. Im Cliptypanzeigeabschnitt 28c sind Daten, welche die auf dem Clipbilddatenanzeigebereich 28a angezeigten Clipbilddaten zeigen, die Clipbilddaten eines EIN-Punktes oder eines AUS-Punktes. Wenn die im Clipbilddatenanzeigebereich. 28a angezeigten Clipbilddaten die aus dem EIN-Clipanzeigebereich 24a erhaltenen Clipbilddaten sind, werden rote Zeichen "IN" angezeigt. Wenn die im Clipbilddatenanzeigebereich 28a angezeigten Clipbilddaten die vom AUS-Clipanzeigebereich 24d erhaltenen Clipbilddaten sind, werden rote Zeichen "OUT" angezeigt. Sind die im Clipbilddatenanzeigebereich 28a die vom EIN-Clipanzeigebereich 27a erhaltenen Clipbilddaten, werden blaue Zeichen "IN" angezeigt. Sind die im Clipbilddatenanzeigebereich 28a angezeigten Clipbilddaten die vom AUS- Clipanzeigebereich 27d erhaltenen Clipbilddaten, werden blaue. Zeichen "OUT" angezeigt.
  • Im Clipnummeranzeigeabschnitt 28d wird eine Clipnummer angezeigt, die zu dem auf dem Clipbilddatenanzeigebereich 28a angezeigten Clipbilddaten addiert ist. Diese Clipnummer ist eine Zahl, die automatisch zu Clipbilddaten in der Ordnung addiert wird, in der diese Clipbilddaten markiert sind.
  • Die Vorwärtstaste 28e und die Rückwärtstaste 28f werden zum Vorwärts- oder Rückwärtsbewegen der Anzeige von Clipbilddaten im Clipanzeigebereich 28 verwendet. In dem Fall, dass viele Clipbilddaten erzeugt werden, kann das Ganze der Clipbilddaten nicht im Clipanzeigebereich auf dem Monitor angezeigt werden. In einem solchen Fall werden die Vorwärtstaste 28e und/oder die Rückwärtstaste 28f betätigt, um die Clipbilddaten vorwärts und/oder rückwärts zu bewegen, wodurch das Ganze der Clipbilddaten auf dem Monitor angezeigt werden kann.
  • Der Ereignisanzeigebereich 29 ist ein Bereich zum Anzeigen der Clipbilddaten des Ereignisses, das durch Klicken der im Aufzeichnungsvideomarkierungsbereich 24 vorgesehenen Markierungs-EIN-Taste 24c und Markierungs-AUS-Taste 24f in dieser Reihenfolge erzeugt wird, und der Clipbilddaten des Ereignisses, das durch Klicken der im Wiedergabevideomarkierungsbereich 27 vorgesehenen Markierungs-EIN-Taste 27c und Markierungs-AUS-Taste 27f in dieser Reihenfolge markiert wird. Pro Ereignis werden beliebige der Clipbilddaten eines EIN-Punktes oder der Clipbilddaten eines AUS-Punktes angezeigt. Der Ereignisanzeigebereich 29 weist ähnlich wie der Clipanzeigebereich 28 einen Clipbilddatenanzeigebereich 29a, einen Zeitcodeanzeigeabschnitt 29b, einen Cliptypanzeigeabschnitt 29c mit den Zeichen "IN" oder "OUT", einen Ereignisnummeranzeigeabschnitt 29d, eine Vorwärtstaste 29e und eine Rückwärtstaste 29f auf und außerdem weist der Bereich 29 einen Ereignistitelanzeigeabschnitt 29g auf.
  • Im Cliptypanzeigeabschnitt 29c zeigen Daten an, dass die im Clipbilddatenanzeigebereich 29a angezeigten Clipbilddaten welche von den Clipbilddaten eines EIN-Punktes oder die eines AUS-Punktes sind. Werden die Clipbilddaten des EIN-Punktes als Clipbilddaten des Ereignisses angezeigt, werden im Cliptypanzeigebereich die Zeichen "IN" angezeigt. Will die Bedienungsperson gerne die Clipbilddaten des AUS-Punktes anstelle der Clipbilddaten des EIN-Punktes anzeigen, soll die Bedienungsperson diesen Cliptypanzeigeabschnitt 29c anklicken, so dass die Clipbilddaten des AUS-Punktes angezeigt werden. Dann werden die Clipbilddaten des EIN-Punktes und die geklippten Bilddaten des AUS-Punktes jedes Mal, wenn der Cliptypanzeigeabschnitt 29c angeklickt wird, alternativ angezeigt.
  • Im Ereignisnummeranzeigeabschnitt 29d wird eine dem erzeugten Ereignis hinzugefügte Ereignisnummer angezeigt. Diese Ereignisnummer ist eine Zahl, die automatisch zum Ereignis addiert wird und sich nicht auf die Clipnummer bezieht.
  • Im Ereignistitelanzeigeabschnitt 29g wird ein zum Ereignis addierter Titel durch Zeichen angezeigt.
  • Im Programmanzeigebereich 30 wird eine Kopie der im Ereignisanzeigebereich 29 angezeigten Clipbilddaten des Ereignisses angezeigt. Durch Kopieren der im Ereignisanzeigebereich 29 angezeigten Clipbilddaten des Ereignisses in den Programmanzeigebereich 30 durch Ziehen können im Ereignisanzeigebereich 29 angezeigte Ereignisse frei neu angeordnet werden. Außerdem soll in dem Fall, dass eine Neuanordnung geclippter Bilddaten im Programmanzeigebereich 30 ausgeführt wird, die Bedienungsperson die Clipbilddaten eines im Programmanzeigebereich 30 angezeigten Ereignisses ziehen, um sie wieder zu dem anderen Platz im Programmanzeigebereich 30 zu bewegen, wodurch Ereignisse frei neu angeordnet werden können. In diesem Fall wird das Ereignis nicht kopiert sondern bewegt. Der Programmanzeigebereich 30 weist ähnlich wie der Ereignisanzeigebereich 29 einen Clipbilddatenanzeigebereich 30a, einen Zeitcodeanzeigeabschnitt 30b, einen Cliptypanzeigeabschnitt 30c mit den Zeichen "IN" oder "OUT", einen Ereignisnummeranzeigeabschnitt 30d, eine Vorwärtstaste 30e, eine Rückwärtstaste 30f und einen Ereignistitelanzeigeabschnitt 30g auf.
  • Eine Aufzeichnungsstarttaste 31a mit den Zeichen "START" und eine Aufzeichnungsstopptaste 31b mit den Zeichen "STOP" sind Tasten zum Ausgeben von Steuerungsbefehlen zur Aufzeichnung eines Starts und Stopps auf dem Festplattenarray 2. Beim Klicken der Aufzeichnungsstarttaste 31a erfasst die CPU 10, dass die Aufzeichnungsstarttaste 31a gedrückt wurde und befiehlt der externen Schnittstelle 18, einen Aufzeichnungsstartbefehl auszugeben. Die externe Schnittstelle 18 wandelt den Befehl von der CPU 10 in einen Aufzeichnungsstoppbefehl (REC STOP-Befehl) um, der in RS-422 definiert ist, und gibt ihn an das Festplattenarray 2 aus. Das Festplattenarray 2 stoppt das Aufzeichnen des Eingangsvideosignals V1 auf einer Festplatte in Abhängigkeit vom empfangenen Aufzeichnungsstoppbefehl. Beim Anklicken der Aufzeichnungsstopptaste 31b detektiert die CPU 10, dass die Aufzeichnungsstopptaste 31b gedrückt wurde, und befiehlt der externen Schnittstelle 18, einen Aufzeichnungstoppbefehl auszugeben. Die externe Schnittstelle 18 wandelt den Befehl von der CPU 10 in einen Aufzeichnungsstartbefehl (REC STOP-Befehl) um der in RS-422 definiert ist, und gibt ihn an das Festplattenarray 2 aus. Das Festplattenarray 2 stoppt die Aufzeichnung des Eingangsvideosignals V1 auf der Festplatte in Abhängigkeit vom empfangenen Aufzeichnungsstartbefehl.
  • Eine Vorschautaste 32 mit den Zeichen "PREVIEW" wird bei der Vorschau eines gewählten Ereignisses und Programms oder dgl. benutzt. Beim Zuordnen eines Ereignisses eines Programms oder dgl. werden die Clipbilddaten des zugeordneten Ereignisses, Programms oder dgl. im Zustand eines Stehbildes (STILL) auf dem Anzeigevideoschirm 23a angezeigt. Wird zu diesem. Zeitpunkt diese Vorschautaste 32 angeklickt, detektiert die CPU 10, dass die Vorschautaste gedrückt wurde und befiehlt der externen Schnittstelle 18, einen Wiedergabestartbefehl auszugeben. Die externe Schnittstelle 18 wandelt den Befehl von der CPU 10 in einen Wiedergabestartbefehl PLAY START um, der in RS-422 definiert ist, und gibt ihn an das Festplattenarray 2 aus. Das Festplattenarray 2 startet die Wiedergabe des Videomischsignals V3 von der Festplatte in Abhängigkeit vom empfangenen Wiedergabestartbefehl.
  • Beim neuen Erzeugen eines Ereignisses wird eine Neuereignistaste 33 mit den Zeichen "NEW EVENT" verwendet. In dem Fall, dass ein Ereignis, bei dem der EIN-Punkt und der AUS- Punkt von dem von der Bedienungsperson zugeordneten Ereignis gewechselt werden, als ein neues Ereignis registriert wird, soll die Bedienungsperson diese Neuereignistaste 33 anklicken.
  • Eine Austauschtaste 34 mit den Zeichen "REPLACE" wird benutzt, wenn der Benutzer einen EIN-Punkt und einen AUS- Punkt des gewählten Ereignisses gerne wechseln will. In dem Fall, dass der Benutzer das Ereignis, bei dem der EIN-Punkt und der AUS-Punkt von dem vom Benutzer zugeordneten Ereignis gewechselt sind, nicht als ein neues Ereignis, sondern wieder als dieses zugeordnete Ereignis einsetzt, soll die Bedienungsperson diese Austauschtaste 34 anklicken.
  • Beim Löschen eines gewählten Ereignisses oder Programms wird eine Beseitigungstaste 35 mit den Zeichen "DELETE" verwendet. Ein so gelöschtes Ereignis oder Programm wird in die Rückgewinnungsbox 26 weggeworfen.
  • [Beschreibung des Managementverfahrens von Clipbilddaten]
  • Nachfolgend wird ein Speicherungsverfahren von Clipbilddaten, Ereignisdaten und Programmdaten beschrieben. Hierbei enthalten die Clipbilddaten die Daten zur Anzeige von Clipbilddaten im Clipanzeigebereich und die Daten zum Speichern von Clipbilddaten. Ähnlich ist es bei den Ereignisdaten und den Programmdaten.
  • Zuerst werden unter Bezugnahme auf die Fig. 4 erste Managementaufzeichnungsdaten für Clipdaten, Ereignisdaten und Programmdaten beschrieben.
  • Für Clipdaten, Ereignisdaten bzw. Programmdaten sind jeweils erste Managementaufzeichnungsdaten vorgesehen. Das heißt, die ersten Managementaufzeichnungsdaten für Clipdaten sind Daten zum Verwalten bzw. Managen des Ganzen der im Clipanzeigebereich 28 angezeigten Clipbilddaten. Außerdem sind die ersten Managementaufzeichnungsdaten für Ereignisdaten Daten zum Managen des Ganzen der im Ereignisanzeigebereich 29 angezeigten Clipbilddaten. Außerdem sind die ersten Managementaufzeichnungsdaten für Programmdaten Daten zum Managen des Ganzen der im Programmanzeigebereich 30 angezeigten Clipbilddaten. Bei dieser Ausführungsform existieren für die Clipdaten, Ereignisdaten bzw. Programmdaten erste Managementaufzeichnungsdaten jeweils nur einmal.
  • Die ersten Managementaufzeichnungsdaten weisen Daten hinsichtlich eines Zeigers zu den vorhergehenden verbundenen bzw. verknüpften Daten, eines Zeigers zu den folgenden verknüpften Daten, der horizontalen Anzeigegröße für nur eine Seite, der vertikalen Anzeigegröße für nur eine Seite, einer Anzeigeposition auf dem Schirm, einer Kopfanzeigeposition und der Gesamtzahl von Verbindungen auf.
  • "Zeiger zu vorhergehenden verknüpften Daten" sind Daten, die den Zeiger der Managementaufzeichnungsdaten zeigen, die vor den ersten Managementaufzeichnungsdaten verknüpft werden. Existieren keine vorher verknüpften Managementaufzeichnungsdaten, wird der Zeiger der ersten Managementaufzeichnungsdaten selbst aufgezeichnet.
  • "Zeiger zu folgenden verknüpften Daten" sind Daten, die den Zeiger der Managementaufzeichnungsdaten zeigen, die nach den ersten Managementaufzeichnungsdaten verknüpft werden. Existieren keine nachher verknüpften Managementaufzeichnungsdaten, wird der Zeiger der ersten Managementaufzeichnungsdaten selbst aufgezeichnet.
  • "Horizontale Anzeigegröße für nur eine Seite" sind Daten, welche die maximale Anzeigenummer der Clipbilddaten anzeigen, die in jedem Anzeigebereich des Clipanzeigebereichs 28, des Ereignisanzeigebereichs 29 und des Programmanzeigebereichs 30 in der horizontalen Richtung angezeigt werden. Bei dieser Ausführungsform können 11 Clipbilddäten in jedem Anzeigebereich des Clipanzeigebereichs 28, des Ereignisanzeigebereichs 29 bzw. des Programmanzeigebereichs 30 angezeigt werden, und deshalb werden die Daten, die "elf" anzeigen, in allen Managementaufzeichnungsdaten jeweils als die horizontale Anzeigegröße für nur eine Seite aufgezeichnet.
  • "Vertikale Anzeigegröße für nur eine Seite" sind Daten, welche die maximale Anzeigenummer der Clipbilddaten, die in der vertikalen Richtung im jeweiligen Anzeigebereich des Clipanzeigebereichs 28 des Ereignisanzeigebereichs 29 und des Programmanzeigebereichs 30 angezeigt werden. Bei dieser Ausführungsform können im Clipanzeigebereich 28, Ereignisanzeigebereich 29 bzw. Programmanzeigebereich 30 jeweils nur einzelne Clipbilddaten angezeigt werden, und so werden die Daten, die "eins" anzeigen, in den jeweiligen ersten Managementaufzeichnungsdaten als die vertikale Anzeigegröße für nur eine Seite aufgezeichnet.
  • "Anzeigeposition auf dem Schirm" sind Daten, die anzeigen, in welchem Anzeigebereich die Clipbilddaten angezeigt werden. Bei dieser Ausführungsform ist auf dem Schirm der Clipanzeigebereich 28 im unteren Datenfeld angeordnet, der Ereignisanzeigebereich 29 im mittleren Datenfeld angeordnet und der Programmanzeigebereich 30 im oberen Datenfeld angeordnet. Wenn sie deshalb die ersten Managementaufzeichnungsdaten für Clipdaten sind, werden die "unteres Datenfeld" anzeigenden Daten als die Daten aufgezeichnet, welche die Anzeigeposition auf dem Schirm anzeigen, wenn sie die ersten Managementaufzeichnungsdaten für Ereignisdaten sind, werden die "mittleres Datenfeld" anzeigenden Daten als die Daten aufgezeichnet, welche die Anzeigeposition auf dem Schirm anzeigen, und wenn sie die ersten Managementaufzeichnungsdaten für Programmdaten sind, werden die "oberes Datenfeld" anzeigenden Daten als die Daten aufgezeichnet, welche die Anzeigeposition auf dem Schirm anzeigen.
  • "Kopfanzeigeposition" sind Daten, die anzeigen, von welcher Position die Anzeige der Clipbilddaten im jeweiligen Anzeigebereich des Clipanzeigebereichs 28, des Ereignisanzeigebereichs 29 und des Programmanzeigebereichs 30 gestartet wird. Bei dieser Ausführungsform können elf Clipbilddaten im Clipanzeigebereich 28 angezeigt werden, elf Clipbilddaten können im Ereignisanzeigebereich 29 angezeigt werden und elf Clipbilddaten können im Programmanzeigebereich 30 angezeigt werden, und so können insgesamt 33 Clipbilddaten angezeigt werden. Diese 33 Anzeigepositionen werden durch Addieren einer Zahl in der oberen Reihe bzw. Ordnung auf dem Schirm gemanagt. Beispielsweise wird sie wie folgt bestimmt: die Anzeigeposition des Programmanzeigebereichs 30 ist die Anzeigeposition der Zahlen 1 bis 11, die Anzeigeposition des Ereignisanzeigebereichs 29 ist die Anzeigeposition der Zahlen 12 bis 22 und die Anzeigeposition des Clipanzeigebereichs 28 ist die Anzeigeposition der Zahlen 23 bis 33. Wenn sie demgemäss die ersten Managementaufzeichnungsdaten für Clipbilddaten sind, werden die "23" anzeigenden Daten als die Daten aufgezeichnet, welche die Kopfanzeigeposition anzeigen, wenn sie die ersten Managementaufzeichnungsdaten für Ereignisdaten sind, werden die "12" anzeigenden Daten als die Daten aufgezeichnet, welche die Kopfanzeigeposition anzeigen, und wenn sie die ersten Managementaufzeichnungsdaten für Programmdaten sind, werden die "1" anzeigenden Daten als die Daten aufgezeichnet, welche die Kopfanzeigeposition anzeigen.
  • "Gesamtzahl von Verbindungen" sind Daten, die anzeigen, wie viele Managementaufzeichnungsdaten nach den ersten Managementaufzeichnungsdaten verknüpft sind.
  • Als nächstes werden nachfolgend unter Bezugnahme auf die Fig. 5 zweite Managementaufzeichnungsdaten für Clipdaten beschrieben. Die zweiten Managementaufzeichnungsdaten für Clipdaten sind Daten zum Managen der im Clipanzeigebereich 28 für jeweilige Clipbilddaten angezeigten Clipbilddaten. Deshalb existiert als diese die gleiche Zahl zweiter Managementaufzeichnungsdaten für Clipdaten wie die auf dem Clipanzeigebereich 28 angezeigten Clipbilddaten.
  • Die zweiten Managementaufzeichnungsdaten für Clipdaten weisen einen Zeiger zu den vorhergehenden verknüpften Daten, einen Zeiger zu den folgenden verknüpften Daten, ein Attribut, eine Clipbilddatenkennung, einen Cliptyp, Zeitcodedaten und eine Indexnummer der Clipbilddaten auf.
  • "Zeiger zu vorhergehenden verknüpften Daten" sind Daten, die den Zeiger der vor den zweiten Managementaufzeichnungsdaten verknüpften Managementaufzeichnungsdaten anzeigen. Da die ersten Managementaufzeichnungsdaten oder zweiten Managementaufzeichnungsdaten immer vor den zweiten Managementaufzeichnungsdaten existieren, wird der Zeiger der vorhergehenden verknüpften Daten immer aufgezeichnet.
  • "Zeiger zu den folgenden verknüpften Daten" sind Daten, die den Zeiger der nach den zweiten Managementaufzeichnungsdaten verknüpften Managementaufzeichnungsdaten anzeigen. Existieren danach keine Managementaufzeichnungsdaten, wird der Zeiger der zweiten Managementaufzeichnungsdaten selbst aufgezeichnet.
  • "Attribut" sind Daten, dir anzeigen, dass die zweiten Managementaufzeichnungsdaten für Clipdaten, Ereignisdaten oder Programmdaten sind.
  • "Clipbilddatenkennung" sind Daten, die eine Adresse anzeigen, bei denen die Clipbilddaten aufgezeichnet sind. Demgemäss kann die Adresse, bei denen die Clipbilddaten gespeichert sind, durch Bezugnahme auf die Clipbilddatenkennung in den mit den gewünschten Clipbilddaten korrespondierenden zweiten Managementaufzeichnungsdaten erhalten werden.
  • "Cliptyp" sind Daten, die anzeigen, dass die von den zweiten Managementaufzeichnungsdaten gemanagten Clipbilddaten die Clipbilddaten eines EIN-Punktes oder die Clipbilddaten eines AUS-Punktes sind.
  • "Zeitcodedaten" sind Daten, die einen Zeitcode der von den zweiten Managementaufzeichnungsdaten gemanagten Clipbild¬ daten anzeigen.
  • "Indexnummer von Clipbilddaten" ist eine Indexnummer, die zu den Clipbilddaten addiert ist. Die Indexnummer ist eine ungeachtet der Erzeugung eines EIN-Punktes, eines AUS- Punktes und eines Ereignisses zu allen in der Ordnung markierten Clipbilddaten addierte Zahl. Das heißt, sie ist die gleiche Nummer wie die im Clipnummertabellenabschnitt 28d angezeigte Clipnummer. Alle Clipbilddaten werden von der Indexnummer gemanagt.
  • Hierauf folgend werden unter Bezugnahme auf die Fig. 6 zweite Managementaufzeichnungsdaten für Ereignisdaten und Programmdaten beschrieben. Die zweiten Managementaufzeichnungsdaten für Ereignisdaten sind Daten zum Managen der im Ereignisanzeigebereich 29 für alle Clipbilddaten angezeigten Clipbilddaten. Deshalb existiert die gleiche Zahl zweiter Nanagementaufzeichnungsdaten für Ereignisdaten wie die im Ereignisanzeigebereich 29 angezeigte Zahl Clipbilddaten. Ähnlich sind die zweiten Managementaufzeichnungsdaten für Programmdaten Daten zum Managen der im Programmanzeigebereich 30 für alle angezeigten Clipbilddaten angezeigten Clipbilddaten. Deshalb existiert die gleiche Zahl zweiter Managementaufzeichnungsdaten für Programmdaten wie die Zahl der im Programmanzeigebereich 30 angezeigten Clipbilddaten.
  • Diese zweiten Managementaufzeichnungsdaten für Ereignisdaten und Programmdaten weisen den Zeiger zu den vorhergehenden verknüpften Daten, den Zeiger zu den folgenden verknüpften Daten, ein Attribut, eine Ereignisnummer, einen Titel, einen Untertitel, eine Clipbilddatenkennung des EIN-Punktes, einen Cliptyp des EIN-Punktes, Zeitcodedaten des EIN-Punktes, eine Indexnummer der Clipbilddaten eines EIN-Punktes, eine Clipbilddatenkennung des AUS-Punktes, einen Cliptyp des AUS- Punktes, Zeitcodedaten des AUS-Punktes, eine Indexnummer der Clipbilddaten eines AUS-Punktes, einen Langsamtyp, einen Symboltyp und Zeitcodedaten des Symbols auf.
  • Eine Erläuterung des Zeigers zu den vorhergehenden verknüpften Daten, des Zeigers zu den folgenden verknüpften Daten und des Attributs ist fortgelassen, da diese den vorstehend erwähnten zweiten Managementaufzeichnungsdaten für Clip ähnlich sind.
  • "Ereignisnummer" ist eine Zahl, die zu einem Ereignis in der Erzeugungsfolge addiert wird. Die Ereignisnummer wird im Ereignisnummeranzeigeabschnitt 29d angezeigt.
  • "Titel" und "Untertitel" sind ein vorher zu einem registrierten Ereignis addierter Titel und Untertitel, die in praktischen Zeichen gespeichert werden. Der Titel wird im Titelanzeigeabschnitt 29g angezeigt.
  • "Clipbilddatenkennung eines EIN-Punktes" sind Daten, die eine Adresse anzeigen, bei der die Clipbilddaten eines EIN- Punktes aufgezeichnet sind. Durch Bezugnahme auf die Clipbilddatenkennung des EIN-Punktes in den mit den gewünschten Clipbilddaten eines EIN-Punktes korrespondierenden zweiten Managementaufzeichnungsdaten kann eine Adresse, bei der die Clipbilddaten des EIN-Punktes gespeichert sind, erhalten werden.
  • "Cliptyp eines EIN-Punktes" sind Daten, die anzeigen, dass die von den zweiten Managementaufzeichnungsdaten gemanagten Clipbilddaten eines EIN-Punktes die Clipbilddaten eines EIN-Punktes oder die Clipbilddaten eines AUS-Punktes sind. Hierin wird das ganze der die Clipbilddaten eines EIN- Punktes anzeigenden Daten gespeichert.
  • "Zeitcodedaten eines EIN-Punktes" sind. Daten, die einen Zeitcode der von den zweiten Managementaufzeichnungsdaten gemanagten Clipbilddaten eines EIN-Punktes anzeigen.
  • "Indexnummer von Clipbilddaten eines EIN-Punktes" ist eine Indexnummer, die zu den Clipbilddaten eines EIN-Punktes addiert ist. Ähnlich zur vorstehend erwähnten Indexnummer in den zweiten Managementaufzeichnungsdaten für Clipbilddaten ist die Indexnummer von Clipbilddaten eines EIN-Punktes eine Zahl, die ungeachtet der Erzeugung eines EIN-Punktes, eines AUS-Punktes und/oder eines Ereignisses zum Ganzen der markierten Clipbilddaten der Reihe nach addiert wird.
  • "Clipbilddatenkennung eines AUS-Punktes" sind Daten, die eine Adresse anzeigen, bei der die Clipbilddaten eines AUS- Punktes aufgezeichnet sind. Infolgedessen kann durch Bezugnahme auf die Clipbilddatenkennung eines AUS-Punktes bei den mit den gewünschten Clipbilddaten eines AUS-Punktes korrespondierenden zweiten Managementaufzeichnungsdaten eine Adresse, bei der die gewünschten Clipbilddaten eines AUS-Punktes gespeichert sind, erhalten werden.
  • "Cliptyp eines AUS-Punktes" sind Daten, die anzeigen, dass die von den zweiten Managementaufzeichnungsdaten gemanagten Clipbilddaten eines AUS-Punktes die Clipbilddaten eines EIN-Punktes oder die Clipbilddaten eines AUS-Punktes sind. Hierin werden alle Daten gespeichert, welche die Clip¬ bilddaten eines AUS-Punktes anzeigen.
  • "Zeitcodedaten eines AUS-Punktes" sind Daten, die einen Zeitcode der von den zweiten Managementaufzeichnungsdaten gemanagten Clipbilddaten eines AUS-Punktes anzeigen.
  • "Indexnummer von Clipbilddaten eines AUS-Punktes" ist eine Indexnummer, die zu den Clipbilddaten eines AUS-Punktes addiert sind. Ähnlich wie bei der vorstehend erwähnten Indexnummer bei den zweiten Managementaufzeichnungsdaten für Clipbilddaten ist die Indexnummer der Clipbilddaten eines AUS- Punktes eine Zahl, die ungeachtet der Erzeugung eines EIN- Punktes, eines AUS-Punktes und/oder eines Ereignisses der Reihe nach addiert wird.
  • "Langsamtyp" sind Daten, die anzeigen, ob das von den zweiten Managementaufzeichnungsdaten gemanagte Ereignis oder Programm auf eine Wiedergabegeschwindigkeitssteuerung unter Verwendung des Wiedergabegeschwindigkeitseinstellbereichs 25 eingestellt ist oder auf die normale Wiedergabesteuerung eingestellt ist.
  • "Symboltyp" sind Daten, die anzeigen, ob in der Periode zwischen einem EIN-Punkt und einem AUS-Punkt eines von den zweiten Managementaufzeichnungsdaten gemanagten Ereignisses als ein Symbol definierte Clipbilddaten existieren. "Symbol" bedeutet typische Clipbilddaten, die ein Ereignis darstellen.
  • "Zeitcodedaten eines Symbols" ist ein Zeitcode der als ein Symbol gesetzten Clipbilddaten.
  • Ein Beispiel gebend wird nachfolgend beschrieben, wie Clipbilddaten durch Verwendung der vorstehend erwähnten ersten Managementaufzeichnungsdaten und zweiten Managementaufzeichnungsdaten gemanagt werden.
  • Es wird bei einem Managementverfahren der Clipbilddaten unter Bezugnahme auf die Fig. 7, 8, 9A, 9B und 9C beschrieben.
  • Das in Fig. 7 gezeigte Datenfeld "Markierung" zeigt, dass eine Markierung von EIN und/oder AUS ausgeführt wird. Bei diesem Beispiel bedeutet dies, dass von links 15 mal die Markierung EIN ("IN"), EIN ("IN"), AUS ("OUT"), EIN ("IN"), AUS ("OUT"), EIN ("IN"), EIN ("IN"), AUS ("OUT"), EIN ("IN"), AUS ("OUT"), EIN ("IN"), EIN ("IN"), EIN ("IN") ausgeführt wird. Beim Datenfeld "INDEX Nr." ist eine zu den markierten Clipbilddaten eines EIN-Punktes oder AUS-Punktes addierte Indexnummer angezeigt. Die Indexnummer ist eine ungeachtet des EIN-Punktes und AUS-Punktes der Reihe nach zu allen markierten Clipbilddaten addierte Zahl. Demgemäss ist wie in Fig. 7 gezeigt zu den jeweiligen markierten Clipbilddaten der Reihe nach die Indexnummer 1 bis 15 addiert. Beim Datenfeld "CLIP Nr." ist eine im Clipnummeranzeigebereich 28d des Clipanzeigebereichs 28 angezeigte Clipnummer gezeigt. Es sei darauf hingewiesen, dass die im Clipnummeranzeigebereich 28d angezeigte Clipnummer die gleiche Zahl wie die Indexnummer ist. Beim Datenfeld "EREIGNIS No." ist eine im Ereignisnummeranzeigebereich 29d des Ereignisanzeigebereichs 29 angezeigte Ereignisnummer gezeigt. Die Ereignisnummer ist eine Zahl, die ohne gänzlicher Beachtung der Indexnummer in der Ereigniserzeugungsordnung automatisch addiert wird.
  • Fig. 8 ist ein Diagramm, das in dem Fall, bei dem eine Markierung wie in Fig. 7 gezeigt ausgeführt wird, zeigt, welche Clipbilddaten im Clipanzeigebereich 28, im Ereignisanzeigebereich 29 und im Programmanzeigebereich 30 angezeigt werden.
  • Im Clipanzeigebereich 28 werden der Reihe nach die Clipbilddaten der Indexnummer 1, die Clipbilddaten der Indexnummer 6, die Clipbilddaten der Indexnummer 7, die Clipbilddaten der Indexnummer 12, die Clipbilddaten der Indexnummer 13 und die Clipbilddaten der Indexnummer 14 angezeigt.
  • Im Ereignisanzeigebereich 29 sind vier erzeugte Ereignisse angezeigt. Die Clipbilddaten der Indexnummer 2 sind als das Ereignis der Ereignisnummer 1 angezeigt, die Clipbilddaten der Indexnummer 4 sind als das Ereignis der Ereignisnummer 2 angezeigt, die Clipbilddaten der Indexnummer 8 sind als das Ereignis der Ereignisnummer 3 angezeigt bzw. die Clipbilddaten der Indexnummer 10 sind als das Ereignis der Ereignisnummer 4 der Reihe nach angezeigt.
  • Im Programmanzeigebereich 30 werden irgendwelche Clipbilddaten nicht nur durch Zuordnen eines EIN-Punktes und/oder eines AUS-Punktes angezeigt. Bei diesem Beispiel sei angenommen, dass das in Fig. 8 gezeigte Programm durch Neu- bzw. Umordnen der im Ereignisanzeigebereich 29 angezeigten vier Ereignisse erzeugt werden. Das Programm ist ein Programm, das in der Folge des Ereignisses der Ereignisnummer 2, des Ereig¬ nisses der Ereignisnummer 4 und des Ereignisses der Ereignisnummer 1 sukzessive ist. Infolgedessen werden im Programmanzeigebereich 30 die als das Ereignis der Ereignisnummer 2 registrierten Clipbilddaten der Indexnummer 4, die als das Ereignis der Ereignisnummer 4 registrierten Clipbilddaten der Indexnummer 10 und die als ein Ereignis der Ereignisnummer 1 registrierten Clipbilddaten der Indexnummer 2 angezeigt.
  • Fig. 9A, Fig. 9B und Fig. 9C sind Diagramme, die zeigen, wie Clipbilddaten von den ersten Managementaufzeichnungsdaten und den zweiten Managementaufzeichnungsdaten zu managen sind.
  • Fig. 9C zeigt den Zustand, bei dem die im Clipanzeigebereich 28 angezeigten Clipbilddaten gemanagt werden. Managementaufzeichnungsdaten 101 sind erste Managementaufzeichnungsdaten für Clip. Wie in der Fig. 4 gezeigt weisen diese ersten Managementaufzeichnungsdaten 101 die Daten zum Managen des ganzen Bereichs des Clipanzeigebereichs 28 und der Position der im Clipanzeigebereich angezeigten Clipbilddaten auf.
  • Managementaufzeichnungsdaten 201, die nach den ersten Managementaufzeichnungsdaten 101 verknüpft werden, sind zwei¬ te Managementaufzeichnungsdaten für Clip. Diese zweiten Managementaufzeichnungsdaten 201 sind die Daten zum Managen der Clipbilddaten der Indexnummer 1. Wie in der Fig. 5 gezeigt weisen die Managementaufzeichnungsdaten 201 die Clipbilddatenkennung auf, die eine Adresse anzeigt, bei der die Clipbilddaten der Indexnummer 1 gespeichert sind.
  • Managementaufzeichnungsdaten 206, die nach den zweiten Managementaufzeichnungsdaten 201 verknüpft sind, sind zweite Managementaufzeichnungsdaten für Clip. Diese zweiten Managementaufzeichnungsdaten 206 sind die Daten zum Managen der Clipbildanzeigedaten der Indexnummer 6 und weisen die Clipbilddatenkennung auf, die eine Adresse anzeigt, bei der die Clipbilddaten der Indexnummer 6 gespeichert sind.
  • Ähnlich sind zweite Managementaufzeichnungsdaten 207 zum Managen der Clipbilddaten der Indexnummer 7 nach den zweiten Managementaufzeichnungsdaten 206 verknüpft, sind zweite Managementaufzeichnungsdaten 212 zum Managen der. Clipbilddaten der Indexnummer 12 nach den zweiten Managementaufzeichnungsdaten 207 verknüpft, sind zweite Managementaufzeichnungsdaten 213 zum Managen der Clipbilddaten der Indexnummer 13 nach den zweiten Managementaufzeichnungsdaten 212 verknüpft, und sind zweite Managementaufzeichnungsdaten 214 zum Managen der Clipbilddaten der Indexnummer 14 nach den zweiten Managementaufzeichnungsdaten 213 verknüpft.
  • Fig. 9B zeigt den Zustand, bei dem die im Ereignisanzeigebereich 29 angezeigten Clipbilddaten gemanagt werden. Managementaufzeichnungsdaten 102 sind erste Managementaufzeichnungsdaten für ein Ereignis. Wie in der Fig. 4 gezeigt weisen diese ersten Managementaufzeichnungsdaten 102 die Daten, zum Managen des ganzen Bereichs des Ereignisanzeigebereichs 29 und der Position der im Clipanzeigebereich 29 angezeigten Clipbilddaten auf.
  • Nach den ersten Managementaufzeichnungsdaten 102 verknüpfte Managementaufzeichnungsdaten 202 sind zweite Managementaufzeichnungsdaten für Ereignis. Wie in der Fig. 6 gezeigt weisen diese zweiten Managementaufzeichnungsdaten 202 die Daten zum Managen der Clipbilddaten eines durch die Indexnummer 2 angezeigten EIN-Punktes und die Clipbilddaten eines durch die Indexnummer 3 angezeigten AUS-Punktes auf. Konkret weisen die zweiten Managementaufzeichnungsdaten 202 eine Clipbilddatenkennung eines EIN-Punktes auf, die eine Adresse der Clipbilddaten eines durch die Indexnummer 2 angezeigten EIN-Punktes anzeigt, und eine Clipbilddatenkennung eines AUS- Punktes, die eine Adresse der Clipbilddaten eines durch die Indexnummer 3 gezeigten AUS-Punktes anzeigt.
  • Ähnlich sind die zweiten Managementaufzeichnungsdaten 204 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 4 und der Clipbilddaten des AUS-Punktes der Indexnummer 5 nach den zweiten Managementaufzeichnungsdaten 202 verknüpft, sind die zweiten Managementaufzeichnungsdaten 208 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 8 und der Clipbilddaten des AUS-Punktes der Indexnummer 9 nach den zweiten Managementaufzeichnungsdaten 204 verknüpft, und sind die zweiten. Managementaufzeichnungsdaten 210 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 10 und der Clipbilddaten des AUS-Punktes der Indexnummer 11 nach den zweiten Managementaufzeichnungsdaten 208 verknüpft.
  • Fig. 9A zeigt den Zustand, bei dem die im Programmanzeigebereich 30 angezeigten Clipbilddaten gemanagt werden. Die Managementaufzeichnungsdaten 103 sind erste Managementaufzeichnungsdaten für Programm. Wie in der Fig. 4 gezeigt weisen diese ersten Managementaufzeichnungsdaten 103 die Daten zum Managen des ganzen Bereichs des Programmanzeigebereichs 30 und der Position der im Programmanzeigebereich 29 angezeigten Clipbilddaten auf.
  • Zweite Managementaufzeichnungsdaten 204 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 4 und der Clipbilddaten des AUS-Punktes der Indexnummer 5 werden nach den ersten Managementaufzeichnungsdaten 103 verknüpft, zweite Managementaufzeichnungsdaten 210 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 10 und der Clipbilddaten des AUS-Punktes der Indexnummer 11 werden nach den zweiten Managementaufzeichnungsdaten 204 verknüpft, und zweite Managementaufzeichnungsdaten 202 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 8 und der Clipbilddaten des AUS- Punktes der Indexnummer 9 werden nach den zweiten Managementaufzeichnungsdaten 210 verknüpft.
  • Hier wird versucht, Fig. 9B, die das Management der Ereignisdaten darstellt, mit der Fig. 9A, die das Management der Programmdaten darstellt, zu vergleichen. Zwischen Fig. 9A und Fig. 9B wird die Speicherordnung der Clipbilddaten der Indexnummer 2, der Clipbilddaten der Indexnummer 4 und der Clipbilddaten der Indexnummer 10 nicht vollständig geändert. Dies bedeutet, dass die Speicherungsposition der Clipbilddaten nicht vollständig geändert wird. Der unterschiedliche Punkt zwischen Fig. 9A und Fig. 9B ist der Punkt, dass die Verknüpfungsordnung der zweiten Managementaufzeichnungs¬ daten geändert ist. Das heißt, diese Erfindung ändert die Verknüpfungsordnung der zweiten Managementaufzeichnungsdaten, welche die Clipbilddaten direkt ändert, um die Anzeigeordnung von Ereignissen ohne Änderung der Speicherungsposition der ein Ereignis anzeigenden Clipbilddaten zu ändern. Deshalb hat dies die Wirkung, dass eine Änderung der Anzeigeordnung von Ereignissen mit hoher Geschwindigkeit durchgeführt werden kann.
  • Auch ist sie nicht auf die Änderung der Anzeigeordnung von Ereignissen beschränkt, sondern ist auch bei der Änderung der Anzeigeordnung der im Cliptabellenbereich 28 angezeigten Clipbilddaten ganz ähnlich. Beispielsweise ist es selbst bei einer Änderung der Anzeigeordnung der Clipbilddaten durch Löschen oder neu Hinzufügen von Clipbilddaten nicht notwendig, die Speicherposition der Clipbilddaten praktisch zu bewegen, und es ist nur notwendig, die Verknüpfungsinformation der zweiten Managementaufzeichnungsdaten zu ändern.
  • Nachfolgend werden der Reihe nach eine erste Markierung bis fünfzehnte Markierung erläutert.
  • Vor einem Starten der Markierung werden in der zu speichernden Kopfadresse eines Bereichs schon die Arbeitsdaten des RAM 10b, die ersten Managementaufzeichnungsdaten 101 für Clipdaten, die ersten Managementaufzeichnungsdaten 102 für Ereignisdaten und die ersten Managementaufzeichnungsdaten 103 für Programmdaten gebildet. Jedoch sind mit irgendwelchen Managementaufzeichnungsdaten keine zweiten Managementaufzeich¬ nungsdaten verknüpft, das heißt, ihre eigene Adresse ist als "Zeiger zu folgenden verknüpften Daten" gespeichert worden.
  • a) Erste Markierung (EIN-Punkt)
  • Nach Ausführung der ersten Markierung werden durch Steuerung eines Auslesens aus dem Rahmenspeicher 11c 95 Pixel · 60 Pixel aus Clipbilddaten gebildet. Die gebildeten Clipbilddaten werden in einem leeren Bereich des RAM 10b als die Clipbilddaten der Indexnummer 1 gespeichert. Gleichzeitig mit dem Speichern werden die gebildeten Clipbilddaten im EIN- Clipanzeigebereich 24 angezeigt. Zu diesem Zeitpunkt sind die zweiten Managementaufzeichnungsdaten 201, die diese Clipbilddaten managen, vorübergehend im Register in der CPU 10 gespeichert worden, und sie sind nicht im RAM 10b gespeichert worden, da nicht klar ist, mit welchen Managementaufzeich¬ nungsdaten diese zweiten Managementaufzeichnungsdaten 201 verknüpft werden.
  • b) Zweite Markierung (EIN-Punkt)
  • Nach Ausführung der zweiten Markierung werden ähnlich die Clipbilddaten der Indexnummer 2 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Zu diesem Zeitpunkt wird daraus, dass der EIN-Punkt zweimal aufeinanderfolgend markiert wurde, verstanden, dass die im EIN- Clipanzeigebereich 24a angezeigten Clipbilddaten der Indexnummer 1 nicht als Ereignis verwendet werden. Infolgedessen werden die im EIN-Clipanzeigebereich 24a angezeigten Clipbilddaten der Indexnummer 1 zum Clipanzeigebereich 28 bewegt. Außerdem werden durch die zweite Markierung die zweiten Managementaufzeichnungsdaten, welche die Clipbilddaten der Indexnummer 1 managen, dazu bestimmt, mit den ersten. Managementaufzeichnungsdaten 101 für Clipdaten verknüpft zu werden. Deshalb werden, wie in Fig. 9C gezeigt, die vorübergehend im Register der CPU 10 gespeicherten zweiten Managementaufzeichnungsdaten im RAM 10b gespeichert, um mit den ersten Managementaufzeichnungsdaten 101 verknüpft zu werden.
  • Andererseits werden die in der zweiten Markierung erzeugten Clipbilddaten der Indexnummer 2 im EIN- Clipanzeigebereich 24a neu angezeigt. Ähnlich wie bei der ersten Markierung werden die zweiten Managementaufzeichnungsdaten 201, welche die Clipbilddaten der Indexnummer 2 managen, vorübergehend und neu im Register in der CPU 10 gespeichert.
  • c) Dritte Markierung (AUS-Punkt)
  • Nach Ausführung der dritten Markierung werden ähnlich die Clipbilddaten der Indexnummer 3 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Da diese dritte Markierung ein AUS-Punkt ist, wird das Ereignis gebildet, bei dem die Clipbilddaten der Indexnummer 2 ein EIN-Punkt und die Clipbilddaten der Indexnummer 3 ein AUS-Punkt ist. Demgemäss werden die im EIN-Clipanzeigebereich 24a angezeigten Clipbilddaten der Indexnummer 2 bei ihrer Anzeige im EIN- Clipanzeigebereich 24a in den Ereignisanzeigebereich 28 kopiert. Außerdem werden durch die dritte Markierung die zweiten Managementaufzeichnungsdaten 202, welche die im Register gespeicherten Clipbilddaten der Indexnummer 2 managen, dazu bestimmt, mit den ersten Managementaufzeichnungsdaten 102 für Ereignisdaten verknüpft zu werden. Demgemäss werden wie in Fig. 9B die vorübergehend im Register der CPU 10 gespeicherten zweiten Managementaufzeichnungsdaten 202 im RAM 10b gespeichert, um mit den ersten Managementaufzeichnungsdaten 102 verknüpft zu werden.
  • Andererseits werden die bei der dritten Markierung erzeugten Clipbilddaten der Indexnummer 3 im AUS- Clipanzeigebereich 24d neu angezeigt. Es sei darauf hingewiesen, dass die zweiten Managementaufzeichnungsdaten 202, welche die Clipbilddaten der Indexnummer 3 managen, da sie dazu bestimmt sind, mit den ersten Managementaufzeichnungsdaten 102 verknüpft zu werden, nicht vorübergehend im Register der CPU 10 gespeichert werden.
  • d) Vierte Markierung (EIN-Punkt)
  • Nach Ausführung der vierten Markierung werden ähnlich die Clipbilddaten der Indexnummer 4 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Gleichzeitig mit dem Speichern werden die gebildeten Clipbilddaten im EIN- Clipanzeigebereich 24a angezeigt. Auch werden ähnlich wie bei der ersten Markierung die zweiten Managementaufzeichnungsdaten 204, welche die Clipbilddaten der Indexnummer 4 managen, vorübergehend im Register der CPU 10 gespeichert. Es sei darauf hingewiesen, dass die im AUS-Clipanzeigebereich 24d angezeigten Clipbilddaten der Indexnummer 3 schon aufgezeichnet worden sind und infolge dessen werden sie vom Anzeigebereich 24d weggelöscht.
  • e) Fünfte Markierung (AUS-Punkt)
  • Nach Ausführung der fünften Markierung werden ähnlich die Clipbilddaten der Indexnummer 5 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Da die fünfte Markierung ähnlich wie die dritte Markierung ein AUS-Punkt ist, wird das Ereignis gebildet, bei dem die Clipbilddaten der Indexnummer 4 ein EIN-Punkt und die Clipbilddaten der Indexnummer 5 ein AUS-Punkt Sind. Demgemäss werden die im EIN- Clipanzeigebereich 24a angezeigten Clipbilddaten der Indexnummer 4 in den Ereignisanzeigebereich 29 kopiert, wie sie im EIN-Clipanzeigebereich 24a angezeigt sind. Außerdem werden durch die fünfte Markierung die zweiten Managementaufzeichnungsdaten 204, welche die im Register gespeicherten Clipbilddaten der Indexnummer 4 managen, dazu bestimmt, mit den vorher gespeicherten zweiten Managementaufzeichnungsdaten 202 verknüpft zu werden. Demgemäss werden, wie in Fig. 9B gezeigt, die zweiten Managementaufzeichnungsdaten 204, die im Register der CPU 10 vorübergehend gespeichert worden sind, im RAM 10b gespeichert, um mit den zweiten Managementaufzeichnungsdaten 202 verknüpft zu werden.
  • Andererseits werden die bei der fünften Markierung erzeugten Clipbilddaten der Indexnummer 5 im AUS- Clipanzeigebereich 24d neu angezeigt. Es sei darauf hingewiesen, dass die zweiten Managementaufzeichnungsdaten 204, welche die Clipbilddaten der Indexnummer 5 managen, da sie dazu bestimmt sind, mit den zweiten Managementaufzeichnungsdaten 202 verknüpft zu werden, nicht im Register in der CPU 10 vorübergehend gespeichert werden.
  • f) Sechste Markierung (EIN-Punkt)
  • Nach Ausführung der sechsten Markierung werden ähnlich die Clipbilddaten der Indexnummer 6 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Gleichzeitig mit dem Speichern werden die gebildeten Clipbilddaten der Indexnummer 6 im EIN-Clipanzeigebereich 24a angezeigt. Auch werden ähnlich zur vierten Markierung die zweiten Managementaufzeichnungsdaten 206, welche die Clipbilddaten der Indexnummer 6 managen, im Register in der CPU 10 vorübergehend gespeichert. Es sei darauf hingewiesen, dass die im AUS-Clipanzeigebereich 24d angezeigten Clipbilddaten der Indexnummer 5 schon aufgezeichnet worden Sind und infolge dessen werden sie vom Anzeigebereich 24d weggelöscht.
  • g) Siebte Markierung (EIN-Punkt)
  • Nach Ausführung der siebten Markierung werden ähnlich die Clipbilddaten der Indexnummer 7 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Da der EIN-Punkt zweimal aufeinanderfolgend markiert wird, werden die im EIN- Clipanzeigebereich 24a angezeigten Clipbilddaten der Indexnummer 6 zum Clipanzeigebereich 28 bewegt. Außerdem werden durch die siebte Markierung die im Register der CPU 10 gespeicherten zweiten Managementaufzeichnungsdaten 206 im RAM 10b gespeichert, um, wie in Fig. 9C gezeigt, mit den zweiten Managementaufzeichnungsdaten 201 verknüpft zu werden. Andererseits werden die gebildeten Clipbilddaten der Indexnummer 7 im EIN-Clipanzeigebereich 24a angezeigt. Auch werden ähnlich wie bei der sechsten Markierung die zweiten Managementaufzeichnungsdaten 207, welche die Clipbilddaten der Indexnummer 7 managen, im Register in der CPU 10 vorübergehend gespeichert.
  • Die neunte bis fünfzehnte Markierung werden auf ähnlich Weise wie die erste bis siebte Markierung ausgeführt, so dass ihre Erläuterung fortgelassen ist.
  • (Beschreibung des Festplattenarrays 2]
  • Nachfolgend wird unter Bezugnahme auf die Fig. 10 das Festplattenarray 2 beschrieben. Fig. 10 zeigt den generellen Aufbau des Festplattenarrays 2.
  • Das Festplattenarray 2 weist einen Systemkontroller 70 als das Zentrum, eine Videodaten-Eingabe/Ausgabe-Einheit 71, eine Videodatenprozessoreinheit 72, eine Videodatenfestplatte 73, eine Audio-Eingabe/Ausgabe-Einheit 74, eine Audiodatenprozessoreinheit 75 und eine Audiodatenfestplatte 76 auf.
  • Der Systemkontroller 70 weist eine CPU 70a, einen Zeitcodegenerator 70b, einen DMA-Kontroller (Direct Memory Access- bzw. Direktzugriffsspeicher-Kontroller) 70c, einen SCSI-Kontroller 70d, einen DMA-Kontroller 70e und einen SCSI- Kontroller 70f auf.
  • Die CPU 70a ist eine zentrale Verarbeitungseinheit bzw. Zentraleinheit, welche die Steuerung aller Blöcke des Festplattenarrays 2 ausführt. Die CPU 70a empfängt einen von einer externen Einrichtung dem Systemkontroller zugeführten Steuerungsbefehl entsprechend dem RS-422- Kommunikationsprotokoll und steuert die DMA-Kontroller 70c und 70f und die SCSI-Kontroller 70b und 70f entsprechend dem Befehl. Die CPU 70a empfängt auch einen dem Systemkontroller 70 vom Zeitcodegenerator 70b oder der externen Einrichtung zugeführten externen Zeitcode (EXT. TC) und führt die empfangenen Zeitcodedaten der Videodaten-Eingabe/Ausgabe-Einheit 71 und der Audiodaten-Eingabe/Ausgabe-Einheit 74 zu. Außerdem weist die CPU 70 einen RAM auf, in welchem alle in der Videofestplatte 73 in jeder Rahmeneinheit gespeicherten Aufzeichnungsadressen von Videodaten und alle Zeitcodes aufgezeichneter Rahmen miteinander korrespondieren und gespeichert sind. Ähnlich sind in diesem RAM alle in der Audiofestplatte 76 in jeder Rahmeneinheit gespeicherten Aufzeichnungsadressen von Audiodaten und alle Zeitcodes aufgezeichneter Rahmen gespeichert und korrespondieren miteinander. Dadurch können allein durch Bezeichnen eines Zeitcodes Videodaten und Audiodaten von der externen Einrichtung wiedergegeben werden.
  • Der DMA-Kontroller 70c steuert eine Lesezeitsteuerung bzw. ein Lesetiming zu dem Zeitpunkt, bei dem Videodaten von den in der Videodatenprozessoreinheit 72 vorgesehenen Pufferspeichern 72b und 72e ausgelesen werden, und steuert auch eine Schreibzeitsteuerung bzw. ein Schreibtiming zu dem Zeitpunkt, bei dem Videodaten in die Pufferspeicher 72b und 72e entsprechend einem Befehl von der CPU 70a eingeschrieben werden.
  • Der SCSI-Kontroller 70d wandelt den Steuerungsbefehl von der CPU 70a, vom DMA-Kontroller MOC empfangene Videodaten in der Rahmeneinheit und sich auf die Rahmenvideodaten beziehende Zeitcodedaten in die SCSI-Kommunikatiohsbefehle um und gibt sie an die Videodatenfestplatte 73 aus. Außerdem werden die von der Festplatte 73 wiedergegebenen Videodaten vom SCSI-Kommunikationsbefehl umgewandelt und dem DMA-Kontroller 70c zugeführt.
  • Der DMA-Kontroller 70e steuert das Lesetiming zu dem Zeitpunkt, bei dem Audiodaten aus in der Audiodatenprozessoreinheit 75 vorgesehenen Pufferspeichern 75b und 75d ausgelesen werden, und steuert auch das Schreibtiming zu dem Zeitpunkt, bei dem Audiodaten in die Pufferspeicher 75b und 75d geschrieben werden.
  • Der SCSI-Kontroller 70f wandelt den Steuerungsbefehl aus der CPU 7%, vom DMA-Kontroller 70e empfangene Audiodaten in der Rahmeneinheit und sich auf die Rahmenaudiodaten beziehende Zeitcodedaten in SCSI-Kommunikationsbefehle um und gibt sie an die Audiodatenfestplatte 76 aus. Außerdem werden die von der Festplatte 76 wiedergegebenen Audiodaten vom SCSI- Kommunikationsbefehl umgewandelt und dem DMA-Kontroller 70e zugeführt.
  • Das Eingabesystem der Videodaten-Eingabe/Ausgabe-Einheit 71 besteht aus einem Decodierer 71a, in welchem das Synchronisierungssignal des Eingangsvideosignals V1 extrahiert und das Eingangsvideosignal V1 in ein Komponentensignal umgewandelt wird, und einer A/D-Wandlerschaltung 71b, in der das analoge Komponentenvideosignal in ein digitales Videosignal umgewandelt wird. Das Ausgangssystem der Videodaten- Eingabe/Ausgabe-Einheit 71 besteht aus einer D/A- Wandlerschaltung 71d, in der ein Wiedergabevideosignal eines von der Videodatenprozessoreinheit 73 zugeführten ersten Kanals analog umgewandelt wird, einem Codierer 71c, in welchem das Erstkanal-Wiedergabevideosignal in ein Mischsignal umgewandelt wird und ein Vertikalsynchronisierungssignal, dem ein Zeitcode überlagert ist, zum ausgegebenen Videomischsignal auf der Basis der Phase eines dem Systemkontroller 70 zugeführten externen Synchronisierungssignals (EXT. SYNC) addiert wird, einer D/A-Wandterschaltung 71f, in der ein von der Videodatenprozessoreinheit 72 zugeführtes Zweitkanal- Wiedergabevideosignal analog umgewandelt wird, und einem Codierer 71e, in welchem das Zweitkanal-Wiedergabevideosignal in ein Mischsignal umgewandelt wird und ein Vertikalsynchronisierungssignal, dem ein Zeitcode überlagert ist, zum ausgegebenen Videomischsignal auf der Basis der Phase des dem Systemkontroller 70 zugeführten externen Synchronisierungssignals (EXT. SYNC) addiert wird.
  • Das Eingabesystem der Videodatenprozessoreinheit 72 weist eine Kompressoreinheit 72a, in der die von der Videodaten-Eingabe/Ausgabe-Einheit 71 zugeführten Videodaten in jeder Rahmeneinheit entsprechend dem JPEG-Standard komprimiert werden, und einen Pufferspeicher 72b auf, in welchem die Videodaten aus der Kompressoreinheit 72 entsprechend einem Schreibbefehl auf dem DMA-Kontroller 70c gespeichert werden, und die komprimierten Videodaten werden entsprechend dem Schreibbefehl aus dem DMA-Kontroller 70c einer Expandereinheit 72c oder dem DMA-Kontroller 70c zugeführt. Das Ausgabesystem der Videodatenprozessoreinheit 72 weist auf: die Expandereinheit 72c, in der die komprimierten Videodaten aus dem Pufferspeicher 72b empfangen, expandiert und als die Erstkanal-Videodaten ausgegeben werden, und eine Expandereinheit 72d, in der die komprimierten Videodaten aus dem Pufferspeicher 72e empfangen, expandiert und als die Zweitkanal- Videodaten ausgegeben werden, auf. Auch weist die Videoprozessoreinheit 72 den Pufferspeicher 72b zum Speichern der Erstkanal-Videodaten und den Pufferspeicher 72e zum Speichern der Zweitkanal-Videodaten auf. Diese Pufferspeicher 72b und 72e bestehen aus einem FIFO-Speicher und weisen die Kapazität, welche die Videodaten für 15 Rahmen speichern kann.
  • Die Audiodaten-Eingabe/Ausgabe-Einheit 74 weist auf: einen Decodierer 74a, in welchem das Eingangsaudiosignal A1 umgewandelt wird, eine A/D-Wandlerschaltung 74b, in der das analoge Audiosignal in digitale Audiodaten umgewandelt wird, eine D/A-Wandlerschaltung 74d, in der von der Audiodatenprozessoreinheit 75 zugeführte Wiedergabeaudiodaten analog umgewandelt werden, und einen Codierer 74c, in welchem das von der D/A-Wandlerschaltung 74d zugeführte analoge Audiosignal in das Audiosignal A2 umgewandelt wird.
  • Die Audiodatenprozessoreinheit 75 weist auf: eine Kompressoreinheit 75, in der die von der Audiodaten- Eingabe/Ausgabe-Einheit 74 zugeführten Audiodaten komprimiert werden, den Pufferspeicher 75b, in welchem die Audiodaten aus der Kompressoreinheit 75 auf der Basis des Steuerungsbefehls aus dem DMA-Kontroller 70e gespeichert werden und die komprimierten Audiodaten dem DMA-Kontroller 70e zugeführt werden, den Pufferspeicher 75d, in welchem die vom DMA-Kontroller 70e empfangenen Wiedergabeaudiodaten wiedergegeben und an eine Expandereinheit 75c ausgegeben werden, und die Expandereinheit 75c, bei der die wiedergegebenen Audiodaten aus dem Pufferspeicher 75d empfangen werden und die komprimierten Audiodaten expandiert werden.
  • Nachfolgend wird die Aufzeichnungs- und Wiedergabeoperation des Festplattenarrays beschrieben.
  • Das der Videogabe-Eingabe/Ausgabe-Einheit 71 zugeführte Videosignal wird der vorgeschriebenen Eingabe/Ausgabe- Verarbeitung unterworfen und der Videodatenprozessoreinheit 72 zugeführt. Die in der Kompressoreinheit 72a der Videodatenprozessoreinheit 72 komprimierten Videodaten werden dem Pufferspeicher 72b zugeführt. Die gleichen Videodaten wie die dem Pufferspeicher 72b zugeführten Videodaten werden entsprechend dem Lesebefehl aus dem DMA-Kontroller 70c sowohl an den DMA-Kontroller 70c als auch der Expanderschaltung 72c zugeführt. Die CPU 70a gibt eine Aufzeichnungsadresse an den SCSI-Kontroller 70d aus, so dass vom Zeitcodegenerator 70b zugeführte Zeitcodedaten und die dem DMA-Kontroller 70c zugeführten Videodaten aufeinander bezogen sind. Der SCSI- Kontroller 70d führt der Festplatte 73 einen Aufzeichnungsbefehl und die Videodaten zu, so dass die vom DMA-Kontroller 90c empfangenen Videodaten in einer von der CPU 70a bezeichneten Adresse aufgezeichnet werden.
  • Andererseits werden die der Expanderschaltung 72c zugeführten Videodaten als die Erstkanal-Videodaten expandiert und an die Videodaten-Eingabe/Ausgabe-Einheit 71 ausgegeben. Die Videodaten-Eingabe/Ausgabe-Einheit 71 überlagert den von der CPU 70a zugeführten Zeitcode der Vertikalsynchronisierungsperiode den zugeführten. Videodaten und gibt sie als das Videomischsignäl V2 aus.
  • Nachfolgend wird die Wiedergabeverarbeitung des Festplattenarrays 2 beschrieben.
  • Bei Ausgabe eines Wiedergabebefehls entsprechend dem RS- 422-Kommunikationsprotokoll an das Festplattenarray 2 gibt die CPU 70a den Wiedergabebefehl über den SCSI-Kontroller 70d an die Festplatte 73 aus. Die wiedergegebenen Videodaten werden im Pufferspeicher 72e entsprechend dem Schreibtiming des DMA-Kontrollers 709 gespeichert. Die aus dem Pufferspeicher 72e gelesenen Videodaten werden von der Expanderschaltung 72d als die Zweitkanal-Videodaten expandiert und an die Videodaten-Eingabe/Ausgabe-Einheit 71 ausgegeben. Die Videodaten- Eingabe/Ausgabe-Einheit 71 überlagert den von der CPU 70a zugeführten Zeitcode der Vertikalsynchronisierungsperiode der zugeführten Videodaten und gibt sie als das Videomischsignal V3 aus.
  • Hier wird über den Grund geschrieben, warum die Aufzeichnungsverarbeitung des Eingangsvideosignals V1 und die Wiedergabeverarbeitung des Videosignals V3 gleichzeitig ausgeführt werden können. Während der DMA-Kontroller 70c einen Lesebefehl an den Pufferspeicher 72b ausgibt, wird die Aufzeichnung eines Videosignals vom Pufferspeicher 72b auf der Festplatte 73 ausgeführt, und während der DMA-Kontroller 70c einen Schreibbefehl an den Pufferspeicher 72e ausgibt, wird die Wiedergabe des auf der Festplatte 73 aufgezeichneten Videosignalsausgeführt, und die wiedergegebenen Videodaten werden dem Pufferspeicher 72e zugeführt. Da insbesondere die Übertragung von auf der Festplatte 72 aufzuzeichnenden Videodaten vom Pufferspeicher 72b gepuffert wird und die Übertragung der von der Festplatte 73 wiedergegebenen Videodaten zur Videodaten-Eingabe/Ausgabe-Einheit 71 vom Pufferspeicher 72e gepuffert wird, scheinen die Aufzeichnungsverarbeitung des Eingangsvideosignals V1 und die Wiedergabeverarbeitung des Videosignals V3 gleichzeitig ausgeführt zu werden. Streng gesprochen werden die Aufzeichnungsoperation und die Wiedergabeoperation nicht gleichzeitig ausgeführt, da die Aufzeichnungsoperation der Festplatte 73 und die Wiedergabeoperation alternativ ausgeführt werden.
  • [Beschreibung der Computeroperation]
  • Die Anfangsoperation des Computers 1 wird unter Bezugnahme auf die Fig. 11 beschrieben.
  • Zuerst wird beim Zuordnen einer Ausführung eines Anwendungsprogramms durch eine Bedienungsperson die Verarbeitung beim Schritt SP1 gestartet.
  • Da dieses Anwendungsprogramm in der lokalen Festplatte 15a gespeichert worden ist, lädt die CPU 10 beim Schritt SP2 das Anwendungsprogramm zu dem in der CPU 10 vorgesehenen Operations-RAM 10b hinauf.
  • Nach Beendigung des Hinaufladens zum RAM 10b in der CPU 10 führt die CPU 10 beim Schritt SP3 das Anwendungsprogramm aus.
  • Beim Schritt SP4 wird der Speicherbereich des RAM 10b sichergestellt. Der Speicherbereich wird sichergestellt, um alle jeweiligen Daten mehrerer Clipbilddaten und Editionsdaten, die durch eine Editieroperation im RAM 10b erzeugt werden, zu speichern. Bei diesem Schritt SP4 werden die in Fig. 9C gezeigten ersten Managementaufzeichnungsdaten für Clipbilddaten, die in Fig. 9B gezeigten ersten Managementaufzeichnungsdaten für Ereignisdaten und die in Fig. 9A gezeigten ersten Managementaufzeichnungsdaten für Programmdaten im RAM 10b aufgezeichnet.
  • Beim Schritt SP5 wird durch die Editieroperation des Computers 1 ein Arbeitsordner zum Speichern von beispielsweise Programm- und/oder Ereignisdaten erzeugt. Der erzeugte Arbeitsordner wird in der lokalen Festplatte 15a aufgezeichnet.
  • Beim Sehritt SP6 überträgt die CPU 10 Grafikdaten zum VRAM 13b in Realzeit, um die Grafikanzeige für die GUI auf dem Monitor 14 anzuzeigen.
  • Beim Schritt SP7 wird die gleiche Grafik wie die im VRAM 13b gespeicherten Grafikdaten auf dem Monitor 14 angezeigt.
  • Beim Schritt SP8 wird festgestellt, ob das Eingangsvideosignal V2 auf dem Aufzeichnungsvideoschirm 21a angezeigt werden soll oder nicht. Ist keine Zuordnung einer Videoanzeige vorhanden, wird entschieden, dass die Editieroperation nicht ausgeführt wird, und zum Sehritt SP16 gegangen, um zu beenden. Im normalen Fall geht wird zum Schritt SP9 gegangen, da es zum Ausführen einer Editieroperation notwendig ist, das Eingangsvideosignal V2 auf dem Aufzeichnungsvideoschirm 21a anzuzeigen.
  • Beim Schritt SP9 wird ein RS-422-Steuerungsbefehl an das Festplattenarray 2 ausgegeben, um das Videosignal V2 an den Computer 1 auszugeben. Das Festplattenarray 2 erzeugt nach Empfang des Steuerungsbefehls vom Computer 1 aus dem Eingangsvideosignal V1 das Videosignal V2 als das Erstkanal- Videosignal und gibt es an den Computer 1 aus.
  • Beim Schritt SP10 wird in der Datenwandlereinheit 11b aus dem Videomischsignäl V2, das dem Computer 1 zugeführt ist, ein Zeitcode extrahiert, und es wird auch das eingegebene Videomischsignal in digitale Komponentenvideodaten umgewandelt. Die umgewandelten Videodaten werden im Rahmenspeicher 11e in jeder Rahmeneinheit vorübergehend gespeichert. Der Prozessorkontroller 11a gibt die in der Datenwandlereinheit 11b extrahierten Zeitcodedaten an die CPU 10.
  • Beim Schritt SP11 werden die im Rahmenspeicher 11c gespeicherten Videodaten zum VRAM 13b übertragen. Die aus dem Rahmenspeicher 11c zu übertragenden Videodaten weisen eine geringere Leseabtastrate auf, das heißt sie sind 380 Pixel · 240 Pixel-Videodaten. Es sei darauf hingewiesen, dass zu diesem Zeitpunkt eine Vermittlung des Bilddatenbusses 5a ausgeführt wird, so dass die zum VRAM 13b übertragenen Daten nicht nur die Videodaten aus dem Rahmenspeicher 11c sind, sondern auch die Videodaten vom Rahmenspeicher 11c in den Bereich, bei dem Videodaten angezeigt werden, übertragen werden, und Bilddaten von der CPU 10 in den Bereich, bei dem ein graphisches Bild für die GUI angezeigt wird, übertragen werden. Außerdem werden die im VRAM 13b gespeicherten Daten in Realzeit aktualisiert, so dass Videodaten in Realzeit auf dem Monitor 14 angezeigt werden können.
  • Beim Schritt SP12 werden die Grafikdaten und die Videodaten, die im VRAM 13b gespeichert worden sind, in Realzeit auf den Monitor 14 angezeigt.
  • Beim Schritt SP13 wird entschieden, ob das Festplattenarray 2 die Aufzeichnung der im Aufzeichnungsvideoschirm 21a angezeigten Videodaten starten soll oder nicht. Soll es die Aufzeichnung starten, wird die "START"-Taste 31a angeklickt.
  • Beim Schritt SP14 gibt, wenn Aufzeichnungsstart zugeordnet ist, die CPU 10 den Befehl an die externe Schnittstelle 18 aus. Die externe Schnittstelle 18 wandelt ihn in das Kommunikationsformat des RS-422-Standard um und gibt ihn an das Festplattenarray 2 aus.
  • Beim Schritt SP15 wird, da die Aufzeichnung vom Festplattenarray 2 gestartet worden ist, entschieden, dass alle Anfangseinstellungen vollendet sind, und dieser Fluss wird, beendet.
  • [Beschreibung der ersten Markierungsoperation]
  • Nachfolgend wird die Markierungsoperation unter Bezugnahme auf die Fig. 12 detailliert beschrieben. Es sei darauf hingewiesen, dass der in Fig. 12 gezeigte ganze Fluss die Operation der CPU 10 zeigt. Außerdem kann diese Markierungsoperation durch Bezugnahme auf die Beschreibung der Fig. 7 und Fig. 8 besser verstanden werden.
  • Nach Beendigung des in Fig. 11 gezeigten Flusses entscheidet die CPU 10, dass diese Markierungsoperation ausgeführt werden kann und startet den Schritt SP20.
  • Beim Schritt SP20 wird entschieden, ob die Markierung neu ausgeführt wird oder nicht. Ob die Markierung ausgeführt wird oder nicht wird danach entschieden, ob die Maus in dem Zustand, bei dem der Cursor in dem Bereich der Markierung- EIN-Taste 24c oder der Markierungs-AUS-Taste 24f positioniert ist, angeklickt war oder nicht. Auch ist diese Entscheidung eine Entscheidung durch einen der CPU 10 zugeführten Unterbrechungsbefehl. Ist die Markierungs-EIN-Taste 24c angeklickt, geht die. CPU 10 durch die Feststellung, dass der EIN- Punkt zugeordnet worden ist, zum Schritt SP22. Ist außerdem die Markierungs-AUS-Taste 24f angeklickt, geht sie durch die Feststellung, dass der AUS-Punkt zugeordnet worden ist, zum Schritt SP30.
  • Beim Schritt SP22 werden die Clipbilddaten des EIN- Punktes gebildet. Diese Clipbilddaten des EIN-Punktes sind die beim Auslesen in den Videodaten-VRAM 13b gebildeten Daten, die im Rahmenspeicher 11c gespeichert worden sind, und sie weisen eine geringere Abtastrate auf, so dass sie eine Datenmenge von 1/16 der im Rahmenspeicher 11c aufgezeichneten Videodaten werden. Es sei darauf hingewiesen, dass diese Clipbilddaten aus 95 Pixel · 60 Pixel bestehen.
  • Beim Schritt SP23 werden die in der Position des EIN- Clipanzeigebereichs 24a des VRAM 13b gespeicherten Clipbilddaten im EIN-Clipanzeigebereich 24a entsprechend den aus dem VRAM 13b ausgelesenen Daten angezeigt.
  • Beim Schritt SP24 wird entschieden, ob die Clipbilddaten des beim Schritt SP21 markierten EIN-Punktes die erste Markierung sind oder nicht. Sind sie die erste Markierung, kehrt die CPU 10 zum Schritt SP21 zurück. Sind sie die zweite Markierung oder mehr, geht sie zum Schritt SP25 vor.
  • Beim Schritt SP25 wird entschieden, ob die vorher markierten Clipbilddaten die Clipbilddaten des EIN-Punktes sind oder nicht. Sind die vorher markierten Clipbilddaten die Clipbilddaten des EIN-Punktes, geht die CPU 10 zum Schritt SP26 vor, sind jedoch die vorher markierten Clipbilddaten die Clipbilddaten des AUS-Punktes, geht sie zum Schritt SP27 vor.
  • Beim Schritt SP26 werden die vorher markierten Clipbilddaten des EIN-Punktes vom EIN-Clipanzeigebereich 24a zum Clipanzeigebereich 28 bewegt. Das heißt, dass dieser Fall bedeutet, dass der EIN-Punkt zweimal nacheinander markiert wurde. Was die zu diesem Zeitpunkt gebildeten zweiten Managementaufzeichnungsdaten betrifft, ist es gut, auf die Beschreibung der Fig. 7, Fig. 8 und Fig. 9 Bezug zu nehmen.
  • Beim Schritt SP 27 wird entschieden, ob durch den vorher markierten AUS-Punkt ein Ereignis erzeugt ist oder nicht. Ist durch die vorherige Markierung das Ereignis erzeugt, geht die CPU 10 zum Schritt SP29 vor, und ist das Ereignis durch die vorherige Markierung nicht erzeugt, geht sie zum Schritt SP28 vor.
  • Beim Schritt 5P28 werden die im AUS-Clipanzeigebereich 24d angezeigten Clipbilddaten des AUS-Punktes zum Clipanzei¬ gebereich 28 bewegt, da festgestellt ist, dass sie die Clipbliddaten sind, die bei der Erzeugung des vorher markierten AUS-Punktes nicht benutzt werden.
  • Beim Schritt SP29 werden die im AUS-Clipanzeigebereich 24d angezeigten Clipbilddaten gelöscht. Die im AUS- Clipanzeigebereich 24d angezeigten Clipbilddaten sind schon als der AUS-Punkt eines Ereignisses registriert worden, und folglich müssen sie nicht zum Clipanzeigebereich 28 bewegt werden.
  • Zum Schritt SP21 zurückkehrend wird der Fall beschrieben, bei dem bei diesem Schritt SP21 der AUS-Punkt markiert wurde. Ist der AUS-Punkt zugeordnet, geht die CPU 10 zum Schritt SP30 vor.
  • Beim Schritt SP30 werden die Clipbilddaten des AUS- Punktes gebildet. Diese Clipbilddaten des AUS-Punktes sind die beim Auslesen in den Videodaten VRAM 13b gebildeten Daten, die im Rahmenspeicher 11c gespeichert worden sind, und sie weisen eine geringere Abtastrate derart auf, dass sie die Datenmenge von 1/16 der im Rahmenspeicher 11c aufgezeichneten Videodaten werden. Es sei darauf hingewiesen, dass diese Clipbilddaten aus 95 Pixel · 60 Pixel bestehen.
  • Beim Schritt SP31 werden die in der Position des AUS- Clipanzeigebereichs 24d des VRAM 13b gespeicherten Clipbilddaten im AUS-Clipanzeigebereich 24d entsprechend den aus dem VRAM 13b ausgelesenen Daten angezeigt.
  • Beim Schritt SP32 wird festgestellt, ob die beim Schritt SP21 markierten Clipbilddaten des AUS-Punktes die erste Markierung sind oder nicht. Sind sie die erste Markierung, kehrt die CPU 10 zum Schritt SP21 zurück, sind sie jedoch die zweite Markierung oder mehr, geht sie zum Schritt SP33 vor.
  • Beim Schritt SP33 wird festgestellt, ob die vorher markierten Clipbilddaten die Clipbilddaten eines EIN-Punktes sind oder nicht. Sind die vorher markierten Clipbilddaten die Clipbilddaten eines EIN-Punktes, geht die CPU 10 zum Schritt SP34 vor, sind jedoch die vorher markierten Clipbilddaten die Clipbilddaten eines AUS-Punktes, geht sie zum Schritt SP36 vor.
  • Beim Schritt SP34 wird die Registrierung eines Ereignisses ausgeführt. Wird die Markierung eines AUS-Punktes nach einem EIN-Punkt als die obige ausgeführt, wird sie automatisch als ein Ereignis registriert. Was die Beschreibung der zweiten Managementaufzeichnungsdaten betrifft, die im Zusammenhang mit der Registrierung eines Ereignisses gebildet werden, kann sie unter Bezugnahme auf die Beschreibung der Fig. 7 und Fig. 8 gut verstanden werden.
  • Beim Schritt SP35 werden die Clipbilddaten des EIN- Punktes des erzeugten Ereignisses in den Ereignisanzeigebereich 29 kopiert.
  • Die Beschreibung des Schrittes SP36, des Schrittes SP37 und des Schrittes SP38 sind fortgelassen, da diese ähnlich dem Schritt SP27, dem Schritt SP28 und dem Schritt SP29 sind. Beim Schritt SP39 wird entschieden, ob die Markierung beendet werden soll oder nicht. Der in Fig. 12 gezeigte Fluss wird wiederholt, bis die Markierung vollendet ist.
  • [Beschreibung der zweiten Markierungsoperation]
  • Fig. 13a und Fig. 13b zeigen den Fluss bei der Erzeugung eines Ereignisses aus dem vom Festplattenarray 2 wiedergegebenen Videosignal.
  • Dieser Fluss wird in dem Zustand, bei dem die Clipbild¬ daten schon gespeichert worden sind, gestartet.
  • Beim Schritt SP41 wird entschieden, ob die Clipbilddaten zugeordnet sind oder nicht. Beim Zuordnen der Clipbilddaten werden bei einem Doppelklicken (zweimal nacheinander Klicken) der Maus in dem Zustand, bei dem der Cursor in der Anzeigeposition der Clipbilddaten positioniert ist, die Clipbilddaten zugeordnet.
  • Beim Schritt SP42 sind die Clipbilddaten zugeordnet, und sind die zugeordneten Clipbilddaten die Clipbilddaten eines EIN-Punktes, werden sie im EIN-Clipanzeigebereich 27a angezeigt, sind sie jedoch die Clipbilddaten eines AUS-Punktes, werden sie im AUS-Clipanzeigebereich 27d angezeigt.
  • Beim Schritt SP43 bezieht sich die CPU 10 auf den in den zugeordneten Clipbilddaten enthaltenen Zeitcode und gibt einen Steuerungsbefehl an die externe Schnittstelle 18 aus, so dass Videodaten des Zeitcodes stehbildmäßig wiedergegeben werden. Die externe Schnittstelle 18 wandelt einen Stehbihdwiedergabebefehl in das RS-422-Protokoll um und gibt es an das Festplattenarray 2 aus. Das Festplattenarray 2 bezieht sich auf relevante Daten zum empfangenen Zeitcode und zur Speicheradresse, und danach werden die stehbildmäßig wiedergegebenen Videodaten aus der Festplatte 73 als die Zweitkanal-Videodaten ausgegeben.
  • Beim Schritt SP44 werden die vom Festplattenarray 2 ausgegebenen Videodaten empfangen und im zweiten Videoprozessor 12 einer vorgeschriebenen Bildverarbeitung unterworfen.
  • Beim Schritt SP45 werden die im Rahmenspeicher 12c gespeicherten Stehbildwiedergabevideodaten zum VRAM 13b übertragen, so dass sie 380 Pixel · 240 Pixel sind.
  • Beim Schritt SP46 werden die im VRAM 13b gespeicherten Wiedergabevideodaten auf dem Wiedergabevideoschirm 23a angezeigt. Auf dem Wiedergabevideoschirm 23a wird nur das Fest- bzw. Stehbild angezeigt, da die Stehbildvideodaten aus dem Festplattenarray 2 nicht als Videosignal in Realzeit ausgegeben werden.
  • Dann wird beim Schritt SP47 entschieden, ob die Wiedergabe in Bezug auf die auf dem Wiedergabevideoschirm 23a angezeigten Stehbildvideodaten zugeordnet sind oder nicht. Wird in dem Zustand, bei dem die Stehbildvideodaten auf dem Wiedergabevideoschirm 23a angezeigt werden, die "PREVIW"-Taste 32 angeklickt, wird entschieden, dass die Wiedergabeoperation gestartet werden soll.
  • Beim Schritt SP48 wird über die externe Schnittstelle 18 ein Wiedergabestartbefehl an das Festplattenarray 2 ausgegeben. Das Festplattenarray 2 empfängt den Wiedergabestartbefehl und gibt normale Wiedergabevideodaten an den Computer 1 aus.
  • Beim Schritt SP51 wird entschieden, ob eine Markierung ausgeführt wird oder nicht. Ob eine Markierung ausgeführt wird oder nicht wird danach entschieden, ob die Maus in dem Zustand, bei dem der Cursor im Bereich der Markierungs-EIN- Taste 27c oder der Markierungs-AUS-Taste 27f positioniert ist, geklickt wurde oder nicht. Auch ist diese Entscheidung eine Entscheidung durch den der CPU 10 zugeführten Unterbrechungsbefehl. Wird die Markierungs-EIN-Taste 27c geklickt, geht die CPU 10 durch die Entscheidung, dass der EIN-Punkt zugeordnet ist, zum Schritt SP52 vor. Ist außerdem die Markierungs-AUS-Taste 27f geklickt, geht sie durch die Entscheidung, dass der AUS-Punkt zugeordnet ist, zum Schritt SP55 vor.
  • Beim Schritt SP52 werden die Clipbilddaten eines EIN- Punktes gebildet. Diese Clipbilddaten eines EIN-Punktes sind die beim Auslesen in den Videodaten-VRAM 13b gebildeten Daten, die im Rahmenspeicher 12c gespeichert worden sind, und sie haben eine kleinere Abtastrate derart, dass sie eine Datenmenge von 1/16 der im Rahmenspeicher 12c aufgezeichneten Videodaten werden. Es sei darauf hingewiesen, dass diese Clipbilddaten aus 95 Pixel · 60 Pixel bestehen.
  • Beim Schritt SP53 werden die in der Position des EIN- Clipanzeigebereichs 27a des VRAM 13b gespeicherten Clipbilddaten im EIN-Clipanzeigebereich 27 entsprechend den aus dem VRAM 13b ausgelesenen Daten angezeigt.
  • Beim Schritt SP54 werden die vorher markierten und im EIN-Clipanzeigebereichs 27d angezeigten Clipbilddaten des EIN-Punktes zum Clipanzeigebereich 28 bewegt.
  • Beim Schritt SP55 werden die Clipbilddaten des AUS- Punktes gebildet. Diese Clipbilddaten des AUS-Punktes sind die beim Auslesen in den Videodaten-VRAM 13b gebildeten Daten, die im Rahmenspeicher 12c gespeichert worden sind, und sie haben eine kleinere Abtastrate derart, dass sie die Datenmenge von 1/16 der im Rahmenspeicher 12c aufgezeichneten Videodaten werden. Es sei darauf hingewiesen, dass diese Clipbilddaten aus 95 Pixel · 60 Pixel bestehen.
  • Beim Schritt SP56 Werden die in der Position des AUS- Clipanzeigebereichs 27d des VRAM 13b gespeicherten Clipbilddaten auf dem AUS-Clipanzeigebereich 27d entsprechend den aus dem VRAM 13b ausgelesenen Daten angezeigt.
  • Beim Schritt SP57 wird entschieden, ob die vorher markierten Clipbilddaten die EIN-Punkt-Clipbilddaten sind oder nicht. Sind die vorher markierten Clipbilddaten die EIN- Punkt-Clipbilddaten, geht die CPU 10 zum Schritt SP58 vor, sind jedoch die vorher markierten Clipbilddaten die AUS- Punkt-Clipbilddaten, geht sie zum Schritt SP59 vor.
  • Beim Schritt SP58 wird entschieden, ob sie als ein Ereignis neu registriert werden sollen. Wird die "NEW EVENT"- Taste 33 geklickt, bedeutet dies, dass sie als ein Ereignis neu registriert werden.
  • Beim Schritt SP59 führt sie die gleiche Verarbeitung wie beim Schritt SP28 aus.
  • Beim Schritt SP60 wird eine Ereignisregistrierung ausgeführt. Wird die AUS-Punkt-Markierung nach dem EIN-Punkt ausgeführt und die "NEW EVENT"-Taste 33 wie oben geklickt, wird sie als ein Ereignis registriert. Was die Beschreibung der im Zusammenhang mit der Ereignisregistrierung gebildeten zweiten Managementaufzeichnungsdaten betrifft, so kann sie durch Bezugnahme auf die Beschreibung der Fig. 7 und Fig. 9 gut verstanden werden.
  • Beim Schritt SP61 werden die EIN-Punkt-Clipbilddaten des erzeugten Ereignisses in den Ereignisanzeigebereich 29 kopiert.
  • Beim Schritt SP62 wird entschieden, dass der Stopp der Wiedergabe der auf dem Wiedergabevideoschirm 23a angezeigten. Videodaten zugeordnet ist. Ist der Stopp zugeordnet, geht die CPU 10 zum Schritt SP63 vor.
  • Beim Schritt SP63 wird ein Stoppbefehl an das Festplattenarray 2 ausgegeben und die Verarbeitung wird beendet.
  • Industrielle Anwendbarkeit
  • Diese Erfindung betrifft ein Editionssystem. Die Erfindung ist beispielsweise für ein System zum Editieren eines so bald wie möglich zu berichtenden Materials, beispielsweise Sport- und Nachrichtenreportagen, geeignet. Auch ist die. Erfindung auf ein Computergrafiksystem anwendbar.

Claims (53)

1. Editionssystem, mit einem Haupt-Aufzeichnungs- und - Wiedergabegerät und einem Computer (1), wobei
das Haupt-Aufzeichnungs- und -Wiedergabegerät aufweist:
a) eine Aufzeichnungseinrichtung zur Aufzeichnung von Quellenvideodaten (V1), die von einer externen Einrichtung in Realzeit sukzessive zugeführt werden, auf einem Aufzeichnungsmedium (2),
b) eine Wiedergabeeinrichtung zur Wiedergabe der auf dem Aufzeichnungsmedium (2) entsprechend einem Wiedergabebefehl aus dem Computer (1) aufgezeichneten Videodaten (V1), wobei die Aufzeichnungseinrichtung die Quellenvideodaten (V1) auf dem Aufzeichnungsmedium (2) aufzeichnet, und
c) eine Ausgabeeinrichtung zum Ausgeben der Videodaten so wie der Quellenvideodaten (V1) die auf dem Aufzeichnungsmedium aufgezeichnet sind als erste Videodaten (V2) an den Computer (1) und Ausgeben der von der Wiedergabeeinrichtung wiedergegebenen Videodaten als zweite Videodaten (V3) an den Computer (1), und wobei der Computer (1) aufweist:
A) eine Benutzerschnittstelleneinrichtung (17),
B) einen Videoprozessor (11, 12) zum Empfang der ersten Videodaten (V2) und der zweiten Videodaten (V3) und Er¬ zeugen erster Clipbilddaten, die den EIN-Punkt und/oder den AUS-Punkt der ersten Videodaten (V2) von den ersten Videodaten (V2) zeigen, und auch zweiter Clipbilddaten, die den EIN-Punkt und/oder den AUS-Punkt der zweiten Videodaten (V3) von den zweiten Videodaten (V3) zeigen,
C) eine Anzeigesteuerungseinrichtung (13) zum jeweiligen Anzeigen eines die Benutzerschnittstelleneinrichtung (17), die ersten Videodaten (V2), die zweiten Videodaten (V3), die ersten Clipbilddaten und die zweiten Clipbilddaten betreffenden Grafikbildes bei in einem vorbestimmten Bereich einer Anzeigeeinrichtung (14), und
D) eine zentrale Steuerungseinrichtung zur Steuerung des Videoprozessors (11, 12) und der Anzeigesteuerungseinrichtung (13) entsprechend der Operation der Benutzerschnittstelleneinrichtung (17).
2. Editionssystem nach Anspruch 1, wobei die zentrale Steuerungseinrichtung den die Wiedergabeeinrichtung des Haupt-Aufzeichnungs- und -Wiedergabegeräts steuernden Wiedergabebefehl entsprechend der Operation der Benutzerschnittatelleneinrichtung (17) erzeugt.
3. Editionssystem nach Anspruch 1, wobei die zentrale Steuerungseinrichtung den Videoprozessor (11, 12) so steuert, dass bei einem Markieren des EIN- Punktes und/oder des AUS-Punktes durch die Benutzerschnittstelleneinrichtung (17) die ersten Clipbilddaten vom ersten Rahmen der dem Computer (1) zugeführten ersten Videodaten (V2) erzeugt werden.
4. Editionssystem nach Anspruch 1, wobei die zentrale Steuerungseinrichtung die Editionsdauer vom EIN-Punkt zum AUS-Punkt der ersten Videodaten (V2) als ein erstes Ereignis eingibt und die Editionsdauer vom EIN-Punkt zum AUS-Punkt der zweiten Videodaten (V3) als ein zweites Ereignis eingibt.
5. Editionssystem nach Anspruch 4, wobei die zentrale Steuerungseinrichtung ein Editionsprogramm zum Gewinnen der editierten Videodaten so erzeugt, dass das von den eine Realzeitcharakteristik in Bezug auf die in dem Haupt-Aufzeichnungs- und -Wiedergabegerät aufgezeichneten Quellenvideodaten (V1) aufweisenden ersten Videodaten (V2) erhaltene erste Ereignis und das von den nicht eine Realzeitcharakteristik in Bezug auf die Quellenvideodaten (V1) auf¬ weisenden zweiten Videodaten (V3) erhaltene zweite. Ereignis gemischt sind.
6. Editionssystem nach Anspruch 4, wobei
die Anzeigeeinrichtung (14) einen Aufzeichnungsvideoanzeigebereich (21) zum Anzeigen der ersten Videodaten (V2), einen Wiedergabevideoanzeigebereich (23) zum Anzeigen der zweiten Videodaten (V3), einen ersten EIN-Clipanzeigebereich (24a) zum Anzeigen der den EIN-Punkt zeigenden ersten Clipbilddaten, einen ersten AUS-Clipanzeigebereich (24d) zum Anzeigen der den AUS-Punkt zeigenden ersten Clipbilddaten, einen zweiten EIN-Clipanzeigebereich (27a) zum Anzeigen der den EIN-Punkt zeigenden zweiten Clipbilddaten, einen zweiten AUS- Clipanzeigebereich (27d) zum Anzeigen der den AUS-Punkt zeigenden zweiten Clipbilddaten, einen ersten Markierungs-EIN- Tastenbereich (24c) zum Markieren eines EIN-Punktes in den ersten Videodaten (V2), einen ersten Markierungs-AUS- Tastenbereich (24f) zum Markieren eines AUS-Punktes in den ersten Videodaten (V2), einen zweiten Markierungs-EIN- Tastenbereich (27c) zum Markieren eines EIN-Punktes in den zweiten Videodaten (V3) und einen zweiten Markierungs-AUS- Tastenbereich (27f) zum Markieren eines AUS-Punktes in den zweiten Videodaten (V2) aufweist, und wobei
die zentrale Steuerungseinrichtung den Videoprozessor (11, 12) so steuert, dass die ersten Videodaten (V2) im zwei¬ ten Aufzeichnungsvideoanzeigebereich (21) als ein Bewegtbild angezeigt werden und die zweiten Videodaten (V3) im Wiedergabevideoanzeigebereich (23) als ein Bewegtbild angezeigt werden.
7. Editionssystem nach Anspruch 6, wobei die zentrale Steuerungseinrichtung den Videoprozessor (11, 12) so steuert, dass, wenn detektiert wird, dass von der Benutzerschnittstelleneinrichtung (17) der erste Markierungs- EIN-Tastenbereich (24c) zugeordnet ist, die den EIN-Punkt zeigenden ersten Clipbilddaten erzeugt werden, wenn detektiert wird, dass von der Benutzerschnittstelleneinrichtung (17) der erste Markierungs-AUS-Tastenbereich (24f) zugeordnet ist, die den AUS-Punkt zeigenden ersten Clipbilddaten erzeugt werden, wenn detektiert wird, dass von der Benutzerschnittstelleneinrichtung (17) der zweite Markierungs-EIN- Tastenbereich (27c) zugeordnet ist, die den EIN-Punkt zeigenden zweiten Clipbilddaten erzeugt werden und, wenn detektiert wird, dass von der Benutzerschnittstelleneinrichtung (17) der erste Markierungs-AUS-Tastenbereich (27f) zugeordnet ist, die den AUS-Punkt zeigenden zweiten Clipbilddaten erzeugt werden.
8. Editionssystem nach Anspruch 6, wobei die zentrale Steuerungseinrichtung das erste Ereignis eingibt, wenn detektiert wird, dass von der Benutzerschnittstelleneinrichtung (17) der erste Markierungs-AUS- Tastenbereich (24f) nach Zuordnung des ersten Markierungs- EIN-Tastenbereichs (24c) zugeordnet ist, und das zweite Ereignis eingibt, wenn detektiert wird, dass von der Benutzerschnittstelleneinrichtung (17) der zweite Markierungs-AUS- Tastenbereich (27f) nach Zuordnung des zweiten Markierungs- EIN-Tastenbereichs (27c) zugeordnet ist.
9. Editionssystem nach Anspruch 6, wobei die zentrale Steuerungseinrichtung eine Anzahl erster Ereignisse durch Wiederholen der Markierungsoperation, bei der die Markierung des AUS-Punktes der ersten Videodaten (V2) nach der Markierung des EIN-Punktes der ersten Videodaten (V2) ausgeführt wird, eingibt und eine Anzahl zweiter Ereignisse durch Wiederholen der Markierungsoperation, bei der die Markierung des AUS-Punktes der zweiten Videodaten (V3) nach der Markierung des EIN-Punktes der zweiten Videodaten (V3) ausgeführt wird, eingibt.
10. Editionssystem nach Anspruch 6, wobei
die Anzeigeeinrichtung (14) außerdem einen Clipanzeigebereich (28) zum parallelen Anzeigen der mehreren Clipbilddaten aufweist, und
die zentrale Steuerungseinrichtung die Anzeigesteuerungseinrichtung (13) so steuert, dass in dem Fall, dass die EIN-Punkt- und/oder AUS-Punkt-Clipbilddaten von der Benutzerschnittstelleneinrichtung (17) in dem Zustand, in dem schon irgendwelche Clipbilddaten in dem ersten EIN- Clipanzeigebereich (24a), dem ersten AUS-Clipanzeigebereich (24d), dem zweiten EIN-Clipanzeigebereich (27a) und/oder dem zweiten AUS-Clipanzeigebereich (27d) angezeigt sind, neu markiert werden, die in dem ersten EIN-Clipanzeigebereich (24a), dem ersten AUS-Clipanzeigebereich (24d), dem zweiten EIN- Clipanzeigebereich (27c) und/oder dem zweiten AUS- Clipanzeigebereich (27d) angezeigten Clipbilddaten im Clipanzeigebereich (28) angezeigt werden.
11. Editionssystem nach Anspruch 10, wobei
die Anzeigeeinrichtung (14) außerdem einen Ereignisanzeigebereich (29) zum parallelen Anzeigen der die Ereignisse zeigenden Clipbilddaten aufweist, und
die zentrale Steuerungseinrichtung die Anzeigesteuerungseinrichtung (13) so steuert, dass die EIN-Punkt- Clipbilddaten und/oder die AUS-Punkt-Clipbilddaten welche die eingegebenen Ereignisse zeigen, im Ereignisanzeigebereich (29) in der Eingabeordnung des Ereignisses anzeigt.
12. Editionssystem nach Anspruch 11, wobei
die Anzeigeeinrichtung (14) außerdem einen Programmanzeigebereich (30) zum parallelen Anzeigen der die mehreren Ereignisse zeigenden mehreren Clipbilddaten aufweist, und
die zentrale Steuerungseinrichtung die Anzeigesteuerungseinrichtung (13) so steuert, dass die im Ereignisanzeigebereich (29) angezeigten mehreren Clipbilddaten so reorganisiert werden, dass sie in einer gewünschten Ordnung sind und die so reorganisierten Clipbilddaten in dem Programmanzeigebereich (30) angezeigt werden, und
die zentrale Steuerungseinrichtung ein Editionsprogramm zum Editieren der mehreren Ereignisse entsprechend der Anzeigeordnung in dem Programmanzeigebereich (30) der reorganisierten Clipbilddaten erzeugt.
13. Editionssystem nach Anspruch 12 wobei die zentrale Steuerungseinrichtung die reorganisierten Clipbilddaten im Programmanzeigebereich (30) anzeigt durch Wiederholen der Operation, die aus den im Ereignisanzeigebereich (29) durch Betätigen einer in der Benutzerschnittstelleneinrichtung (17) angeordneten Zeigereinrichtung (17a) angezeigten mehreren Clipbilddaten gewünschte Clipbilddaten wählt, und die so gewählten Clipbilddaten pro Einheit der gewählten Clipbilddaten in eine gewünschte Anzeigeposition in dem Programmanzeigebereich (30) kopiert.
14. Editionssystem nach Anspruch 12, wobei das Editionsprogramm ein Programm ist, um die Videodaten so editiert zu erhalten, dass das erste Ereignis und das zweite Ereignis entsprechend der Anzeigeordnung der im Programmanzeigebereich (30) angezeigten mehreren Clipbilddaten ungeachtet dessen, ob die im Programmanzeigebereich (30) angezeigten mehreren Clipbilddaten die von den ersten Videodaten (V2) erhaltenen ersten Clipbilddaten oder die von den zweiten Videodaten (V3) erhaltenen zweiten Clipbilddaten sind, gemischt sind.
15. Editionssystem nach Anspruch 13, wobei
der Videoprozessor (11, 12) eine Zeitcodeextraktionseinrichtung zum Extrahieren erster Zeitcodedaten aus den vom Haupt-Aufzeichnungs- und -Wiedergabegerät zugeführten ersten Videodaten (V2) und Extrahieren zweiter Zeitcodedaten aus den vom Haupt-Aufzeichnungs- und -Wiedergabegerät zugeführten zweiten Videodaten (V3) aufweist, und
die zentrale Steuerungseinrichtung die Anzeigesteuerungseinrichtung (13) so steuert, dass die ersten Zeitcodedaten entsprechend den im zweiten Aufzeichnungsvideoanzeigebereich (21) als Bewegtbild angezeigten ersten Videodaten (V2) angezeigt werden und die zweiten Zeitcodedaten entsprechend den im Wiedergabevideoanzeigebereich (23) als ein Bewegtbild angezeigten zweiten Videodaten (V2) angezeigt werden, und
so, dass die mit den im ersten EIN-Clipanzeigebereich (24a) angezeigten Clipbilddaten und den im ersten AUS- Clipanzeigebereich angezeigten Clipbilddaten korrespondierenden ersten Zeitcodedaten jeweils angezeigt werden und auch die mit den im zweiten EIN-Clipanzeigebereich (27a) angezeigten Clipbilddaten und den im zweiten AUS-Clipanzeigebereich (27d) angezeigten Clipbilddaten korrespondierenden zweiten Zeitcodedaten jeweils angezeigt werden, und
so, dass die mit den im Clipanzeigebereich (28), Ereignisanzeigebereich (29) und Programmanzeigebereich (30) angezeigten ersten Clipbilddaten korrespondierenden ersten Zeitcodedaten und die mit den im Clipanzeigebereich (28), Ereignisanzeigebereich (29) und Programmanzeigebereich (30) angezeigten zweiten Clipbilddaten korrespondierenden zweiten Zeitcodedaten jeweils angezeigt werden.
16. Editionssystem nach Anspruch 13, wobei
die zentrale Steuerungseinrichtung zu den Clipbilddaten eine serielle Indexnummer in der Erzeugungsordnung der Clipbilddaten ungeachtet dessen, ob die erzeugten Clipbilddaten die ersten Clipbilddaten oder die zweiten Clipbilddaten sind, addiert,
die zentrale Steuerungseinrichtung die Anzeigesteuerungseinrichtung (13) so steuert, dass die zu den im Clipanzeigebereich (28) angezeigten Clipbilddaten addierte Indexnummer jeweils angezeigt wird,
die zentrale Steuerungseinrichtung zu den Clipbilddaten eine serielle Ereignisnummer in der Eingabeordnung des Ereignisses ungeachtet dessen, ob das eingegebene Ereignis das erste Ereignis oder das zweite Ereignis ist, addiert, und
die zentrale Steuerungseinrichtung die Anzeigesteuerüngseinrichtung (13) so steuert, dass die zu dem von den im Ereignisanzeigebereich (29) und Programmanzeigebereich (30) angezeigten Clipbilddaten gezeigten Ereignis addierte Ereignisnummer jeweils angezeigt wird.
17. Editionssystem nach Anspruch 13, wobei
die zentrale Steuerungseinrichtung die den EIN-Punkt zeigenden Cliptypdaten zu den als der EIN-Punkt markierten Clipbilddaten addiert und auch die den AUS-Punkt zeigenden Cliptypdaten zu den als der AUS-Punkt markierten Clipbilddaten addiert, und
die zentrale Steuerungseinrichtung die Anzeigesteuerungseinrichtung (13) so steuert, dass das den EIN-Punkt zeigende Zeichen und/oder das den AUS-Punkt zeigende Zeichen auf der Basis der zu den im Clipanzeigebereich (28), Ereignisanzeigebereich (29) und Programmanzeigebereich (30) angezeigten Clipbilddaten addierten Cliptypdaten angezeigt wird.
18. Editionssystem nach Anspruch 13, wobei die zentrale Steuerungseinrichtung eine Speichereinrichtung zum Speichern der vom Videoprozessor (11, 12) erzeugten ersten Clipbilddaten und zweiten Clipbilddaten, der sich auf das eingegebene erste Ereignis beziehenden Daten und der sich auf das eingegebene zweite Ereignis beziehenden Daten aufweist.
19. Editionssystem nach Anspruch 18, wobei die zentrale Steuerungseinrichtung bewirkt, dass die Speichereinrichtung Managementaufzeichnungsdaten für Clipdaten zum Managen der im Clipanzeigebereich (29) angezeigten Clipbilddaten, Managementaufzeichnungsdaten für Ereignisdaten zum Managen der im Ereignisanzeigebereich (29) angezeigten Clipbilddaten und Managementaufzeichnungsdaten für Programmdaten zum Managen der im Programmanzeigebereich (30) angezeigten Clipbilddaten speichert.
20. Editionssystem nach Anspruch 19, wobei
die Managementaufzeichnungsdaten für Clipbilddaten aus mehreren zweiten Managementaufzeichnungsdaten für Clipbilddaten zum Managen der ersten Managementaufzeichnungsdaten für Clipbilddaten, um den ganzen Clipanzeigebereich (28) und die im Clipanzeigebereich (28) in jeder Clipbilddateneinheit angezeigten Clipbilddaten zu managen, gebildet sind,
die Managementaufzeichnungsdaten für Ereignisdaten aus mehreren zweiten Managementaufzeichnungsdaten für Ereignisdaten zum Managen der ersten Managementaufzeichnungsdaten für Ereignisdaten, um den ganzen Ereignisanzeigebereich (29) und die im Ereignisanzeigebereich (29) in jeder Clipbilddateneinheit angezeigten Clipbilddaten zu managen, gebildet sind, und
die Managementaufzeichnungsdaten für Programmdaten aus mehreren zweiten Managementaufzeichnungsdaten für Programmdaten zum Managen der ersten Managementaufzeichnungsdaten für Programmdaten, um den ganzen Programmanzeigebereich (30) und die im Programmanzeigebereich (30) in jeder Clipbilddateneinheit angezeigten Clipbilddatenzu managen, gebildet sind.
21. Editionssystem nach Anspruch 20, wobei
die zentrale Steuerungseinrichtung in dem Fall, dass die Anzeigeordnung der im Clipanzeigebereich (28) angezeigten Clipbilddaten geändert wird, die zweiten Managementaufzeichnungsdaten für Clipbilddaten ohne Änderung der Speicherposition der Clipbilddaten im Speicher geändert werden,
die zentrale Steuerungseinrichtung in dem Fall, dass die Anzeigeordnung der im Ereignisanzeigebereich (29) angezeigten Clipbilddaten geändert wird, die zweiten Managementaufzeichnungsdaten für Ereignisdaten ohne Änderung der Speicherposition der im Ereignisanzeigebereich (29) angezeigten Clipbilddaten im Speicher geändert werden, und
die zentrale Steuerungseinrichtung in dem Fall, dass die Anzeigeordnung der im Programmanzeigebereich (30) angezeigten Clipbilddaten geändert wird, die zweiten Managementaufzeichnungsdaten für Programmdaten ohne Änderung der Speicherposition der im Programmanzeigebereich angezeigten Clipbilddaten im Speicher geändert werden.
22. Editionssystem nach Anspruch 20, wobei
die zentrale Steuerungseinrichtung alle im Clipanzeigebereich (28) anzuzeigenden Clipbilddaten durch Verwendung der Verknüpfungsstruktur, mit der die zweiten Managementaufzeichnungsdaten für Clipbilddaten mit den ersten Managementaufzeichnungsdaten für Clipbilddaten verknüpft sind, managt,
die zentrale Steuerungseinrichtung alle im Ereignisanzeigebereich (29) anzuzeigenden Clipbilddaten durch Verwendung der Verknüpfungsstruktur, mit der die zweiten Managementaufzeichnungsdaten für Ereignisdaten mit den ersten Managementaufzeichnungsdaten für Ereignisdaten verknüpft sind, managt, und
die zentrale Steuerungseinrichtung alle im Programmanzeigebereich (30) anzuzeigenden Clipbilddaten durch Verwendung der Verknüpfungsstruktur, mit der die zweiten Managementaufzeichnungsdaten für Programmdaten mit den ersten Managementaufzeichnungsdaten für Programmdaten verknüpft sind, managt.
23. Editionssystem nach Anspruch 22, wobei die ersten Managementaufzeichnungsdaten für Clipbilddaten die Verknüpfungsdatenzahl enthalten, welche die Zahl der mit den ersten Managementaufzeichnungsdaten für Clipbilddaten verknüpften zweiten Managementaufzeichnungsdaten für Clipbilddaten zeigt.
24. Editionssystem nach Anspruch 22, wobei
die ersten Managementaufzeichnungsdaten für Clipdaten die Zeigerdaten zum Zuordnen der Speicherposition der mit den ersten Managementaufzeichnungsdaten für Clipdaten verknüpften zweiten Managementaufzeichnungsdaten für Clipdaten in der Speichereinrichtung enthalten, und
die mit den ersten Managementaufzeichnungsdaten für Clipdaten verknüpften zweiten Managementaufzeichnungsdaten für Clipdaten die Abwicklungsdaten zum Zuordnen der Speicherposition der zuerst in der Speichereinrichtung im Clipbildanzeigebereich (28) angezeigten Clipbilddaten enthalten, und
die mit den ersten Managementaufzeichnungsdaten für Clipbilddaten verknüpften zweiten Managementaufzeichnungsdaten für Clipbilddaten außerdem die Zeigerdaten zum Zuordnen der Speicherposition von zweiten Managementaufzeichnungsdaten für Clipbilddateh, die nach den im Clipbildanzeigebereich (28) zuerst angezeigten Clipbilddaten angezeigte Clipbilddaten managen, enthalten.
25. Editionssystem nach Anspruch 22, wobei
die N-ten zweiten Managementaufzeichnungsdaten für Clipbilddaten zum Managen der im Clipanzeigebereich (28) angezeigten N-ten Clipbilddaten ("N" ist der Wert einer ganzen Zahl größer als "2") aufweisen:
die Zeigerdaten zum Zuordnen der Speicherposition der mit den ersten Managementaufzeichnungsdaten für Clipbilddaten verknüpften zweiten Managementaufzeichnungsdaten für Clipbilddaten zu der (N-1)-ten in der Speichereinrichtung,
die Zeigerdaten zum Zuordnen der Speicherposition der mit den ersten Managementaufzeichnungsdaten für Clipbilddaten verknüpften zweiten Managementaufzeichnungsdaten für Clipbliddaten zu der (N-1)-ten in der Speichereinrichtung und
die Abwicklungsdatendaten zum Zuordnen der Speicherposition der Clipbilddaten zu der bei der N-ten in der Speichereinrichtung angezeigten.
26. Editionssystem nach Anspruch 22, wobei
die ersten Managementaufzeichnungsdaten für Ereignisdaten die Zeigerdaten zum Zuordnen der Speicherposition der zweiten Managementaufzeichnungsdaten für Ereignisdaten enthalten,
die mit den ersten Managementaufzeichnungsdaten für Ereignisdaten verknüpften zweiten Managementaufzeichnungsdaten für Ereignisdaten die EIN-Punkt-Abwicklungsdaten und die AUS- Punkt-Abwicklungsdaten zum Zuordnen der Speicherposition der Clipbilddaten des EIN-Puhktes und der Clipbilddaten des AUS- Punktes des zuerst in die Speichereinrichtung eingegebenen Ereignisses enthalten, und
die mit den ersten Managementaufzeichnungsdaten für Ereignisdaten verknüpften zweiten Managementaufzeichnungsdaten für Ereignisdaten außerdem die Zeigerdaten zum Zuordnen der Speicherposition der zweiten Managementaufzeichnungsdaten für Ereignisdaten zum Managen des nach dem zuerst eingegebenen Ereignis eingegebene Ereignis enthalten.
27. Editionssystem nach Anspruch 22, wobei
die N-ten zweiten Managementaufzeichnungsdaten für Ereignisdaten zum Managen der durch die im Ereignisanzeigebereich (29) bei der N-ten angezeigten Clipbilddaten zugeordneten Ereignisdaten ("N" ist der Wert einer ganzen Zahl größer als "2") aufweisen:
die Zeigerdaten zum Zuordnen der Speicherposition der mit den ersten Managementaufzeichnungsdaten für Ereignisdaten verknüpften zweiten Managementaufzeichnungsdaten für Ereignisdaten zu der (N-1)-ten in der Speichereinrichtung,
die Zeigerdaten zum Zuordnen der mit den ersten Managementaufzeichnungsdaten für Ereignisdaten verknüpften zweiten Managementaufzeichnungsdaten für Ereignisdaten zu der (N+1)- ten in der Speichereinrichtung, und
die EIN-Punkt-Abwicklungsdaten und die AUS-Punkt- Abwicklungsdaten, welche die Speicherpositionen der EIN- Punkt-Clipbilddaten und der AUS-Punkt-Clipbilddaten zeigen, die sich jeweils auf das durch die bei der N-ten angezeigten Clipbilddaten gezeigte N-te Ereignis beziehen.
28. Editionssystem nach Anspruch 22, wobei
die ersten Managementaufzeichnungsdaten für Programmdaten die Zeigerdaten zum Zuordnen der Speicherposition der mit den ersten Managementaufzeichnungsdaten für Programmdaten verknüpften zweiten Managementaufzeichnungsdaten für Ereignisdaten enthalten, und
die mit den ersten Managementaufzeichnungsdaten für Ereignisdaten verknüpften zweiten Managementaufzeichnungsdaten für Ereignisdaten die EIN-Punkt-Abwicklungsdaten und die AUS- Punkt-Abwicklungsdaten zum Zuordnen der Speicherpositionen der EIN-Punkt-Clipbilddaten und der AUS-Punkt-Clipbilddaten, die sich auf das Ereignis beziehen, das als das erste Ereignis des Editionsprogramms eingegeben wird, enthalten.
29. Editionssystem nach Anspruch 28, wobei das von den zweiten Managementaufzeichnungsdaten für Programmdaten gemanagte Ereignis mit irgendeinem der von den zweiten Managementaufzeichnungsdaten für Ereignisdaten gemanagten Ereignisse koinzidiert.
30. Editionssystem nach Anspruch 28, wobei die EIN-Punkt-Abwicklungsdaten und die AUS-Punkt- Abwicklungsdaten der zweiten Managementaufzeichnungsdaten für Programmdaten mit irgendwelchen der EIN-Punkt- Abwicklungsdaten und der AUS-Punkt-Abwicklungsdaten der zweiten Managementaufzeichnungsdaten für Ereignisdaten koinzidieren.
31. Editionssystem nach Anspruch 28, wobei die mit den ersten Managementaufzeichnungsdaten für Programmdaten verknüpften zweiten Managementaufzeichnungsdaten für Ereignisdaten außerdem die Zeigerdaten zum Zuordnen der Speicherposition der zweiten Managementaufzeichnungsdaten für Programmdaten zum Managen des bezüglich des ersten Ereignisses des Editionsprogramms als nächstes Ereignis zugeordneten Ereignisses enthalten.
32. Editionssystem nach Anspruch 28, wobei
das durch die im Speicheranzeigebereich (30) bei der N- ten angezeigten Clipbilddaten gezeigte Ereignis ("N" ist der Wert einer ganzen Zahl größer als "2") ein dem N-ten Ereignis des Editionsprogramms zuzuordnendes Ereignis ist, und
das N-te Ereignis von den mit den ersten Managementaufzeichnungsdaten für Programmdaten bei der N-ten verknüpften N-ten zweiten Managementaufzeichnungsdaten für Programmdaten gemanagt wird.
33. Editionssystem nach Anspruch 28, wobei die zentrale Steuerungseinrichtung das Editionsprogramm entsprechend dem Verknüpfungszustand der mehreren zweiten Managementaufzeichnungsdaten für Programmdaten zum Managen mehrerer durch die im Programmaufzeichnungsbereich (30) in jeder Ereigniseinheit angezeigten mehreren Clipbilddaten gezeigten mehreren Ereignisse erzeugt.
34. Editionssystem nach Anspruch 28, wobei
die mit den N-ten ersten Managementaufzeichnungsdaten für Programmdaten verknüpften N-ten zweiten Managementaufzeichnungsdaten für Programmdaten aufweisen:
vorhergehende verknüpfte Zeigerdaten zum Zuordnen der Speicherposition der zweiten Managementaufzeichnungsdaten für Programmdaten, die das dem (N-1)-ten Ereignis des Editionsprogramms zugeordnete Ereignis managen,
folgende verknüpfte Zeigerdaten zum Zuordnen der Speicherposition der zweiten Managementaufzeichnungsdaten für Programmdaten, die das dem (N+1)-ten Ereignis des Editionsprogramms zugeordnete Ereignis managen und
die EIN-Punkt-Abwicklungsdaten und die AUS-Punkt- Abwicklungsdaten, welche die Speicherposition der EIN-Punkt- Clipbilddaten und der AUS-Punkt-Clipbilddaten, die sich auf das dem N-ten Ereignis des Editionsprogramms zugeordnete Ereignis beziehen, zeigen.
35. Editionssystem nach Anspruch 34, wobei
die zentrale Steuerungseinrichtung die Anzeigesteuerungseinrichtung (13) so steuert, dass von der Benutzerschnittstelleneinrichtung (17) beliebige einzelne der im Ereignisanzeigebereich (29) angezeigten Clipbilddaten zugeordnet werden und das zugeordnete Ereignis kopiert und im Programmanzeigebereich (30) angezeigt wird, und
die zentrale Steuerungseinrichtung die zweiten Managementaufzeichnungsdaten für Programmdaten, welche die gleichen EIN-Punkt-Abwicklungsdaten und AUS-Punkt-Abwicklungsdaten wie die in den zweiten Managementaufzeichnungsdaten für Ereignisdaten zum Managen der zugeordneten Clipbilddaten enthaltenen EIN-Punkt-Abwicklungsdaten und AUS-Punkt-Abwicklungsdaten aufweisen, erzeugt, um das durch die kopierten und im Programmanzeigebereich (30) angezeigten Clipbilddaten gezeigte Ereignis zu managen.
36. Editionssystem nach Anspruch 34, wobei die zentrale Steuerungseinrichtung die vorhergehenden verknüpften Zeigerdaten und die folgenden verknüpften Zeigerdaten ohne Änderung der Speicherpositionen der Clipdaten des EIN-Punktes und der Clipbilddaten des AUS-Punktes wieder in den Speicher schreibt, wobei die Abwicklungsdaten des EIN- Punktes und die Abwicklungsdaten des AUS-Punktes, die in den zweiten Managementaufzeichnungsdaten für Programmdaten gespeichert sind, wieder geschrieben werden, um den Verknüpfungszustand der zweiten Managementaufzeichnungsdaten für Programmdaten so zu ändern, dass die Ordnung der in das Editionsprogramm eingegebenen Ereignisse geändert wird.
37. Editionssystem nach Anspruch 28, wobei
die zweiten Managementaufzeichnungsdaten für Clipdaten, die zweiten Managementaufzeichnungsdaten für Ereignisdaten und die zweiten Managementaufzeichnungsdaten für Programmdaten die Zeitcodedaten enthalten, die den Zeitcode zeigen, der mit den von den jeweiligen Managementaufzeichnungsdaten gemanagten Clipbilddaten korrespondiert, und
die zentrale Steuerungseinrichtung die Anzeigesteuerungseinrichtung (13) so steuert, dass sie den Zeitcode, der mit den jeweiligen Clipbilddaten, die im Clipanzeigebereich (28), im Ereignisanzeigebereich (29) und im Programmanzeigebereich (30) angezeigt werden, korrespondiert, auf der Basis der Zeitcodedaten der zweiten Managementaufzeichnungsdaten für Clipbilddaten, der zweiten Managementaufzeichnungsdaten für Ereignisdaten und der zweiten Managementaufzeichnungsdaten für Programmdaten, die in der Speichereinrichtung gespeichert sind, anzeigt.
38. Editionssystem nach Anspruch 28, wobei die zentrale Steuerungseinrichtung das Editionsprogramm auf der Basis der Zeitcodedaten erzeugt, die In den zweiten Managementaufzeichnungsdaten gespeichert sind, die das von den im Programmanzeigebereich (30) angezeigten mehreren Clipbilddaten gezeigte Ereignis managen.
39. Editionssystem nach Anspruch 22, wobei
die zentrale Steuerungseinrichtung die serielle Indexnummer speichert, die in der Erzeugungsordnung der Clipbilddaten als die Indexnummerdaten der zweiten Managementaufzeichnungsdaten für Clipbilddaten zum Managen der im Clipanzeigebereich (28) angezeigten Clipbilddaten addiert ist, und
die zentrale Steuerungseinrichtung die zu den im Clipanzeigebereich (28) angezeigten Clipbilddaten addierte Indexnummer auf der Basis der Indexnummerdaten der in der Speichereinrichtung gespeicherten zweiten Managementaufzeichnungsdaten für Clipbilddaten anzeigt.
40. Editionssystem nach Anspruch 21, wobei
die zentrale Steuerungseinrichtung einen Cliptyp, der zeigt, dass die Clipbilddaten die EIN-Punkt-Clipbilddaten und/oder die AUS-Punkt-Clipbilddaten sind, als die Cliptypdaten der zweiten Managementaufzeichnungsdaten für Clipdaten speichert; und
die zentrale Steuerungseinrichtung den Cliptyp der im Clipanzeigebereich (28) angezeigten Clipbilddaten auf der Basis der Cliptypdaten der in der Speichereinrichtung gespeicherten zweiten Managementaufzeichnungsdaten für Clipdaten anzeigt.
41. Editionssystem nach Anspruch 20, wobei die zentrale Steuerungseinrichtung die Anzeigesteuerungseinrichtung (13) so steuert, dass alle Clipbilddaten jeweils im Clipanzeigebereich (28), Ereignisanzeigebereich (29) und Programmanzeigebereich (30) auf der Basis der ersten Managementaufzeichnungsdaten für Clipdaten, der zweiten Managementaufzeichnungsdaten für Clipdaten, der ersten Managementaufzeichnungsdaten für Ereignisdaten, der zweiten Managementaufzeichnungsdaten für Ereignisdaten, der ersten Managementaufzeichnungsdaten für Programmdaten und der zweiten Managementaufzeichnungsdaten für Programmdaten, die in der Spei¬ chereinrichtung gespeichert sind, angezeigt werden.
42. Editionssystem nach Anspruch 20, wobei
die zweiten Managementaufzeichnungsdaten für Clipdaten die den Zeitcode aller im Clipanzeigebereich (28) angezeigten Clipbilddaten zeigenden Zeitcodedaten enthalten, und wobei bei Zuordnung der im Clipanzeigebereich (28) angezeigten Clipbilddaten durch die Operation der Benutzerschnittstelleneinrichtung (17) die zentrale Steuerungseinrichtung des Computers einen Wiedergabebefehl auf der Basis der Zeitcodedaten der in der Speichereinrichtung gespeicherten zweiten Managementaufzeichnungsdaten für Clipdaten der Haupt-Aufzeichnungs- und -Wiedergabeeinrichtung zuführt,
die Haupt-Aufzeichnungs- und -Wiedergabeeinrichtung, bei der die Wiedergabeeinrichtung auf den vom Computer (1) zugeführten Wiedergabebebefehl ansprechend mit der Wiedergabe von Videodaten von einer Zeitcodeposition auf der Basis der Zeitcodedaten startet und die Ausgabeeinrichtung die auf diese Weise wiedergegebenen Videodaten an den Computer als zweite Videodaten (V3) ausgibt, und
die zentrale Steuerungseinrichtung des Computers (1) die Anzeigesteuerungseinrichtung (13) so steuert, dass die zweiten Videodaten (V3) im Wiedergabevideoanzeigebereich (23) als ein Bewegtbild angezeigt werden.
43. Editionssystem nach Anspruch 42, wobei die zentrale Steuerungseinrichtung des Computers (1) die Anzeigesteuerungseinrichtung (13) so steuert, dass in der Speichereinrichtung gespeicherten zugeordneten Clipbilddaten auf der Basis der zweiten Managementaufzeichnungsdaten für Clipdaten zum Managen der in der Speichereinrichtung gespeicherten und im zweiten EIN-Clipanzeigebereich (27a) oder im zweiten AUS-Clipanzeigebereich (27d) angezeigten zugeordneten Clipbilddaten ausgelesen werden.
44. Editionssystem nach Anspruch 42, wobei beim Detektieren durch die zentrale Steuerungseinrichtung des Computers, dass die im Clipanzeigebereich (28) angezeigten Clipbilddaten durch die Operation der Benutzerschnittstelleneinrichtung (17) zugeordnet sind, die zentrale Steuerungseinrichtung des Computers (1) einen Wiedergabebefehl an die Haupt-Aufzeichnungs- und -Wiedergabeeinrichtung ausgibt, so dass Videodaten von der Zeitcodeposition, bei der die zugeordneten Clipbilddaten aufgezeichnet worden sind, auf der Basis der Zeitcodedaten der zweiten Managementaufzeichnungsdaten für Clipbilddaten zum Managen der in der Speichereinrichtung gespeicherten Clipbilddaten wiedergegeben werden.
45. Editionssystem nach Anspruch 1, wobei die Haupt-Aufzeichnungs- und -Wiedergabeeinrichtung mehrere Disk-Arrays (73) zur Aufzeichnung von Quellenvideodaten (V1) und mehrere Disk-Arrays (76) zur Aufzeichnung von Audiodaten (A1) aufweist.
46. Editionssystem nach Anspruch 1, wobei die Haupt-Aufzeichnungs- und -Wiedergabeeinrichtung außerdem eine erste Pufferungseinrichtung (72b) zum zeitweiligen Puffern der Quellenvideodaten (V1), eine zweite Pufferungseinrichtung (72e) zum zeitweiligen Puffern der von der Wiedergabeeinrichtung wiedergegebenen Videodaten (V3) und einen Systemkontroller (70) zur Steuerung der Aufzeichnungseinrichtung, der Wiedergabeeinrichtung, der Ausgabeeinrichtung sowie der ersten Pufferungseinrichtung (72b) und der zweiten Pufferungseinrichtung (72e) durch Empfang des Steuerungsbefehls vom Computer (1) aufweist.
47. Editionssystem nach Anspruch 46, wobei der Systemkontroller (70) eine Speichereinrichtung zum Beziehen der zu den ersten Videodaten (V2) addierten Zeit¬ codedaten auf eine Aufzeichnungsadresse der Quellenvideodaten (V1) und um sie zu speichern aufweist.
48. Editionssystem nach Anspruch 46, wobei der Systemkontroller (70) die Wiedergabeeinrichtung durch Bezugnahme auf die mit dem vom Computer (1) zugeführten Wiedergabebefehl korrespondierenden Zeitcodedaten und eine Adresse der in der Speichereinrichtung des Systemkontrollers (70) gespeicherten Zeitcodedaten steuert.
49. Editionssystem nach Anspruch 46, wobei der Systemkontroller (70) die erste Pufferungseinrichtung (72b) und die zweite Pufferungseinrichtung (72e) so steuert, dass die bereits aufgezeichneten Quellenvideodaten (V1) während der Aufzeichnung des Quellenvideos (V1) auf dem Aufzeichnungsmedium (2) vom Aufzeichnungsmedium wiedergegeben werden.
50. Editionssystem nach Anspruch 46, wobei der Systemkontroller (70) die erste Pufferungseinrichtung (72b) und die zweite Pufferungseinrichtung (72e) so steuert, dass es scheint, als würden die Aufzeichnung des Quellenvideos (V1) auf dem Aufzeichnungsmedium (2) und die Wiedergabe vom Aufzeichnungsmedium (2) aus der Sicht des Computers (1) gleichzeitig ausgeführt.
51. Computersystem (1) zum Editieren von Videodaten (V1), die von einer externen Einrichtung zugeführt sind, mit:
A) einer Benutzerschnittstelleneinrichtung (17),
B) einem Videoprozessor (11, 12) zum Empfang erster Videodaten (V2), die gleichzeitig auf einem Aufzeichnungsmedium (2) aufgezeichnet werden, und zum Empfang zweiter Videodaten (V3), die vom Aufzeichnungsmedium (2) wiedergegeben werden, wobei die ersten Videodaten (V2) und die zweiten Videodaten (V3) gleichzeitig empfangen werden, und zum Erzeugen erster Clipbilddaten, die den EIN-Punkt und/oder den AUS-Punkt der ersten Videodaten (V2) von den ersten Videodaten (V2) zeigen, und auch zweiter Clipbilddaten, die den EIN-Punkt und/oder den AUS-Punkt der zweiten Videodaten (V3) von den zweiten Videodaten (V3) zeigen,
C) einer Anzeigesteuerüngseinrichtung (13) zum Anzeigen eines die Benutzerschnittstelleneinrichtung (17), die ersten Videodaten (V2), die zweiten Videodaten (V3), die ersten Clipbilddaten und die zweiten Clipbilddaten betreffenden Grafikbildes auf jeweils einem vorbestimmten Bereich einer Anzeigeeinrichtung (14), und
D) einer zentralen Steuerungseinrichtung zur Steuerung des Videoprozessors (11, 12) und der Anzeigesteuerungseinrichtung (13) entsprechend der Operation der Benutzerschnittstelleneinrichtung (17).
52. Anwenderprogramm zum Betrieb des in den Ansprüchen 1 bis 50 beschriebenen Geräts entsprechend diesen Ansprüchen.
53. Software, die ein Medium bereitstellt, durch das ein Anwenderprogramm nach Anspruch 52 bereitgestellt ist.
DE69623712T 1995-04-08 1996-04-08 Schnittsystem Expired - Fee Related DE69623712T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP10821795 1995-04-08
PCT/JP1996/000963 WO1996032722A1 (fr) 1995-04-08 1996-04-08 Systeme de mise en forme

Publications (2)

Publication Number Publication Date
DE69623712D1 DE69623712D1 (de) 2002-10-24
DE69623712T2 true DE69623712T2 (de) 2003-05-28

Family

ID=14479008

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69623712T Expired - Fee Related DE69623712T2 (de) 1995-04-08 1996-04-08 Schnittsystem

Country Status (7)

Country Link
US (1) US5930446A (de)
EP (2) EP1248258A2 (de)
JP (1) JP3837746B2 (de)
KR (1) KR970703595A (de)
CN (2) CN1139934C (de)
DE (1) DE69623712T2 (de)
WO (1) WO1996032722A1 (de)

Families Citing this family (191)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167350A (en) * 1996-04-12 2000-12-26 Sony Corporation Method and apparatus for selecting information signal range and editing apparatus for information signal
US6628303B1 (en) 1996-07-29 2003-09-30 Avid Technology, Inc. Graphical user interface for a motion video planning and editing system for a computer
DE69720221T2 (de) * 1996-07-29 2004-02-05 Avid Technology, Inc., Tewksbury Graphische benutzerschnittstelle für plan- und schnittsystem für sich bewegende videobilder für einen rechner
KR100551459B1 (ko) * 1996-09-20 2006-11-30 소니 가부시끼 가이샤 편집시스템,편집방법,클립관리장치,및클립관리방법
US6201925B1 (en) * 1996-11-15 2001-03-13 Futuretel, Inc. Method and apparatus for editing video files
US6661430B1 (en) * 1996-11-15 2003-12-09 Picostar Llc Method and apparatus for copying an audiovisual segment
JPH10164495A (ja) * 1996-11-28 1998-06-19 Sony Corp ビデオ編集装置及びその方法並びに記憶媒体
WO1998024091A1 (fr) * 1996-11-29 1998-06-04 Sony Corporation Systeme de montage video et procede correspondant
GB2325776B (en) * 1996-12-09 2000-10-11 Sony Corp Editing device,editing system and editing method
US20010016113A1 (en) * 1997-02-10 2001-08-23 Nikon Corporation Information processing apparatus and method
JP4462642B2 (ja) * 1997-03-05 2010-05-12 ソニー株式会社 編集装置及び編集方法
JP3419645B2 (ja) * 1997-03-14 2003-06-23 株式会社日立国際電気 動画像編集方法
EP0869445A3 (de) * 1997-03-31 2002-11-06 Hitachi, Ltd. System und Verfahren zur Videosignalverarbeitung mit Zeitkoden
US6052508A (en) * 1997-04-04 2000-04-18 Avid Technology, Inc. User interface for managing track assignment for portable digital moving picture recording and editing system
CA2202106C (en) * 1997-04-08 2002-09-17 Mgi Software Corp. A non-timeline, non-linear digital multimedia composition method and system
KR100603161B1 (ko) * 1997-04-12 2006-12-13 소니 가부시끼 가이샤 편집시스템및편집방법
KR100603173B1 (ko) * 1997-04-12 2006-12-15 소니 가부시끼 가이샤 편집장치및편집방법
EP0920014A4 (de) * 1997-04-12 2002-12-04 Sony Corp Schnittvorrichtung und schnittverfahren
CA2257572A1 (en) * 1997-04-12 1998-10-22 Yoshiyuki Nakamura Editing system and editing method
JP3988205B2 (ja) * 1997-05-27 2007-10-10 ソニー株式会社 映像信号記録再生装置、映像信号記録再生方法、映像信号再生装置及び映像信号再生方法
GB9716033D0 (en) * 1997-07-30 1997-10-01 Discreet Logic Inc Processing edit decision list data
US6567980B1 (en) 1997-08-14 2003-05-20 Virage, Inc. Video cataloger system with hyperlinked output
US6360234B2 (en) 1997-08-14 2002-03-19 Virage, Inc. Video cataloger system with synchronized encoders
US6463444B1 (en) 1997-08-14 2002-10-08 Virage, Inc. Video cataloger system with extensibility
US7295752B1 (en) 1997-08-14 2007-11-13 Virage, Inc. Video cataloger system with audio track extraction
JP4303798B2 (ja) * 1997-09-11 2009-07-29 ソニー株式会社 撮像装置、編集装置及び編集システム
JP4078691B2 (ja) * 1997-09-19 2008-04-23 ソニー株式会社 記録再生制御システム、記録再生制御方法および記録再生制御装置
US7394347B2 (en) * 1997-10-27 2008-07-01 World Wide Innovations, Llc Locking device for electronic equipment
US8963681B2 (en) 1997-10-27 2015-02-24 Direct Source International, Llc Operating control system for electronic equipment
JPH11297040A (ja) * 1998-04-07 1999-10-29 Sony Corp 再生信号処理装置
AU4439899A (en) 1998-06-16 2000-01-05 United Video Properties, Inc. Interactive television program guide with simultaneous watch and record capabilities
US6163510A (en) 1998-06-30 2000-12-19 International Business Machines Corporation Multimedia search and indexing system and method of operation using audio cues with signal thresholds
US6833865B1 (en) * 1998-09-01 2004-12-21 Virage, Inc. Embedded metadata engines in digital capture devices
US20040027368A1 (en) * 2002-05-09 2004-02-12 Parkervision, Inc. Time sheet for real time video production system and method
US20030214605A1 (en) * 1998-12-18 2003-11-20 Snyder Robert J. Autokeying method, system, and computer program product
US7549128B2 (en) * 2000-08-08 2009-06-16 Thomson Licensing Building macro elements for production automation control
US7024677B1 (en) 1998-12-18 2006-04-04 Thomson Licensing System and method for real time video production and multicasting
US20030001880A1 (en) * 2001-04-18 2003-01-02 Parkervision, Inc. Method, system, and computer program product for producing and distributing enhanced media
US6952221B1 (en) 1998-12-18 2005-10-04 Thomson Licensing S.A. System and method for real time video production and distribution
US8560951B1 (en) 1998-12-18 2013-10-15 Thomson Licensing System and method for real time video production and distribution
US9123380B2 (en) 1998-12-18 2015-09-01 Gvbb Holdings S.A.R.L. Systems, methods, and computer program products for automated real-time execution of live inserts of repurposed stored content distribution, and multiple aspect ratio automated simulcast production
US6909874B2 (en) * 2000-04-12 2005-06-21 Thomson Licensing Sa. Interactive tutorial method, system, and computer program product for real time media production
US6452612B1 (en) * 1998-12-18 2002-09-17 Parkervision, Inc. Real time video production system and method
US11109114B2 (en) 2001-04-18 2021-08-31 Grass Valley Canada Advertisement management method, system, and computer program product
US6760916B2 (en) 2000-01-14 2004-07-06 Parkervision, Inc. Method, system and computer program product for producing and distributing enhanced media downstreams
US6748421B1 (en) * 1998-12-23 2004-06-08 Canon Kabushiki Kaisha Method and system for conveying video messages
WO2000051129A1 (en) * 1999-02-25 2000-08-31 Applied Magic, Inc. Non-linear multimedia editing system integrated into a television, set-top box or the like
EP1183689A1 (de) 1999-03-30 2002-03-06 Tivo, Inc. System zur automatischen korrektur der wiedergabeposition nach schnellem vor- oder rückspulen
US20020118954A1 (en) 2001-12-07 2002-08-29 Barton James M. Data storage management and scheduling system
US8689265B2 (en) 1999-03-30 2014-04-01 Tivo Inc. Multimedia mobile personalization system
US7543325B2 (en) 1999-03-30 2009-06-02 Tivo Inc. System for remotely controlling client recording and storage behavior
CN100407328C (zh) 1999-03-30 2008-07-30 提维股份有限公司 多媒体可视的播放进度指示系统
US7665111B1 (en) 1999-10-20 2010-02-16 Tivo Inc. Data storage management and scheduling system
US6847778B1 (en) 1999-03-30 2005-01-25 Tivo, Inc. Multimedia visual progress indication system
EP1166269B1 (de) 1999-03-30 2018-05-23 TiVo Solutions Inc. System zum hinzufügen von lesezeichen zu einem multimediaprogramm
US6757906B1 (en) 1999-03-30 2004-06-29 Tivo, Inc. Television viewer interface system
US7242847B1 (en) * 1999-06-18 2007-07-10 Intel Corporation Systems and methods for editing video streams using a grid-based representation
US20030182567A1 (en) 1999-10-20 2003-09-25 Tivo Inc. Client-side multimedia content targeting system
JP2001195825A (ja) * 1999-10-29 2001-07-19 Sony Corp 記録再生装置および方法
JP2001143447A (ja) * 1999-11-16 2001-05-25 Sony Corp データ編集装置および方法、並びにデータ記録再生装置
JP2001197366A (ja) * 2000-01-12 2001-07-19 Hitachi Ltd 画像合成方法及び画像合成プログラムを記録した記録媒体
JP4168307B2 (ja) * 2000-03-17 2008-10-22 ソニー株式会社 情報再生装置および画像表示制御方法、並びに記録媒体
JP4348821B2 (ja) * 2000-03-27 2009-10-21 ソニー株式会社 編集装置、編集方法
US7257641B1 (en) * 2000-03-30 2007-08-14 Microsoft Corporation Multipoint processing unit
EP1273008A2 (de) * 2000-03-31 2003-01-08 Parkervision, Inc. Verfahren, system und rechnerprogrammprodukt zur vollständigen integration von nachrichten und automatisierung in einer echtzeit videoproduktionsumgebung
EP1183688B1 (de) 2000-04-05 2011-10-12 Sony Europe Limited Audio/videowiedergabegerät und verfahren
GB2361098A (en) * 2000-04-05 2001-10-10 Sony Uk Ltd Editing system and method using metadata
US7861261B2 (en) 2000-04-07 2010-12-28 Visible World, Inc. Systems and methods for managing and distributing media content
US7870578B2 (en) 2000-04-07 2011-01-11 Visible World, Inc. Systems and methods for managing and distributing media content
US7260564B1 (en) * 2000-04-07 2007-08-21 Virage, Inc. Network video guide and spidering
US7870579B2 (en) 2000-04-07 2011-01-11 Visible Worl, Inc. Systems and methods for managing and distributing media content
US7900227B2 (en) 2000-04-07 2011-03-01 Visible World, Inc. Systems and methods for managing and distributing media content
US7962948B1 (en) * 2000-04-07 2011-06-14 Virage, Inc. Video-enabled community building
US7895620B2 (en) 2000-04-07 2011-02-22 Visible World, Inc. Systems and methods for managing and distributing media content
US7222163B1 (en) * 2000-04-07 2007-05-22 Virage, Inc. System and method for hosting of video content over a network
US7890971B2 (en) 2000-04-07 2011-02-15 Visible World, Inc. Systems and methods for managing and distributing media content
US7904922B1 (en) * 2000-04-07 2011-03-08 Visible World, Inc. Template creation and editing for a message campaign
US8171509B1 (en) 2000-04-07 2012-05-01 Virage, Inc. System and method for applying a database to video multimedia
JP4332988B2 (ja) * 2000-04-27 2009-09-16 ソニー株式会社 信号処理装置及び方法
JP2001319419A (ja) * 2000-05-02 2001-11-16 Matsushita Electric Ind Co Ltd データ記録システム、記録先決定装置、媒体、および情報集合体
US8086697B2 (en) 2005-06-28 2011-12-27 Claria Innovations, Llc Techniques for displaying impressions in documents delivered over a computer network
US7475404B2 (en) 2000-05-18 2009-01-06 Maquis Techtrix Llc System and method for implementing click-through for browser executed software including ad proxy and proxy cookie caching
US6785901B1 (en) * 2000-05-19 2004-08-31 Webtv Networks, Inc. Altering locks on programming content
US9038108B2 (en) * 2000-06-28 2015-05-19 Verizon Patent And Licensing Inc. Method and system for providing end user community functionality for publication and delivery of digital media content
EP1173013A3 (de) 2000-07-14 2004-04-21 Sony Corporation Fernsteueranlage für Aufnahme/Wiedergabegerät und Videosignalaufnahme/-wiedergabegerät
AU2001277898A1 (en) * 2000-07-17 2002-01-30 Sensory Science Corporation Multimedia appliance
JP4725758B2 (ja) * 2000-08-25 2011-07-13 ソニー株式会社 情報処理装置および情報処理方法、並びに記録媒体
EP1343168A4 (de) * 2000-12-05 2006-03-22 Matsushita Electric Ind Co Ltd Aufzeichnungs/wiedergabegeraet und aufzeichnungsmedium
US6912717B2 (en) * 2000-12-06 2005-06-28 Microsoft Corporation Methods and systems for implementing dynamic properties on objects that support only static properties
US6961943B2 (en) * 2000-12-06 2005-11-01 Microsoft Corporation Multimedia processing system parsing multimedia content from a single source to minimize instances of source files
US6954581B2 (en) * 2000-12-06 2005-10-11 Microsoft Corporation Methods and systems for managing multiple inputs and methods and systems for processing media content
US6768499B2 (en) * 2000-12-06 2004-07-27 Microsoft Corporation Methods and systems for processing media content
US6882891B2 (en) * 2000-12-06 2005-04-19 Microsoft Corporation Methods and systems for mixing digital audio signals
US7114161B2 (en) * 2000-12-06 2006-09-26 Microsoft Corporation System and related methods for reducing memory requirements of a media processing system
US6834390B2 (en) 2000-12-06 2004-12-21 Microsoft Corporation System and related interfaces supporting the processing of media content
US7287226B2 (en) * 2000-12-06 2007-10-23 Microsoft Corporation Methods and systems for effecting video transitions represented by bitmaps
US6774919B2 (en) 2000-12-06 2004-08-10 Microsoft Corporation Interface and related methods for reducing source accesses in a development system
US7447754B2 (en) 2000-12-06 2008-11-04 Microsoft Corporation Methods and systems for processing multi-media editing projects
US7114162B2 (en) 2000-12-06 2006-09-26 Microsoft Corporation System and methods for generating and managing filter strings in a filter graph
US7103677B2 (en) 2000-12-06 2006-09-05 Microsoft Corporation Methods and systems for efficiently processing compressed and uncompressed media content
US6983466B2 (en) * 2000-12-06 2006-01-03 Microsoft Corporation Multimedia project processing systems and multimedia project processing matrix systems
US6959438B2 (en) 2000-12-06 2005-10-25 Microsoft Corporation Interface and related methods for dynamically generating a filter graph in a development system
US20020106191A1 (en) * 2001-01-05 2002-08-08 Vm Labs, Inc. Systems and methods for creating a video montage from titles on a digital video disk
US7356250B2 (en) * 2001-01-05 2008-04-08 Genesis Microchip Inc. Systems and methods for creating a single video frame with one or more interest points
JP2002222101A (ja) * 2001-01-29 2002-08-09 Pioneer Electronic Corp 情報記録再生装置
US6897880B2 (en) * 2001-02-22 2005-05-24 Sony Corporation User interface for generating parameter values in media presentations based on selected presentation instances
US20070089151A1 (en) * 2001-06-27 2007-04-19 Mci, Llc. Method and system for delivery of digital media experience via common instant communication clients
JP3600555B2 (ja) * 2001-06-27 2004-12-15 株式会社東芝 動画像編集装置及び動画像編集方法
US8990214B2 (en) * 2001-06-27 2015-03-24 Verizon Patent And Licensing Inc. Method and system for providing distributed editing and storage of digital media over a network
US8972862B2 (en) 2001-06-27 2015-03-03 Verizon Patent And Licensing Inc. Method and system for providing remote digital media ingest with centralized editorial control
US20060236221A1 (en) * 2001-06-27 2006-10-19 Mci, Llc. Method and system for providing digital media management using templates and profiles
US7970260B2 (en) * 2001-06-27 2011-06-28 Verizon Business Global Llc Digital media asset management system and method for supporting multiple users
JP4593842B2 (ja) * 2001-08-03 2010-12-08 キヤノン株式会社 動画像検索装置及びその制御方法
US7398004B1 (en) 2001-10-16 2008-07-08 Sonic Solutions Software methods for authoring multimedia content to be written to optical media
KR20040073511A (ko) * 2001-12-25 2004-08-19 마츠시타 덴끼 산교 가부시키가이샤 컨텐츠 재생 장치, 재생 방법 및 컴퓨터 판독 가능 프로그램
WO2003063060A2 (en) * 2002-01-24 2003-07-31 Broadcom Corporation Asymmetric digital subscriber line modem apparatus and methods therefor
AU2003237186A1 (en) * 2002-05-06 2003-11-17 Mattel, Inc. Audio-visual content editing peripheral and system
WO2003096682A1 (en) * 2002-05-09 2003-11-20 Parkervision, Inc. Video production system for automating the execution of a video show
US7603341B2 (en) 2002-11-05 2009-10-13 Claria Corporation Updating the content of a presentation vehicle in a computer network
JP4379681B2 (ja) * 2003-04-04 2009-12-09 ソニー株式会社 携帯型情報処理装置、情報送信制御方法及び情報通信システム
US20060098941A1 (en) * 2003-04-04 2006-05-11 Sony Corporation 7-35 Kitashinagawa Video editor and editing method, recording medium, and program
JP2005004866A (ja) * 2003-06-11 2005-01-06 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2005012256A (ja) * 2003-06-16 2005-01-13 Canon Inc データ処理装置
JP4096310B2 (ja) * 2003-06-18 2008-06-04 ソニー株式会社 情報作成装置および方法、再生装置および方法、並びにプログラム
JP4313639B2 (ja) * 2003-09-29 2009-08-12 パイオニア株式会社 信号処理装置
US7725828B1 (en) * 2003-10-15 2010-05-25 Apple Inc. Application of speed effects to a video presentation
KR100561417B1 (ko) * 2004-02-09 2006-03-16 삼성전자주식회사 Av 데이터의 재생상태를 전환할 수 있는 인터랙티브그래픽 스트림을 기록한 정보저장매체, 그 재생방법 및 장치
EP1569371A3 (de) * 2004-02-27 2012-10-10 Yamaha Corporation Vorrichtung zum Editieren von Szenendaten für einen digitalen Mischer
US7308476B2 (en) * 2004-05-11 2007-12-11 International Business Machines Corporation Method and system for participant automatic re-invite and updating during conferencing
KR101058007B1 (ko) * 2004-05-18 2011-08-19 삼성전자주식회사 기록 매체에 저장된 데이터를 삭제하는 방법 및 삭제된데이터를 복원하는 방법
US8296366B2 (en) * 2004-05-27 2012-10-23 Microsoft Corporation Efficient routing of real-time multimedia information
US8255413B2 (en) 2004-08-19 2012-08-28 Carhamm Ltd., Llc Method and apparatus for responding to request for information-personalization
US8078602B2 (en) 2004-12-17 2011-12-13 Claria Innovations, Llc Search engine for a computer network
JP4085392B2 (ja) * 2004-09-02 2008-05-14 ソニー株式会社 記録再生装置及びその方法並びにプログラム
US7613383B2 (en) * 2004-12-02 2009-11-03 Hitachi, Ltd. Editing method and recording and reproducing device
US7693863B2 (en) 2004-12-20 2010-04-06 Claria Corporation Method and device for publishing cross-network user behavioral data
US8073866B2 (en) 2005-03-17 2011-12-06 Claria Innovations, Llc Method for providing content to an internet user based on the user's demonstrated content preferences
US7434155B2 (en) * 2005-04-04 2008-10-07 Leitch Technology, Inc. Icon bar display for video editing system
JP4396567B2 (ja) * 2005-04-15 2010-01-13 ソニー株式会社 素材記録装置および素材記録方法
JP2006303595A (ja) * 2005-04-15 2006-11-02 Sony Corp 素材記録装置および素材記録方法
JP4442500B2 (ja) * 2005-04-15 2010-03-31 ソニー株式会社 素材記録装置および素材記録方法
JP4442499B2 (ja) * 2005-04-15 2010-03-31 ソニー株式会社 素材記録装置および素材記録方法
US20070107012A1 (en) * 2005-09-07 2007-05-10 Verizon Business Network Services Inc. Method and apparatus for providing on-demand resource allocation
US9076311B2 (en) * 2005-09-07 2015-07-07 Verizon Patent And Licensing Inc. Method and apparatus for providing remote workflow management
US9401080B2 (en) 2005-09-07 2016-07-26 Verizon Patent And Licensing Inc. Method and apparatus for synchronizing video frames
US8631226B2 (en) 2005-09-07 2014-01-14 Verizon Patent And Licensing Inc. Method and system for video monitoring
EP1949376A1 (de) 2005-11-07 2008-07-30 Koninklijke Philips Electronics N.V. Verfahren und vorrichtung zur bearbeitung eines programms auf einer optischen platte
US8024376B2 (en) * 2006-03-10 2011-09-20 Pioneer Corporation Information processing apparatus, information processing method, and information processing program
JP5458321B2 (ja) 2006-04-24 2014-04-02 ヴィジブル ワールド インコーポレイテッド マイクロトレンドを使用してメディアコンテンツを生成するシステム及び方法
CN102436833B (zh) * 2006-04-28 2016-01-20 松下电器产业株式会社 内容再现装置
JP5156646B2 (ja) * 2006-05-29 2013-03-06 ジーブイビービー ホールディングス エス.エイ.アール.エル. 動画編集システムおよび動画編集方法
JP2009044436A (ja) * 2007-08-08 2009-02-26 Toshiba Corp 映像処理装置及び映像処理システム
JP4466724B2 (ja) * 2007-11-22 2010-05-26 ソニー株式会社 単位映像表現装置、編集卓装置
JP2009163643A (ja) * 2008-01-09 2009-07-23 Sony Corp 映像検索装置、編集装置、映像検索方法およびプログラム
JP4697289B2 (ja) 2008-11-05 2011-06-08 ソニー株式会社 撮像装置、撮像装置の表示制御方法
USD606560S1 (en) * 2008-12-12 2009-12-22 Microsoft Corporation Icon for a portion of a display screen
US8701007B2 (en) * 2009-04-30 2014-04-15 Apple Inc. Edit visualizer for modifying and evaluating uncommitted media content
US8555169B2 (en) * 2009-04-30 2013-10-08 Apple Inc. Media clip auditioning used to evaluate uncommitted media content
US8881013B2 (en) * 2009-04-30 2014-11-04 Apple Inc. Tool for tracking versions of media sections in a composite presentation
US8769421B2 (en) * 2009-04-30 2014-07-01 Apple Inc. Graphical user interface for a media-editing application with a segmented timeline
US8549404B2 (en) 2009-04-30 2013-10-01 Apple Inc. Auditioning tools for a media editing application
US9564173B2 (en) 2009-04-30 2017-02-07 Apple Inc. Media editing application for auditioning different types of media clips
US8522144B2 (en) * 2009-04-30 2013-08-27 Apple Inc. Media editing application with candidate clip management
US20110113361A1 (en) * 2009-11-06 2011-05-12 Apple Inc. Adjustment presets for digital images
CN101909161B (zh) * 2009-12-17 2013-12-25 新奥特(北京)视频技术有限公司 一种视频剪辑方法及装置
US8910046B2 (en) 2010-07-15 2014-12-09 Apple Inc. Media-editing application with anchored timeline
US8875025B2 (en) 2010-07-15 2014-10-28 Apple Inc. Media-editing application with media clips grouping capabilities
JP5833822B2 (ja) * 2010-11-25 2015-12-16 パナソニックIpマネジメント株式会社 電子機器
US8886015B2 (en) 2011-01-28 2014-11-11 Apple Inc. Efficient media import
US8745499B2 (en) 2011-01-28 2014-06-03 Apple Inc. Timeline search and index
US8621355B2 (en) 2011-02-02 2013-12-31 Apple Inc. Automatic synchronization of media clips
US11747972B2 (en) 2011-02-16 2023-09-05 Apple Inc. Media-editing application with novel editing tools
US9997196B2 (en) 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US8966367B2 (en) 2011-02-16 2015-02-24 Apple Inc. Anchor override for a media-editing application with an anchored timeline
US9536564B2 (en) 2011-09-20 2017-01-03 Apple Inc. Role-facilitated editing operations
US9437247B2 (en) 2011-11-14 2016-09-06 Apple Inc. Preview display for multi-camera media clips
USD684187S1 (en) * 2011-12-02 2013-06-11 Microsoft Corporation Display screen with icon
JP5915158B2 (ja) * 2011-12-22 2016-05-11 ソニー株式会社 タイムコード表示装置及びタイムコード表示方法
US20150309998A1 (en) * 2012-01-12 2015-10-29 Thomson Licensing Method and apparatus for playing a mp4 file container while generating such a file
CN103313122B (zh) * 2012-03-09 2018-02-27 联想(北京)有限公司 一种数据处理方法及电子设备
US8994777B2 (en) * 2012-03-26 2015-03-31 Salesforce.Com, Inc. Method and system for web conference recording
US9106961B2 (en) * 2012-05-11 2015-08-11 Cisco Technology, Inc. Method, system, and apparatus for marking point of interest video clips and generating composite point of interest video in a network environment
US9014544B2 (en) 2012-12-19 2015-04-21 Apple Inc. User interface for retiming in a media authoring tool
CN104347096A (zh) * 2013-08-09 2015-02-11 上海证大喜马拉雅网络科技有限公司 集音频裁剪、续录及合并于一体的录音系统和方法
USD737320S1 (en) * 2013-10-03 2015-08-25 La Crosse Technology, Ltd. Display screen with icon
USD741368S1 (en) * 2013-10-17 2015-10-20 Microsoft Corporation Display screen with transitional graphical user interface
US10471348B2 (en) 2015-07-24 2019-11-12 Activision Publishing, Inc. System and method for creating and sharing customized video game weapon configurations in multiplayer video games via one or more social networks
USD781914S1 (en) * 2015-11-18 2017-03-21 Domo, Inc. Display screen or portion thereof with a graphical user interface
USD921034S1 (en) * 2019-04-03 2021-06-01 Vyaire Medical, Inc. Display screen with a graphical user interface
USD1041506S1 (en) * 2022-01-20 2024-09-10 Clo Virtual Fashion Inc. Display panel with icon
USD1041504S1 (en) * 2022-01-20 2024-09-10 Clo Virtual Fashion Inc. Display panel with icon

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1217559A (en) * 1982-12-22 1987-02-03 Ronald C. Barker Video composition method and apparatus
US4717971A (en) * 1984-08-24 1988-01-05 Eastman Kodak Company Partitioned editing method for a collection of video still pictures
JP2643188B2 (ja) * 1987-10-05 1997-08-20 松下電器産業株式会社 情報編集装置
EP0268270B1 (de) * 1986-11-20 1993-11-03 Matsushita Electric Industrial Co., Ltd. Informationsschnittgerät
US5047867A (en) * 1989-06-08 1991-09-10 North American Philips Corporation Interface for a TV-VCR system
US5218672A (en) * 1990-01-19 1993-06-08 Sony Corporation Of America Offline editing system with user interface for controlling edit list generation
US5237648A (en) * 1990-06-08 1993-08-17 Apple Computer, Inc. Apparatus and method for editing a video recording by selecting and displaying video clips
JP3029318B2 (ja) * 1991-05-22 2000-04-04 株式会社東芝 画像ワ−クステ−ション
DE69222102T2 (de) * 1991-08-02 1998-03-26 Grass Valley Group Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
US5396339A (en) * 1991-12-06 1995-03-07 Accom, Inc. Real-time disk system
WO1993021635A1 (en) * 1992-04-10 1993-10-28 Avid Technology, Inc. Method for visually and audibly representing computer instructions for editing video
JPH05342267A (ja) * 1992-06-10 1993-12-24 Nippon Denki Micom Technol Kk ドキュメント処理系におけるグロッサリ・インデックス自動作成方式
US5404316A (en) * 1992-08-03 1995-04-04 Spectra Group Ltd., Inc. Desktop digital video processing system
EP0598516A3 (de) * 1992-11-05 1996-07-03 Sony Corp Aufzeichnung und Wiedergabe von bewegten Bildern.
GB2273220B (en) * 1992-12-07 1997-01-08 Quantel Ltd A video processing system
US5333091B2 (en) * 1993-01-08 1996-12-17 Arthur D Little Enterprises Method and apparatus for controlling a videotape player to automatically scan past recorded commercial messages
JPH06259887A (ja) * 1993-03-09 1994-09-16 Sony Corp 記録再生装置
JPH06282965A (ja) * 1993-03-26 1994-10-07 Sony Corp ビデオ編集装置
EP0625781B1 (de) * 1993-04-13 2000-06-14 Sony Corporation Editiergerät
US5339393A (en) * 1993-04-15 1994-08-16 Sony Electronics, Inc. Graphical user interface for displaying available source material for editing
US5440348A (en) * 1993-04-16 1995-08-08 Avid Technology, Inc. Method and user interface for creating, specifying and adjusting motion picture transitions
JP3595835B2 (ja) * 1994-03-16 2004-12-02 ソニー株式会社 映像データ編集装置及び映像データ編集方法
US5659793A (en) * 1994-12-22 1997-08-19 Bell Atlantic Video Services, Inc. Authoring tools for multimedia application development and network delivery

Also Published As

Publication number Publication date
CN1312609C (zh) 2007-04-25
EP0764951B1 (de) 2002-09-18
CN1139934C (zh) 2004-02-25
WO1996032722A1 (fr) 1996-10-17
EP0764951A1 (de) 1997-03-26
US5930446A (en) 1999-07-27
JP3837746B2 (ja) 2006-10-25
EP1248258A2 (de) 2002-10-09
EP0764951A4 (de) 2000-11-22
CN1534512A (zh) 2004-10-06
KR970703595A (ko) 1997-07-03
CN1149924A (zh) 1997-05-14
DE69623712D1 (de) 2002-10-24

Similar Documents

Publication Publication Date Title
DE69623712T2 (de) Schnittsystem
DE69327707T2 (de) Videoverarbeitungssystem
DE69718844T2 (de) Schnittsteuerungsgerät und Schnittsteuerung
DE69836790T2 (de) Suchen von Videobildern, Produktion von Videoinformationen und Speichermedium zur Speicherung eines Verarbeitungsprogramms dafür
DE69424084T2 (de) Verfahren und Vorrichtung zum Anzeigen von verfügbarem Editierquellenmaterial
JP4117616B2 (ja) 編集システム、その制御方法及び編集装置
US6674955B2 (en) Editing device and editing method
DE69332178T2 (de) Elektronischer Videospeicher
DE19946727A1 (de) Vorrichtung und Verfahren zur Videoeditierung
DE69701566T2 (de) Medieneditiersystem und verfahren mit verbesserter effektsteuerung
DE60129390T2 (de) Informationsaufzeichnungs- und -wiedergabevorrichtung
DE69424896T2 (de) Editiergerät
US20030091329A1 (en) Editing system and editing method
DE19915008A1 (de) Editiervorrichtung
JP4168334B2 (ja) 編集装置及び編集方法
DE69719696T2 (de) Videoschnittverfahren, nicht-lineares Videoschnittgerät und Speichermedium für Videoschnittprogramm
DE69720221T2 (de) Graphische benutzerschnittstelle für plan- und schnittsystem für sich bewegende videobilder für einen rechner
DE60222463T2 (de) Aufzeichnungs/wiedergabegerät und aufzeichnungs/wiedergabeverfahren
JP4229199B2 (ja) 編集装置及び編集方法
JP4588126B2 (ja) 編集システム及び編集方法
JP2000149502A (ja) 編集データ作成装置
DE69912735T2 (de) Datenaufzeichnungs-/-wiedergabegerät
JPH10290418A (ja) 編集装置
JP2007317352A (ja) 編集装置及び編集方法
JPH10290419A (ja) 編集装置

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee