DE69623712T2 - Schnittsystem - Google Patents
SchnittsystemInfo
- Publication number
- DE69623712T2 DE69623712T2 DE69623712T DE69623712T DE69623712T2 DE 69623712 T2 DE69623712 T2 DE 69623712T2 DE 69623712 T DE69623712 T DE 69623712T DE 69623712 T DE69623712 T DE 69623712T DE 69623712 T2 DE69623712 T2 DE 69623712T2
- Authority
- DE
- Germany
- Prior art keywords
- data
- clip
- image data
- clip image
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000007726 management method Methods 0.000 claims description 204
- 230000015654 memory Effects 0.000 claims description 74
- 238000013523 data management Methods 0.000 claims description 39
- 238000012545 processing Methods 0.000 claims description 34
- 230000003139 buffering effect Effects 0.000 claims description 11
- 239000003550 marker Substances 0.000 claims description 4
- 238000000034 method Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 238000003491 array Methods 0.000 claims 2
- 238000000605 extraction Methods 0.000 claims 1
- 239000002131 composite material Substances 0.000 description 42
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000011084 recovery Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 102100034866 Kallikrein-6 Human genes 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 102100022907 Acrosin-binding protein Human genes 0.000 description 1
- 102100022465 Methanethiol oxidase Human genes 0.000 description 1
- 102100031798 Protein eva-1 homolog A Human genes 0.000 description 1
- 102100040791 Zona pellucida-binding protein 1 Human genes 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/36—Monitoring, i.e. supervising the progress of recording or reproducing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/20—Disc-shaped record carriers
- G11B2220/25—Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
- G11B2220/2508—Magnetic discs
- G11B2220/2512—Floppy disks
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/40—Combinations of multiple record carriers
- G11B2220/41—Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title
- G11B2220/415—Redundant array of inexpensive disks [RAID] systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Description
- Diese Erfindung betrifft ein Schnitt- bzw. Editionssystem. Die Erfindung ist beispielsweise für ein System zum Schneiden bzw. Editieren von so bald wie möglich zu berich¬ tendem Material, beispielsweise Sport- und Nachrichtenreportagen, geeignet.
- Mit einem Videoeditiersystem gemäß US-A-5 237648 kann ein Benutzer Quellenvideodaten durch Steuern der Rate, mit der die Quellenvideodaten zugeführt werden, so, wie sie dem Editiersystem zugeführt werden, direkt schneiden bzw. editieren, und das System stellt eine Einrichtung zum direkten Manipulieren jedes Rahmens oder Punktes in einer Liste vorher markierter Clips bereit.
- Ein Videoeditiersystem gemäß EP-A-0601749 weist eine Direktzugriffsspeichereinrichtung auf und stellt "Verarbeitungs- bzw. Einstelldaten" bereit, die von einem Benutzer an Quellenvideodaten gemachte Auswahlen und Modifikationen beschreiben, wobei die editierten Daten nicht in der Direktzugriffsspeichereinrichtung gespeichert, sondern anstelle dessen durch die Einstelldaten in Zuordnung zu den ursprünglichen Videodaten dargestellt werden. Dieses Editiersystem kann Videodaten von einer externen Quelle in Realzeit in der Speichereinrichtung aufzeichnen und die gleichen Quellendaten an einen Videoprozessor ausgeben. Es kann auch Videodaten von der Speichereinrichtung an den Videoprozessor zum Editieren ausgeben.
- Diese Erfindung ist im Hinblick auf den vorstehend genannten Punkt gemacht worden. Die Erfindung bezweckt die Bereitstellung eines Editionssystems, das einen Realzeitschnitt bzw. eine Realzeitedition mit einem im Vergleich zum Stand der Technik kleineren System realisieren kann.
- Im Hinblick auf den obigen Punkt weist bei dieser Erfindung ein Schnitt- bzw. Editionssystem auf ein Haupt- Aufzeichnungs- und -Wiedergabegerät mit einer Eingabe/Ausgabe-Einrichtung zum Empfangen von in Realzeit eingegebenen Eingangsvideodaten, Ausgeben von aus den eingegebenen Videodaten erhaltenen Videodaten als erste Videodaten in Realzeit und Ausgeben von vom Aufzeichnungsmedium wiedergegebenen Videodaten als zweite Videodaten in Realzeit, und einer Aufzeichnungs- und Wiedergabeeinrichtung zum tatsächlichen Ausführen der Aufzeichnungsoperation zur Aufzeichnung von in Realzeit eingegebenen Eingangsvideodaten auf dem Aufzeichnungsmedium gleichzeitig mit der Wiedergabeoperation zur Wiedergabe der auf dem Aufzeichnungsmedium in Realzeit aufgezeichneten Videodaten, wobei ein Computer mit einer Anzeigeeinrichtung zum Anzeigen einer graphischen Anzeige für eine Benutzerschnittstelle, die einen sich auf die Aufzeichnungs- und Wiedergabeoperation des Haupt-Aufzeichnungs- und - Wiedergabegeräts beziehenden Steuerungsbefehl und die vom Haupt-Aufzeichnungs- und -Wiedergabegerät in Realzeit zugeführten ersten Videodaten und die zweiten Videodaten erzeugt, und eine Ereigniserzeugungseinrichtung mit einer ersten Ereigniserzeugungsoperation zum Erzeugen eines ersten Ereignisses aus den ersten Videodaten durch Betätigen der auf der Anzeigeeinrichtung angezeigten Benutzerschnittstelle und einer unabhängig von der ersten Ereigniserzeugungsoperation ausgeführten zweiten Ereigniserzeugungsoperation zum Erzeugen eines zweiten Ereignisses aus den zweiten Videodaten durch Betätigen der auf der Anzeigeeinrichtung angezeigten Benutzerschnittstelle verwendet ist, wodurch eine Hochgeschwindigkeits-Realzeitedition realisiert werden kann.
- Fig. 1 ist ein Diagramm zur Erläuterung der generellen Struktur eines Editionssystems dieser Erfindung.
- Fig. 2 ist ein Diagramm, das die innere Struktur eines Computers 1 zeigt.
- Fig. 3 ist ein Diagramm, dass eine graphische Anzeige für eine auf dem Monitor 14 des Computers 1 angezeigte GUI zeigt.
- Fig. 4 ist ein Diagramm, das erste Managementaufzeichnungsdaten für Clipdaten, Ereignisdaten und Programmdaten darstellt.
- Fig. 5 ist ein Diagramm, das zweite Managementaufzeichnungsdäten für Clipdaten darstellt.
- Fig. 6 ist ein Diagramm, das zweite Managementaufzeichnungsdaten für Ereignisdaten und Programmdaten darstellt.
- Fig. 7 ist ein Diagramm, das die Markierungsordnung abgeschnittener bzw. geclippter Bilddaten und eine zu diesen in Form · einer Tabelle addierten Indexnummer, Clipnummer und Ereignisnummer zeigt.
- Fig. 8 ist ein Diagramm, das alle geclippten Bilddaten zeigt, die in einem Clipanzeigebereich 28, einem Ereignisanzeigebereich 29 und einem Programmanzeigebereich 30 angezeigt werden.
- Fig. 9A ist ein Diagramm, das den Verbindungszustand von Verwaltungs- bzw. Managementaufzeichnungsdaten zum Verwalten bzw. Managen von Programmdaten zeigt.
- Fig. 9B ist ein Diagramm, das den Verbindungszustand von Managementaufzeichnungsdaten zum Managen von Ereignisdaten zeigt.
- Fig. 9C ist ein Diagramm, das den Verbindungszustand von Managementaufzeichnungsdaten zum Managen von Clipdaten zeigt.
- Fig. 10 ist ein Diagramm, das die innere Struktur des Festplattenarrays 2 zeigt.
- Fig. 11 ist ein Flussdiagramm, das die Anfangsoperation · dieses Editionssystems zeigt.
- Fig. 12 ist ein Flussdiagramm, das die erste Markierungsoperation dieses Editionssystems zeigt.
- Fig. 13A und 13B sind Flussdiagramme, welche die zweite Markierungsoperation dieses Editionssystems zeigen.
- Es wird unter Bezugnahme auf die beigefügten Zeichnungen eine Ausführungsform dieser Erfindung beschrieben.
- Die generelle Struktur dieses Editionssystems wird anhand der Fig. 1 beschrieben. Fig. 1 zeigt generell die Hardwarestruktur des ganzen Editionssystems.
- Dieses Editionssystems besteht aus einem Computer 1 und einem Festplattenarray 2. Im Computer 1 ist ein Anwendungsprogramm zum Editieren von zum Computer übertragenen Videodaten installiert. Dieses im Editiercomputer installierte Anwendungsprogramm ist ein Programm, das unter dem Betriebssystem des Computers betrieben werden kann. Dieses Anwendungsprogramm enthält eine GUI (Graphik User Interface = graphische Benutzerschnittstelle bzw. Benutzeroberfläche) zum Erzeugen eines Steuerungsbefehls.
- Im Festplattenarray 2 sind auf dem Array mehrere Festplatten angeschlossen bzw. verbunden. Das Festplattenarray 2 wird so gesteuert, dass eine Aufzeichnung und Wiedergabe gleichzeitig nach außen ausgeführt werden. Insbesondere kann von der Festplatte ein Videosignal in Realzeit wiedergegeben werden, während das Signal aufgezeichnet wird.
- Der Computer 1 und das Festplattenarray 2 sind durch ein Kommunikationskabel entsprechend dem Kommunikationsformat der RS-422-Schnittstelle miteinander verbunden. Das Kommunikationsformat der RS-422-Schnittstelle ist ein Kommunikationsformat, bei dem ein Videosignal und ein Steuerungsbefehl gleichzeitig gesendet/empfangen werden können.
- Das in das Editionssystem eingegebene Eingangsvideosignal V1 ist ein beispielsweise von einer Videokamera aufgenommenes zusammengesetztes Videosignal bzw. Videomischsignal, ein von einem VTR oder dgl. ausgegebenes zusammengesetztes Videosignal bzw. Videomischsignal oder dgl. Dieses Videomischsignal ist ein entsprechend dem SDI-Format (SDI = Seriell Digital Interface = serielle digitale Schnittstelle) zu übertragendes Signal. Das vom Editionssystem ausgegebene Videosignal V2 oder V3 ist ebenfalls ein entsprechend einem SDI-Format zu übertragendes Videomischsignal. Natürlich kann das in das/aus dem Editionssystem eingegebene/ausgegebene Videosignal ein Videomischsignal sein. Gleichzeitig ist das in das/aus dem Editionssystem eingegebene/ausgegebene Videosignal nicht auf ein digitales Videosignal beschränkt, sondern kann ein analoges Videomischsignal sein.
- Die Gesamtoperation dieses Editionssystems wird anhand der Fig. 1 beschrieben. Es sei darauf hingewiesen, dass die detaillierte Beschreibung später ausgeführt wird. Das beispielsweise von einer Videokamera aufgenommen Videomischsignal wird in den Computer 1 bzw. das Festplattenarray 2 eingegeben. Das in den Computer 1 eingegebene Videosignal wird auf dem Monitor des Editiercomputers 1 angezeigt. Andererseits wird das in das Festplattenarray 2 eingegebene Videosignal in Realzeit codiert und auf einer Festplatte aufgezeichnet.
- Eine den Computer 1 betätigende Bedienungsperson kann durch Betätigen einer Zeigereinrichtung, beispielsweise einer mit dem Computer 1 verbundene Maus, einen Editionspunkt, beispielsweise einen übertragenen EIN-Punkt (Editionsstartpunkt) und einen AUS-Punkt (Editionsendpunkt) zuordnen. Außerdem kann durch Verwendung der auf dem Monitor des Computers 1 angezeigten GUI ein Steuerungsbefehl zur Edition erzeugt werden. Ein derart erzeugter Steuerungsbefehl wird zum Festplattenarray 2 als ein Steuerungsbefehl von RS-422 übertragen, um die Wiedergabe des Festplattenarrays 2 zu steuern. Das wiedergegebene Videosignal V3 wird auf dem Monitor des Computers 1 angezeigt und an eine externe Einrichtung ausgegeben.
- Nachfolgend wird anhand der Fig. 2 die innere Struktur des Computers 1 detailliert beschrieben. Der Computer 1 stellt einen Systembus 5 zur Übertragung eines Steuerungssignals, eines Videosignals usw., eine CPU 10 zur Steuerung des Ganzen des Computers, einen ersten Videoprozessor 11 und einen zweiten Videoprozessor 12 zur Ausführung einer Bildvetarbeitung usw. an einem Videosignal, einen Anzeigekontroller 13 zur Kontrolle bzw. Steuerung eines auf einem Videomonitor 14 und einer graphischen Anzeige für eine GUI angezeigten Videosignals, eine HDD-Schnittstelle 15 zur Kontrolle bzw. Steuerung eines lokalen Festplattenlaufwerks (HDD) 15a, eine FDD- Schnittstelle 16 zur Kontrolle bzw. Steuerung eines Diskettenlaufwerks (FDD) 15a, eine Zeigereinrichtungs-Schnittstelle 17 zur Erzeugung von Steuerungsdaten auf der Basis des Be¬ fehls von einer Zeigereinrichtung wie beispielsweise einer generell als Maus bezeichneten Cursoreinrichtung 17a, eines Bedienfeldes 17b und einer Tastatur 17c, und eine externe Schnittstelleneinheit 18, die einen Softwaretreiber zur Ausführung einer Datenkommunikation gemäß dem RS-422- Kommunikationsformat mit dem Festplattenarray 2 bereit.
- Der Systembus 5 ist ein Block zur Ausführung der Kommunikation der Videodaten, Befehlsdaten, Adressendaten usw. im Computer 1 und besteht aus einem Bilddatenbus 5a zur Übertragung von Videodaten und einem Befehlsdatenbus 5b zur Übertragung eines Steuerungssignals. Mit dem Bilddatenbus 5a sind jeweils der erste und zweite Videoprozessor 11 und 12, der Anzeigekontroller 13, die HDD-Schnittstelle 15 und die FDD- Schnittstelle 16 verbunden. Infolgedessen sind der erste Videoprozessor 11, der zweite Videoprozessor 12, der Anzeigekontroller 13, die HDD-Schnittstelle 15 und die FDD- Schnittstelle 16 über den Datenbus 5a verbunden, und so können Videodaten zwischen den Blöcken übertragen werden. Andererseits sind die CPU 10, der erste Videoprozessor 11, der zweite Videoprozessor 12, der Anzeigekontroller 13, die HDD- Schnittstelle 15, die FDD-Schnittstelle 16, die Zeigeinrichtungs-Schnittstelle 17 und die externe Schnittstelleneinheit 18 mit dem Befehlsdatenbus 5b verbunden. Das heißt, alle Blöcke im Computer 1 sind über den Befehlsdatenbus 5b verbunden.
- Die CPU 10 ist ein Block zum Steuern des ganzen Computers. Die CPU 10 stellt einen ROM 10a, in welchem ein Betriebssystem des Computers 1 gespeichert ist, und einen RAM 10b, in welchem ein auf der Festplatte 15a aufgezeichnetes Anwendungsprogramm durch Hinaufladen gespeichert ist, bereit. Beim Hochfahren des Computers 1 führt die CPU 10 ein Softwareprogramm entsprechend dem im RCM 10a gespeicherten Betriebssystem aus. Außerdem liest die CPU 10 bei der Ausführung einer Anwendung unter diesem Betriebssystem das Anwendungsprogramm aus, das auf der Festplatte des Festplattenlaufwerks 15a gespeichert worden ist, und lädt auf den RAM 10b in der CPU 10 hinauf.
- Der erste Videoprozessor 11 ist ein Block zum Empfang und zur Umwandlung des in den Computer 1 eingegebenen ersten Videomischsignals und zur vorübergehenden Pufferung des so umgewandelten Videomischsignals. Konkret weist der erste Videoprozessor 11 einen Prozessorkontroller 11a zur Kontrolle bzw. Steuerung des Ganzen des Videoprozessors 11, eine Datenumwandlungseinheit 11b zur Umwandlung eines empfangenen analogen Videomischsignals in digitale Komponentenvideodaten und einen Rahmenspeicher 11c zur vorübergehenden Speicherung der Videodaten für mehrere Rahmen, die von der Datenumwandlungseinheit 11b ausgegeben werden, auf.
- Der Prozessorkontroller 11a gibt an die Datenumwandlungseinheit 11b ein Steuerungssignal zur Datenumwandlung und ein Steuerungssignal zur Extraktion eines Zeitcodes aus dem eingegebenen Videomischsignal V2 aus. Außerdem gibt der Prozessorkontroller 11a ein Steuerungssignal zur Steuerung eines Lese/Schreib-Timings und einer Lese/Schreib-Adresse des Rahmenspeichers 11c aus. Konkret steuert der Prozessorkontroller 11a das Lesetiming des Rahmenspeichers so, dass ein an einen Anzeigekontroller 13 ausgegebener Zeitcode mit Videodaten. (Rahmendaten) korrespondiert.
- Die Datenumwandlungseinheit 11b wandelt ein analoges Videomischsignal auf der Basis eines Steuerungssignals aus dem Prozessorkontroller 11a in ein Komponentenvideosignal um, und wandelt es dann in digitale Videodaten um. Zu diesem Zeitpunkt werden Zeitcodedaten extrahiert. Die digital umgewandelten Videodaten werden an den Rahmenspeicher 11c ausgegeben, und der extrahierte Zeitcode wird an den Prozessorkontroller 11a ausgegeben.
- Als nächstes wird die Art und Weise der Übertragung und Extraktion des Zeitcodes beschrieben. Das Videomischsignal V2 ist ein analoges Videomischsignal, bei dem ein Zeitcode in der Vertikalsynchronisierungsperiode des Videoeingangsignals 51 überlagert worden ist. Dieser Zeitcode ist ein in zwei Linien bzw. Zeilen von 14H und 16H oder 12H und 14H in der mit VITC (Vertical Interval Time Code = Vertikalintervall- Zeitcode) bezeichneten Vertikaleaustastperiode eingesetztes Signal. Bei dieser Ausführungsform wird als dieser Zeitcode ein von einem mit einem externen Rundfunksendesystem synchronisierender Zeitcodegenerator erzeugter Zeitcode verwendet, jedoch kann durch Bereitstellen des Zeitcodegenerators in ei¬ nem Festplattenarray 2 ein von einem internen Generator erzeugter Zeitcode verwendet werden. Wie oben beschrieben wird bei dieser Ausführungsform dem Mischsignal ein codierter Zeitcode überlagert. In dem Fall, dass dieser Zeitcode aus dem Videomischsignal extrahiert wird, kann beim Umwandeln eines analogen Signals in digitale Daten leicht ein Zeitcode extrahiert werden, indem nur ein digital umgewandelter Zeitcode in der Vertikalsynchronisierungsperiode decodiert wird.
- Die digital umgewandelten Videodaten werden im Rahmenspeicher 11c vorübergehend gespeichert. Das Lese/Schreib- Timing dieses Rahmenspeichers 11c wird vom Prozessorkontroller 11a kontrolliert bzw. gesteuert. Der Rahmenspeicher 11c besteht aus zwei Rahmenspeichern, deren jeder die Kapazität 1MByte aufweist. Insgesamt weist er die Kapazität 4MByte auf. Die im Rahmenspeicher 11c gespeicherten Videodaten sind Videodaten aus 1520 Pixel mal 960 Pixel, und es können im obigen Rahmenspeicher Videodaten für zwei Rahmen gespeichert werden. Die Videodaten aus 1520 Pixel mal 960 Pixel werden entsprechend der Auslesesteuerung des Prozessorkontrollers 11a ausgelesen. Die aus dem Rahmenspeicher 11c ausgelesenen Videodaten sind nicht Videodaten aus 1520 Pixel mal 960 Pixel, das heißt allen Pixeln, sondern Videodaten, bei denen die Datenmenge so verdünnt ist, dass sie 380 Pixel mal 240 Pixel geworden sind. Hier bedeutet das Verdünnender Daten¬ menge einfach die Reduzierung der ausgelesenen Videodatenmenge durch Reduzierung der Abtastrate der aus dem Rahmenspeicher 11c ausgelesenen Videodaten auf 1/4. Die ausgelesenen Videodaten aus 380 Pixel mal 240 Pixel werden durch den Bilddatenbus 5a an den Anzeigekontroller 13 ausgegeben.
- Der zweite Videoprozessor 12 weist komplett die gleiche Struktur wie der erste Videoprozessor auf. Das heißt der Prozessor 12 weist einen Prozessorkontroller 12a zur Steuerung des Ganzen des Videoprozessors 12, eine Datenumwandlungseinheit 12b zur Umwandlung eines empfangenen analogen zusammengesetzten Videosignals in digitale Komponentenvideodaten und einen Rahmenspeicher 12c zur vorübergehenden Speicherung von aus der Datenumwandlungseinheit 12b ausgegebenen Videodaten für mehrere Rahmen auf. Der unterschiedliche Punkt zwischen dem ersten Videoprozessor 11 und dem zweiten Videoprozessor liegt darin, dass in den ersten Videoprozessor 11 das Videomischsignal V2 eingegeben wird, in den zweiten Videoprozessor 12 dagegen ein Videomischsignal V3 eingegeben wird.
- Das zusammengesetzte Videosignal V2 ist ein Videosignal, bei dem in der Vertikalsynchronisierungsperiode des Eingangsvideosignals V1 im Festplattenarray 2 ein Zeitcode überlagert ist, und deshalb ist es das gleiche Videosignal wie ein zeitlich in Realzeit eingegebenes Eingangsvideosignal. Das heißt, die im Rahmenspeicher 11c gespeicherten Videodaten sind die gleichen Videodaten wie ein Videosignal, bei dem das Eingangsvideosignal digitalisiert ist.
- Das Videomischsignal V3 ist ein vom Festplattenarray durch den Befehl aus dem Computer 1 wiedergegebenes Videosignal. Demgemäss ist das Videomischsignal V3 ein Videosignal, das zeitlich nicht das Eingangsvideosignal V1 betrifft. Dies wird nachfolgend detailliert beschrieben. Ist die Bedienungsperson angewiesen, gewünschte Videodaten an den Computer 1 wiederzugeben, gibt der Computer 1 einen Wiedergabebefehl an das Festplattenarray 2 aus. Das Festplattenarray 2 gibt von der Bedienungsperson zugeordnete Videodaten und einen damit korrespondierenden Zeitcode in Abhängigkeit von dem Befehl aus dem Computer 1 wieder. Es sei darauf hingewiesen, dass ein Zeitcode und Videodaten so gespeichert sind, dass sie für jede Rahmeneinheit miteinander korrespondieren. Die detaillierte Struktur im Festplattenarray wird später beschrieben.
- Dann wird in der Vertikalsynchronisierungsperiode der wiedergegebenen Videodaten ein wiedergegebener Zeitcode überlagert. Danach werden die Videodaten zur Übertragung zum Computer 1 in das analoge Videomischsignal V3 umgewandelt und an diesen ausgegeben.
- Das dem zweiten Prozessor zugeführte Videomischsignal V3 wird ähnlich wie das dem ersten Videoprozessor zugeführte Videomischsignal als digitale Videodaten aus 380 Pixel mal 240 Pixel über die Datenumwandlungseinheit 12b und den Rahmenspeicher 12c zum Anzeigekontroller 13 übertragen.
- Der Anzeigekontroller 13 ist ein Steuerungsblock zur Steuerung von auf dem Monitor 14 angezeigten Daten. Der Anzeigekontroller 13 weist einen Speicherkontroller 13a und einen VRAM (Video Random Access Memory = Video- Direktzugriffsspeicher) 13b auf. Der Speicherkontroller 13a steuert das Lese/Schreib-Timing des VRAM 14b entsprechend der internen Synchronisation im Computer 1. Im VRAM 13b werden entsprechend einem Timingsteuerungssignal aus dem Speicherkontroller 14a Videodaten aus dem Rahmenspeicher 11c des ersten Videoprozessors 11, Videodaten aus dem Rahmenspeicher 12c des zweiten Videoprozessors 12 und Bilddaten aus der CPU 10 gespeichert. Die im VRAM 13b gespeicherten Bilddaten werden aus dem VRAM 13b entsprechend dem auf der internen Synchronisation des Computers basierenden Timingsteuerungssignal aus dem Speicherkontroller 12b, gelesen und dann auf dem Videomonitor 14 graphisch angezeigt. Die in der obigen Art und Weise auf dem Monitor 14 angezeigte graphische Anzeige wird eine graphische Anzeige für eine GUI. Hier sind die von der CPU 10 an den VRAM 13b ausgegebenen Bilddaten solche Bilddaten wie beispielsweise ein Fenster, ein Cursor und/oder eine Bildlaufleiste. Die graphische Anzeige für die GUI kann durch Anzeigen dieser mehreren Typen von Bilddaten auf dem Monitor erhalten werden.
- Die Festplatten-Schnittstelle 15 ist ein Block zum Schnittstellenverbinden mit dem im Computer 1 vorhandenen lokalen Festplattenlaufwerk (HDD) 15a. Die Kommunikation zwischen der Festplatten-Schnittstelle 15 und dem Festplattenlaufwerk 15a wird entsprechend dem Übertragungsformat der SCSI-Schnittstelle (SCSI = Small Computer System Interface = Kleincomputersystem-Schnittstelle) ausgeführt. Im Festplattenlaufwerk 15a ist ein Anwendungsprogramm zum. Hochfahren durch den Computer 1 installiert, so dass es beim Ausführen des Anwendungsprogramms aus dem Festplattenlaufwerk 15a ausgelesen und auf den RAM 11b hinaufgeladen wird. Außerdem wird bei Beendigung dieses Anwendungsprogramms eine von der im RAM 11b gespeicherten Editieroperation gebildete Arbeitsdatei auf die Festplatte 15a heruntergeladen.
- Die Disketten-Schnittstelle 16 ist ein Block zum Schnittstellenverbinden mit dem im Computer 1 vorhandenen Diskettenlaufwerk (FDD) 16a. Die Kommunikation zwischen der Disketten-Schnittstelle 16 und dem Diskettenlaufwerk 16a wird entsprechend dem SCSI-Übertragungsformat ausgeführt. Im Diskettenlaufwerk 16a ist die EDL (Edit Decision List = Editierentscheidungsliste), die das Editionsergebnis der Editieroperation zeigt, gespeichert.
- Die Zeigereinrichtungs-Schnittstelle 17 ist ein Block zum Schnittstellenverbinden mit der Maus 17a, dem Bedienfeld 17b und der Tastatur 17c, die mit dem Computer 1 verbunden sind. Die Zeigereinrichtungs-Schnittstelle 17 empfängt von der Maus 17a beispielsweise eine Detektionsinformation eines in der Maus 17a vorhanden zweidimensionalen Drehcodierers und eine Klickinformation der auf der Maus 17a vorgesehenen linken und rechten Taste. Die Zeigereinrichtungs-Schnittstelle 17 decodiert die empfangene Information und gibt sie an die CPU 10 aus. Ähnlich empfängt die Zeigereinrichtungs- Schnittstelle 17 Information aus dem Bedienfeld 17b und der Tastatur 17c, um die empfangene Information zu decodieren und sie an die CPU 10 auszugeben.
- Die externe Schnittstelle 18 ist ein extern mit dem Computer 1 verbundener Block zur Kommunikation mit dem Festplattenarray 2. Die externe Schnittstelle 18 weist einen RS-422- Treiber zur Umwandlung von in der CPU 10 erzeugten Befehlsda¬ ten für ein RS-422-Kommunikationsprotokoll auf.
- Nachfolgend Wird eine graphische Anzeige für die GUI anhand der Fig. 3 beschrieben. Die graphische Anzeige auf dem Monitor 14 ist grob in zehn Bereiche eingeteilt: einen Aufzeichnungsvideoanzeigebereich 21, einen Timinganzeigebereich 22, einen Wiedergabevideoanzeigebereich 23, einen Aufzeichnungsvideomarkierungsbereich 24, einen Wiedergabegeschwindigkeitseinstellungsbereich 25, einen Rückgewinnungsboxbereich 26 mit den Zeichen "RECYCLE BOX", einen wiedergabevideomarkierungsbereich 27, einen Clipanzeigebereich 28 mit den Zeichen "CLIP", einen Ereignisanzeigebereich 29 mit den Zeichen "EVENT" und einen Programmanzeigebereich 30 mit den Zeichen "PROGRAM". Diese Bereiche werden in der obigen Reihenfolge jeweils beschrieben.
- Der Aufzeichnungsvideoanzeigebereich 21 weist einen Aufzeichnungsvideoschirm 21a, einen Aufzeichnungsstartpunktanzeigeabschnitt 21b mit den Zeichen "REC START", einen Speicherverbleibzeitanzeigeabschnitt 21c mit den Zeichen "REMAIN" und einen Aufzeichnungsanzeigeabschnitt 21d mit den Zeichen "REC" auf.
- Ein auf dem Aufzeichnungsvideoschirm 21a angezeigtes Videosignal ist ein Videosignal, das von dem vom Festplattenarray 2 ausgegebenen Videomischsignal V2 erhalten wird, wobei das vom Rahmenspeicher 11c dem VRAM 13b zugeführte Videosignal 380 Pixel · 240 Pixel aufweist.
- Beim Aufzeichnungsstartpunktanzeigeabschnitt 21b wird vom Festplattenarray 2 ein den Zeitpunkt, bei dem die Aufzeichnung des auf dem Aufzeichnungsvideoschirm 21a angezeigten Videosignals gestartet wird, anzeigender Zeitcode angezeigt.
- Beim Speicherverbleibzeitanzeigeabschnitt 21c wird die restliche bzw. verbleibende Zeit des Speichers des Festplattenarrays 2 angezeigt. Die Operation dieser Verbleibzeit kann leicht von der aufzeichenbaren Zeit des Festplattenarrays 2 durch Subtrahieren der die Aufzeichnung startenden Zeit von der gegenwärtigen Zeit subtrahierenden Zeit erhalten werden, da die ganze Kapazität des Festplattenarrays 2 vorher eingestellt worden ist.
- Der Timinganzeigebereich 22 weist einen Einminutentaktanzeigeabschnitt 22a, einen Zeitanzeigeabschnitt 22b, einen Eingangsvideosignalzeitcodeanzeigeabschnitt 22c, einen Wie¬ dergabevideosignalzeitcodeanzeigeabschnitt 22d, einen mit "ON AIR" bezeichneten Rundfunksendeanzeigeabschnitt 22e, eine mit. "MODE" bezeichnete Modustaste 22f, eine mit "PREROLL" bezeichnete Vorrolltaste 22g und eine mit "DMC" (DMC = Dynamic Motion Control = dynamische Bewegungssteuerung) bezeichnete Wiedergabegeschwindigkeitseinstelltaste 22h auf.
- Der Einminutentaktanzeigeabschnitt 22a ist ein Bereich zum Zählen einer Minute (oder von drei Minuten) in der Einheit Sekunde und zu ihrer visuellen Anzeige. Ist die Zählung vorbei, wird die Farbe des Anzeigeabschnitts Sekunde um Sekunde geändert, und deshalb kann die Bedienungsperson die verstreichende Zeit visuell erfassen. Wird gesagt, dass dieser Einminutenanzeigeteil 22a in der Situation, bei der eine Minute gezählt wird, verwendet ist, wird er bei vorausschauender Betrachtung des erzeugten Programms beispielsweise bei der Zuordnung eines AUS-Punktes nach dem Zählen einer Minute ab dem Zeitpunkt der Zuordnung eines EIN-Punktes und dem Zählen einer Minute ab dem Start der Vorausschau verwendet.
- Im Zeitanzeigeabschnitt 22b wird die gegenwärtige Zeit angezeigt. Beim Aufzeichnungsvideosignalzeitcodeanzeigeabschnitt 22c wird ein mit dem beim Aufzeichnungsvideoanzeige¬ bereich 21 angezeigten Videosignal korrespondierender Zeitcode angezeigt. Dieser Zeitcode ist ein vom Prozessorkontroller 11a im ersten Videoprozessor 11 von der Vertikalsynchronisierungsperiode des Videomischsignals V2 extrahierter Zeitcode.
- Beim Wiedergabevideosignalzeitcodeanzeigeabschnitt 22c wird ein mit dem beim Wiedergabevideo-Anzeigebereich 23 angezeigten Videosignal korrespondierender Zeitcode angezeigt. Dieser Zeitcode ist ein vom Prozessorkontroller 12a im zweiten Videoprozessor 12 aus der Vertikalsynchronisationsperiode des Videomischsignals V3 extrahierter Zeitcode.
- Wenn von einer externen Einrichtung ein Rundfunksenden anzeigendes verzögertes Signal zugeführt wird, ändert sich die Anzeigefarbe des Rundfunksendeanzeigeabschnitts 22e auf rot. Dieses Rundfunksenden anzeigende Signal ist ein Signal, das zugeführt wird, wenn das vom Festplattenarray 2 ausgegebene Videomischsignal V3 rundfunkgesendet wird. Wie oben ist die Farbe des Rundfunksendeanzeigeabschnitts 22e variabel, und so kann die Bedienungsperson das Rundfunksenden visuell erfassen.
- Die Modustaste 22f ist ein Taste, die beim Schalten zwischen einem Bildmodus zur Anzeige eines wie beispielsweise in Fig. 3 gezeigten Graphikbildes und einem Zeitlinienmodus zur Anzeige einer Zeitlinie verwendet wird. Beim Anklicken der Modustaste 22f mit der Maus 17a wird der Modus zwischen dem Bildmodus und dem Zeitlinienmodus geschaltet.
- Es sei darauf hingewiesen, dass später beschrieben wird, wie die Vorrolltaste 22g und die Wiedergabegeschwindigkeits- Einstelltaste (DMC: Dynamic Motion Control) 22h zu verwenden sind.
- Beim Wiedergabevideo-Anzeigebereich 23 sind ein Wiedergabevideoschirm 23a, eine Hin-und-Herbewegungstaste 23b, Suchlauftasten bzw. Tippschalter 23c und ein Wiedergabezustandsanzeigeabschnitt 23d mit den Zeichen "PLAY" vorgesehen.
- Ein auf den Wiedergabevideoschirm 23a angezeigtes Video¬ signal ist ein Videosignal, das von dem vom Festplattenarray 2 wiedergegebenen Videomischsignal V3 erhalten wird und vom Rahmenspeicher 12c dem VRAM 13b zugeführt wird, so dass es gleich 380 Pixel · 240 Pixel ist.
- Die Hin-und-Herbewegungstaste 23b wird verwendet, wenn das Revue passieren Lassen bzw. Überprüfen (Bildsuchlaufsenden) der vom Festplattenarray 2 wiedergegebenen und auf dem Wiedergabevideoschirm 23a angezeigten Videodaten gewünscht ist. Wird die Hin-und-Herbewegungstaste 23b in der Richtung gezogen, bei der die Videodaten durch Zuordnen mit der Maus 17b gesendet werden sollen, wird eine Wiedergabesteuerung des Festplattenarrays 2 entsprechend dem Zug ausgeführt.
- Die Tippschalter 23c werden verwendet, wenn der Benutzer die vom Festplattenarray 2 wiedergegebenen und auf dem Wiedergabevideoschirm 23a angezeigten Videodaten Rahmen um Rahmen bzw. rahmenweise senden will. Will der Benutzer die auf dem Wiedergabevideoschirm 23a angezeigten Videodaten rahmenweise senden, muss der Benutzer den Tippschalter 23c in der Richtung zum rahmenweisen Senden klicken, wodurch die Wiedergabevideodaten rahmenweise gesendet werden.
- Beim Wiedergabezustandsanzeigeabschnitt 23d werden die Zeichen "PLAY" oder STILL" angezeigt. Sind die auf dem Wiedergabevideoschirm 23a angezeigten Videodaten ein vom Festplattenarray 2 wiedergegebenes Bewegtbild, werden die Zeichen "PLAY" angezeigt, und wenn die auf dem Wiedergabevideoschirm 23a angezeigten Videodaten ein vom Festplattenarray 2 wiedergegebenes statisches Bild sind, werden die Zeichen "STILL" angezeigt.
- Der Aufzeichnungsvideomarkierungsbereich 24 ist ein Bereich, der benutzt wird, wenn die geclippten Bilddaten eines EIN-Punktes oder eines AUS-Punktes von den auf dem Aufzeichnungsvideoschirm angezeigten Videodaten markiert wird. Hier bedeutet "Markieren" das Zuordnen oder Setzen eines EIN- Punktes oder eines AUS-Punktes. Außerdem bedeutet hier "Clipbild" ein "statisches Bild". Der Aufzeichnungsvideomarkierungsbereich 24 weist einen EIN-Clipanzeigebereich 24a bei den Zeichen "IN", einen Zeitcodeanzeigeabschnitt 24b, eine Markierungs-EIN-Taste 24c, einen AUS-Clipanzeigebereich 24d bei den Zeichen "OUT", einen Zeitcodeanzeigeabschnitt 24e und eine Markierungs-AUS-Taste 24f auf.
- Der EIN-Clipanzeigebereich 24a ist ein Bereich mit den Clipbilddaten des EIN-Punktes, der von der Bedienungsperson durch Anklicken der Markierungs-EIN-Taste 24c als ein EIN- Punkt markiert worden ist. Diese im EIN-Clipanzeigebereich 24a angezeigten Clipbilddaten sind Bilddaten, die von dem vom Festplattenarray 2 ausgegebenen und dem VRAM 13b zugeführten zusammengesetzten Videosignal V2 erhalten werden, so dass sie 95 Pixel · 60 Pixel sind.
- Beim Zeitcodeanzeigeabschnitt 24b wird ein Zeitcode der auf den EIN-Clipanzeigebereich 24a angezeigten Clipbilddaten angezeigt. Dieser Zeitcode ist ein vom Prozessorkontroller 12a des ersten Videoprozessors 11 beim Markieren eines EIN- Punktes durch klicken der Markierungs-EIN-Taste 24c durch eine Bedienungsperson aus dem Videomischsignal extrahierter Zeitcode.
- Die Markierungs-EIN-Taste 24c ist eine Taste zum Markieren eines EIN-Punktes. Die Bedienungsperson klickt diese Taste, während sie die auf dem Aufzeichnungsvideoschirm 21a angezeigten Videodaten betrachtet. Beim Klicken der Taste 24c werden aus den auf dem Aufzeichnungsvideoschirm 21a zu diesem Zeitpunkt angezeigten Videodaten Clipbilddaten (95 Pixel · 60 Pixel) erzeugt, und die so erzeugten Clipbilddaten werden im EIN-Clipanzeigebereich 24a angezeigt. Die Beschreibung der konkreten Operation wird später gegeben.
- Der AUS-Clipanzeigebereich 24d ist ein Bereich zum Anzeigen der Clipbilddaten des AUS-Punktes, der von der Bedienungsperson durch Klicken der Markierungs-AUS-Taste 24f markiert worden ist. Diese auf dem AUS-Clipanzeigebereich 24b angezeigten Clipbilddaten sind Bilddaten, die aus dem von dem Festplattenarray 2 ausgegebenen und dem VRAM 13b zugeführten Videomischsignal V2 erhalten werden, so dass sie gleich 95 Pixel · 60 Pixel sind.
- Beim Zeitcodeanzeigeabschnitt 24e wird ein Zeitcode der auf dem AUS-Clipanzeigebereich 24a angezeigten Clipbilddaten angezeigt. Dieser Zeitcode ist ein vom Prozessorkontroller 12a des ersten Videoprozessors 11 beim Markieren eines AUS- Punktes durch klicken der Markierungs-AUS-Taste 24c durch eine Bedienungsperson aus dem Videomischsignal extrahierter Zeitcode.
- Die Markierungs-AUS-Taste 24c ist eine Taste zum Markieren eines AUS-Punktes. Die Bedienungsperson klickt die Mar¬ kierungs-AUS-Taste 24c, während sie die auf dem Aufzeichnungsvideoschirm 21a angezeigten Videodaten betrachtet. Beim Klicken der Taste 24c werden von den zu diesem Zeitpunkt auf dem Aufzeichnungsvideoschirm 21a angezeigten Videodaten geclippte Bilddaten (95 mal 60 Pixel) erzeugt, und die so erzeugten Clipbilddaten werden im AUS-Clipanzeigebereich 24d angezeigt. Die Beschreibung dieser konkreten Operation wird später gegeben.
- Die Rückgewinnungsbox 26 ist ein Bereich, der benutzt wird, wenn die erzeugten Clipbilddaten gelöscht werden. Beim Löschen ordnet der Benutzer die geclippten Bilddaten mit der Maus zu und zieht die geclippten Bilddaten auf den Bereich der Rückgewinnungsbox 26, wodurch das Löschen ausgeführt wird. Beim Wiederherstellen der gelöschten Clipbilddaten wird beim Klicken der Rückgewinnungsbox 26 das Ganze der bei der Rückgewinnungsbox 26 fallengelassenen Clipbilddaten angezeigt. Beim Zeigen auf Clipbilddaten, die aus diesen wiederhergestellt werden sollen, werden die zugeordneten Clipbilddaten wieder hergestellt.
- Der Wiedergabevideomarkierungsbereich 27 ist ein Bereich, der benutzt wird, wenn Clipbilddaten eines EIN-Punktes oder AUS-Punktes von den auf dem Wiedergabevideoschirm 23a angezeigten Videodaten markiert werden. Dieser Wiedergabevideomarkierungsbereich 27 weist einen EIN-Clipanzeigebereich 27a bei den Zeichen "IN", einen Zeitcodeanzeigeabschnitt 27b, eine Markierungs-EIN-Taste 27c, einen AUS-Clipanzeigebereich 27d bei den Zeichen "OUT", einen Zeitcodeanzeigeabschnitt 27e und eine Markierungs-AUS-Taste 27f auf.
- Der EIN-Clipanzeigebereich 27a ist ein Bereich zum Anzeigen der Clipbilddäten, die von der Bedienungsperson durch Klicken der Markierungs-EIN-Taste 27c als ein EIN-Punkt markiert worden sind. Die im EIN-Olipanzeigebereich 27a angezeigten Clipbilddaten werden aus dem vom Festplattenarray 2 ausgegebenen und vom Rahmenspeicher 12c den VRAM 13b zugeführten Videomischsignal V2 erhalten, so dass sie gleich 95 mal 60 Pixel sind.
- Im Zeitcodeanzeigeabschnitt 27b wird ein Zeitcode der im EIN-Clipanzeigebereich 27a angezeigten Clipbilddaten angezeigt. Dieser Zeitcode ist ein Zeitcode, der aus dem vom Videomischsignal V3 durch den Prozessorkontroller 12a des zweiten Videoprozessors 12 beim Markieren eines EIN-Punktes durch Klicken des Markierungs-EIN-Taste 27c durch die Bedienungsperson extrahiert wurde.
- Die Markierungs-EIN-Taste 27c ist eine Taste zum Markieren eines EIN-Punktes. Die Bedienungsperson klickt diese Markierungs-EIN-Taste 27c, während sie die auf dem Wiedergabevideoschirm 23a angezeigten Videodaten betrachtet. Beim Klicken der Taste 27c werden aus den auf dem Wiedergabevideoschirm 23a zu diesem Zeitpunkt angezeigten Videodaten Clipbilddaten (95 mal 60 Pixel) erzeugt, und die so erzeugten Clipbilddaten werden im EIN-Clipanzeigebereich 27a angezeigt. Die Beschreibung der konkreten Operation wird später gegeben.
- Der AUS-Clipanzeigebereich 27d ist ein Bereich zum Anzeigen der Clipbilddaten eines AUS-Punktes, der von der Bedienungsperson durch Klicken der Markierungs-AUS-Taste 27f markiert worden ist. Die im AUS-Clipanzeigebereich 27d angezeigten Clipbilddaten sind Bilddaten, die von den vom Festplattenarray 2 ausgegebenen und vom Rahmenspeicher 12c dem VRAM 13b zugeführten Videomischsignal V3 erhalten werden, so dass sie gleich 95 Pixel · 60 Pixel sind.
- Im Zeitcodeanzeigeabschnitt 27e wird ein Zeitcode der im AUS-Clipanzeigebereich 27a angezeigten Clipbilddaten angezeigt. Der Zeitcode ist ein Zeitcode, der aus dem vom Prozes¬ sorkontroller 12a des zweiten Videoprozessors 12 extrahiert worden ist, wenn die Bedienungsperson durch Klicken der Markierungs-AUS-Taste 24f einen AUS-Punkt markiert hat.
- Die Markierungs-AUS-Taste 27f ist eine Taste zum Markieren eines AUS-Punktes. Die Bedienungsperson sollte diese Markierungs-AUS-Taste 27f anklicken, während sie die auf dem Wiedergabevideoschirm 23a angezeigten Videodaten betrachtet. Beim Klicken der Taste 27f werden von den zu diesem Zeitpunkt auf dem Wiedergabevideoschirm 23a angezeigten Videodaten Clipbilddaten (95 Pixel · 60 Pixel) erzeugt, und die so erzeugten Clipbilddaten werden im AUS-Clipanzeigebereich 27d angezeigt. Die Beschreibung der konkreten Operation wird später gegeben.
- Der Clipanzeigebereich 28 ist ein Bereich zum Anzeigen der Clipbilddaten, die durch Klicken der Markierungs-EIN- Taste 24c und der AUS- Markierungstaste 24f, die im Aufzeichnungsvideomarkierungsbereich 24 vorgesehen sind, markiert worden sind, und der Clipbilddaten, die durch Klicken der im Wiedergabevideomarkierungsbereich 27 vorgesehenen Marklerungs-EIN-Taste 27c und Markierungs-AUS-Taste 27f markiert worden sind. Es sei darauf hingewiesen, dass die auf dem Clipanzeigebereich 28 angezeigten Clipbilddaten solche Clipbilddaten sind, die nicht als der EIN-Punkt und der AUS-Punkt eines Ereignisses verwendet werden. Die als ein EIN-Punkt und als ein AUS-Punkt eines Ereignisses verwendeten geclippten Bilddaten werden im Ereignisanzeigebereich 29 angezeigt. Der Clipanzeigebereich 28 weist einen Clipbilddatenanzeigebereich 28a, einen Zeitcodeanzeigeabschnitt 28b, einen Cliptypanzeigeabschnitt 28c mit den Zeichen "IN" oder "OUT", einen Clipnummeranzeigeabschnitt 28d, eine Vorwärtstaste 28e und ein Rückwärtstaste 28f auf.
- Der Clipbilddatenanzeigebereich 28a ist ein Bereich zum Anzeigen von 95 Pixel · 60 Pixel-Clipbilddaten, die vom EIN- Clipanzeigebereich 24a oder vom AUS-Clipanzeigebereich 24d oder vom EIN-Clipanzeigebereich 27a oder vom AUS- Clipanzeigebereich 27d bewegt worden sind.
- Im Zeitcodeanzeigeabschnitt 28b wird ein Zeitcode der auf dem Clipbildanzeigebereich 28a angezeigten Clipbilddaten angezeigt. Dieser Zeitcode wird ähnlich wie die Clipbilddaten, die vom EIN-Clipanzeigebereich 24a oder AUS- Clipanzeigebereich 24d oder EIN-Clipanzeigebereich 27a oder AUS-Clipanzeigebereich 27d zum Clipanzeigebereich 28a bewegt. Im Cliptypanzeigeabschnitt 28c sind Daten, welche die auf dem Clipbilddatenanzeigebereich 28a angezeigten Clipbilddaten zeigen, die Clipbilddaten eines EIN-Punktes oder eines AUS-Punktes. Wenn die im Clipbilddatenanzeigebereich. 28a angezeigten Clipbilddaten die aus dem EIN-Clipanzeigebereich 24a erhaltenen Clipbilddaten sind, werden rote Zeichen "IN" angezeigt. Wenn die im Clipbilddatenanzeigebereich 28a angezeigten Clipbilddaten die vom AUS-Clipanzeigebereich 24d erhaltenen Clipbilddaten sind, werden rote Zeichen "OUT" angezeigt. Sind die im Clipbilddatenanzeigebereich 28a die vom EIN-Clipanzeigebereich 27a erhaltenen Clipbilddaten, werden blaue Zeichen "IN" angezeigt. Sind die im Clipbilddatenanzeigebereich 28a angezeigten Clipbilddaten die vom AUS- Clipanzeigebereich 27d erhaltenen Clipbilddaten, werden blaue. Zeichen "OUT" angezeigt.
- Im Clipnummeranzeigeabschnitt 28d wird eine Clipnummer angezeigt, die zu dem auf dem Clipbilddatenanzeigebereich 28a angezeigten Clipbilddaten addiert ist. Diese Clipnummer ist eine Zahl, die automatisch zu Clipbilddaten in der Ordnung addiert wird, in der diese Clipbilddaten markiert sind.
- Die Vorwärtstaste 28e und die Rückwärtstaste 28f werden zum Vorwärts- oder Rückwärtsbewegen der Anzeige von Clipbilddaten im Clipanzeigebereich 28 verwendet. In dem Fall, dass viele Clipbilddaten erzeugt werden, kann das Ganze der Clipbilddaten nicht im Clipanzeigebereich auf dem Monitor angezeigt werden. In einem solchen Fall werden die Vorwärtstaste 28e und/oder die Rückwärtstaste 28f betätigt, um die Clipbilddaten vorwärts und/oder rückwärts zu bewegen, wodurch das Ganze der Clipbilddaten auf dem Monitor angezeigt werden kann.
- Der Ereignisanzeigebereich 29 ist ein Bereich zum Anzeigen der Clipbilddaten des Ereignisses, das durch Klicken der im Aufzeichnungsvideomarkierungsbereich 24 vorgesehenen Markierungs-EIN-Taste 24c und Markierungs-AUS-Taste 24f in dieser Reihenfolge erzeugt wird, und der Clipbilddaten des Ereignisses, das durch Klicken der im Wiedergabevideomarkierungsbereich 27 vorgesehenen Markierungs-EIN-Taste 27c und Markierungs-AUS-Taste 27f in dieser Reihenfolge markiert wird. Pro Ereignis werden beliebige der Clipbilddaten eines EIN-Punktes oder der Clipbilddaten eines AUS-Punktes angezeigt. Der Ereignisanzeigebereich 29 weist ähnlich wie der Clipanzeigebereich 28 einen Clipbilddatenanzeigebereich 29a, einen Zeitcodeanzeigeabschnitt 29b, einen Cliptypanzeigeabschnitt 29c mit den Zeichen "IN" oder "OUT", einen Ereignisnummeranzeigeabschnitt 29d, eine Vorwärtstaste 29e und eine Rückwärtstaste 29f auf und außerdem weist der Bereich 29 einen Ereignistitelanzeigeabschnitt 29g auf.
- Im Cliptypanzeigeabschnitt 29c zeigen Daten an, dass die im Clipbilddatenanzeigebereich 29a angezeigten Clipbilddaten welche von den Clipbilddaten eines EIN-Punktes oder die eines AUS-Punktes sind. Werden die Clipbilddaten des EIN-Punktes als Clipbilddaten des Ereignisses angezeigt, werden im Cliptypanzeigebereich die Zeichen "IN" angezeigt. Will die Bedienungsperson gerne die Clipbilddaten des AUS-Punktes anstelle der Clipbilddaten des EIN-Punktes anzeigen, soll die Bedienungsperson diesen Cliptypanzeigeabschnitt 29c anklicken, so dass die Clipbilddaten des AUS-Punktes angezeigt werden. Dann werden die Clipbilddaten des EIN-Punktes und die geklippten Bilddaten des AUS-Punktes jedes Mal, wenn der Cliptypanzeigeabschnitt 29c angeklickt wird, alternativ angezeigt.
- Im Ereignisnummeranzeigeabschnitt 29d wird eine dem erzeugten Ereignis hinzugefügte Ereignisnummer angezeigt. Diese Ereignisnummer ist eine Zahl, die automatisch zum Ereignis addiert wird und sich nicht auf die Clipnummer bezieht.
- Im Ereignistitelanzeigeabschnitt 29g wird ein zum Ereignis addierter Titel durch Zeichen angezeigt.
- Im Programmanzeigebereich 30 wird eine Kopie der im Ereignisanzeigebereich 29 angezeigten Clipbilddaten des Ereignisses angezeigt. Durch Kopieren der im Ereignisanzeigebereich 29 angezeigten Clipbilddaten des Ereignisses in den Programmanzeigebereich 30 durch Ziehen können im Ereignisanzeigebereich 29 angezeigte Ereignisse frei neu angeordnet werden. Außerdem soll in dem Fall, dass eine Neuanordnung geclippter Bilddaten im Programmanzeigebereich 30 ausgeführt wird, die Bedienungsperson die Clipbilddaten eines im Programmanzeigebereich 30 angezeigten Ereignisses ziehen, um sie wieder zu dem anderen Platz im Programmanzeigebereich 30 zu bewegen, wodurch Ereignisse frei neu angeordnet werden können. In diesem Fall wird das Ereignis nicht kopiert sondern bewegt. Der Programmanzeigebereich 30 weist ähnlich wie der Ereignisanzeigebereich 29 einen Clipbilddatenanzeigebereich 30a, einen Zeitcodeanzeigeabschnitt 30b, einen Cliptypanzeigeabschnitt 30c mit den Zeichen "IN" oder "OUT", einen Ereignisnummeranzeigeabschnitt 30d, eine Vorwärtstaste 30e, eine Rückwärtstaste 30f und einen Ereignistitelanzeigeabschnitt 30g auf.
- Eine Aufzeichnungsstarttaste 31a mit den Zeichen "START" und eine Aufzeichnungsstopptaste 31b mit den Zeichen "STOP" sind Tasten zum Ausgeben von Steuerungsbefehlen zur Aufzeichnung eines Starts und Stopps auf dem Festplattenarray 2. Beim Klicken der Aufzeichnungsstarttaste 31a erfasst die CPU 10, dass die Aufzeichnungsstarttaste 31a gedrückt wurde und befiehlt der externen Schnittstelle 18, einen Aufzeichnungsstartbefehl auszugeben. Die externe Schnittstelle 18 wandelt den Befehl von der CPU 10 in einen Aufzeichnungsstoppbefehl (REC STOP-Befehl) um, der in RS-422 definiert ist, und gibt ihn an das Festplattenarray 2 aus. Das Festplattenarray 2 stoppt das Aufzeichnen des Eingangsvideosignals V1 auf einer Festplatte in Abhängigkeit vom empfangenen Aufzeichnungsstoppbefehl. Beim Anklicken der Aufzeichnungsstopptaste 31b detektiert die CPU 10, dass die Aufzeichnungsstopptaste 31b gedrückt wurde, und befiehlt der externen Schnittstelle 18, einen Aufzeichnungstoppbefehl auszugeben. Die externe Schnittstelle 18 wandelt den Befehl von der CPU 10 in einen Aufzeichnungsstartbefehl (REC STOP-Befehl) um der in RS-422 definiert ist, und gibt ihn an das Festplattenarray 2 aus. Das Festplattenarray 2 stoppt die Aufzeichnung des Eingangsvideosignals V1 auf der Festplatte in Abhängigkeit vom empfangenen Aufzeichnungsstartbefehl.
- Eine Vorschautaste 32 mit den Zeichen "PREVIEW" wird bei der Vorschau eines gewählten Ereignisses und Programms oder dgl. benutzt. Beim Zuordnen eines Ereignisses eines Programms oder dgl. werden die Clipbilddaten des zugeordneten Ereignisses, Programms oder dgl. im Zustand eines Stehbildes (STILL) auf dem Anzeigevideoschirm 23a angezeigt. Wird zu diesem. Zeitpunkt diese Vorschautaste 32 angeklickt, detektiert die CPU 10, dass die Vorschautaste gedrückt wurde und befiehlt der externen Schnittstelle 18, einen Wiedergabestartbefehl auszugeben. Die externe Schnittstelle 18 wandelt den Befehl von der CPU 10 in einen Wiedergabestartbefehl PLAY START um, der in RS-422 definiert ist, und gibt ihn an das Festplattenarray 2 aus. Das Festplattenarray 2 startet die Wiedergabe des Videomischsignals V3 von der Festplatte in Abhängigkeit vom empfangenen Wiedergabestartbefehl.
- Beim neuen Erzeugen eines Ereignisses wird eine Neuereignistaste 33 mit den Zeichen "NEW EVENT" verwendet. In dem Fall, dass ein Ereignis, bei dem der EIN-Punkt und der AUS- Punkt von dem von der Bedienungsperson zugeordneten Ereignis gewechselt werden, als ein neues Ereignis registriert wird, soll die Bedienungsperson diese Neuereignistaste 33 anklicken.
- Eine Austauschtaste 34 mit den Zeichen "REPLACE" wird benutzt, wenn der Benutzer einen EIN-Punkt und einen AUS- Punkt des gewählten Ereignisses gerne wechseln will. In dem Fall, dass der Benutzer das Ereignis, bei dem der EIN-Punkt und der AUS-Punkt von dem vom Benutzer zugeordneten Ereignis gewechselt sind, nicht als ein neues Ereignis, sondern wieder als dieses zugeordnete Ereignis einsetzt, soll die Bedienungsperson diese Austauschtaste 34 anklicken.
- Beim Löschen eines gewählten Ereignisses oder Programms wird eine Beseitigungstaste 35 mit den Zeichen "DELETE" verwendet. Ein so gelöschtes Ereignis oder Programm wird in die Rückgewinnungsbox 26 weggeworfen.
- Nachfolgend wird ein Speicherungsverfahren von Clipbilddaten, Ereignisdaten und Programmdaten beschrieben. Hierbei enthalten die Clipbilddaten die Daten zur Anzeige von Clipbilddaten im Clipanzeigebereich und die Daten zum Speichern von Clipbilddaten. Ähnlich ist es bei den Ereignisdaten und den Programmdaten.
- Zuerst werden unter Bezugnahme auf die Fig. 4 erste Managementaufzeichnungsdaten für Clipdaten, Ereignisdaten und Programmdaten beschrieben.
- Für Clipdaten, Ereignisdaten bzw. Programmdaten sind jeweils erste Managementaufzeichnungsdaten vorgesehen. Das heißt, die ersten Managementaufzeichnungsdaten für Clipdaten sind Daten zum Verwalten bzw. Managen des Ganzen der im Clipanzeigebereich 28 angezeigten Clipbilddaten. Außerdem sind die ersten Managementaufzeichnungsdaten für Ereignisdaten Daten zum Managen des Ganzen der im Ereignisanzeigebereich 29 angezeigten Clipbilddaten. Außerdem sind die ersten Managementaufzeichnungsdaten für Programmdaten Daten zum Managen des Ganzen der im Programmanzeigebereich 30 angezeigten Clipbilddaten. Bei dieser Ausführungsform existieren für die Clipdaten, Ereignisdaten bzw. Programmdaten erste Managementaufzeichnungsdaten jeweils nur einmal.
- Die ersten Managementaufzeichnungsdaten weisen Daten hinsichtlich eines Zeigers zu den vorhergehenden verbundenen bzw. verknüpften Daten, eines Zeigers zu den folgenden verknüpften Daten, der horizontalen Anzeigegröße für nur eine Seite, der vertikalen Anzeigegröße für nur eine Seite, einer Anzeigeposition auf dem Schirm, einer Kopfanzeigeposition und der Gesamtzahl von Verbindungen auf.
- "Zeiger zu vorhergehenden verknüpften Daten" sind Daten, die den Zeiger der Managementaufzeichnungsdaten zeigen, die vor den ersten Managementaufzeichnungsdaten verknüpft werden. Existieren keine vorher verknüpften Managementaufzeichnungsdaten, wird der Zeiger der ersten Managementaufzeichnungsdaten selbst aufgezeichnet.
- "Zeiger zu folgenden verknüpften Daten" sind Daten, die den Zeiger der Managementaufzeichnungsdaten zeigen, die nach den ersten Managementaufzeichnungsdaten verknüpft werden. Existieren keine nachher verknüpften Managementaufzeichnungsdaten, wird der Zeiger der ersten Managementaufzeichnungsdaten selbst aufgezeichnet.
- "Horizontale Anzeigegröße für nur eine Seite" sind Daten, welche die maximale Anzeigenummer der Clipbilddaten anzeigen, die in jedem Anzeigebereich des Clipanzeigebereichs 28, des Ereignisanzeigebereichs 29 und des Programmanzeigebereichs 30 in der horizontalen Richtung angezeigt werden. Bei dieser Ausführungsform können 11 Clipbilddäten in jedem Anzeigebereich des Clipanzeigebereichs 28, des Ereignisanzeigebereichs 29 bzw. des Programmanzeigebereichs 30 angezeigt werden, und deshalb werden die Daten, die "elf" anzeigen, in allen Managementaufzeichnungsdaten jeweils als die horizontale Anzeigegröße für nur eine Seite aufgezeichnet.
- "Vertikale Anzeigegröße für nur eine Seite" sind Daten, welche die maximale Anzeigenummer der Clipbilddaten, die in der vertikalen Richtung im jeweiligen Anzeigebereich des Clipanzeigebereichs 28 des Ereignisanzeigebereichs 29 und des Programmanzeigebereichs 30 angezeigt werden. Bei dieser Ausführungsform können im Clipanzeigebereich 28, Ereignisanzeigebereich 29 bzw. Programmanzeigebereich 30 jeweils nur einzelne Clipbilddaten angezeigt werden, und so werden die Daten, die "eins" anzeigen, in den jeweiligen ersten Managementaufzeichnungsdaten als die vertikale Anzeigegröße für nur eine Seite aufgezeichnet.
- "Anzeigeposition auf dem Schirm" sind Daten, die anzeigen, in welchem Anzeigebereich die Clipbilddaten angezeigt werden. Bei dieser Ausführungsform ist auf dem Schirm der Clipanzeigebereich 28 im unteren Datenfeld angeordnet, der Ereignisanzeigebereich 29 im mittleren Datenfeld angeordnet und der Programmanzeigebereich 30 im oberen Datenfeld angeordnet. Wenn sie deshalb die ersten Managementaufzeichnungsdaten für Clipdaten sind, werden die "unteres Datenfeld" anzeigenden Daten als die Daten aufgezeichnet, welche die Anzeigeposition auf dem Schirm anzeigen, wenn sie die ersten Managementaufzeichnungsdaten für Ereignisdaten sind, werden die "mittleres Datenfeld" anzeigenden Daten als die Daten aufgezeichnet, welche die Anzeigeposition auf dem Schirm anzeigen, und wenn sie die ersten Managementaufzeichnungsdaten für Programmdaten sind, werden die "oberes Datenfeld" anzeigenden Daten als die Daten aufgezeichnet, welche die Anzeigeposition auf dem Schirm anzeigen.
- "Kopfanzeigeposition" sind Daten, die anzeigen, von welcher Position die Anzeige der Clipbilddaten im jeweiligen Anzeigebereich des Clipanzeigebereichs 28, des Ereignisanzeigebereichs 29 und des Programmanzeigebereichs 30 gestartet wird. Bei dieser Ausführungsform können elf Clipbilddaten im Clipanzeigebereich 28 angezeigt werden, elf Clipbilddaten können im Ereignisanzeigebereich 29 angezeigt werden und elf Clipbilddaten können im Programmanzeigebereich 30 angezeigt werden, und so können insgesamt 33 Clipbilddaten angezeigt werden. Diese 33 Anzeigepositionen werden durch Addieren einer Zahl in der oberen Reihe bzw. Ordnung auf dem Schirm gemanagt. Beispielsweise wird sie wie folgt bestimmt: die Anzeigeposition des Programmanzeigebereichs 30 ist die Anzeigeposition der Zahlen 1 bis 11, die Anzeigeposition des Ereignisanzeigebereichs 29 ist die Anzeigeposition der Zahlen 12 bis 22 und die Anzeigeposition des Clipanzeigebereichs 28 ist die Anzeigeposition der Zahlen 23 bis 33. Wenn sie demgemäss die ersten Managementaufzeichnungsdaten für Clipbilddaten sind, werden die "23" anzeigenden Daten als die Daten aufgezeichnet, welche die Kopfanzeigeposition anzeigen, wenn sie die ersten Managementaufzeichnungsdaten für Ereignisdaten sind, werden die "12" anzeigenden Daten als die Daten aufgezeichnet, welche die Kopfanzeigeposition anzeigen, und wenn sie die ersten Managementaufzeichnungsdaten für Programmdaten sind, werden die "1" anzeigenden Daten als die Daten aufgezeichnet, welche die Kopfanzeigeposition anzeigen.
- "Gesamtzahl von Verbindungen" sind Daten, die anzeigen, wie viele Managementaufzeichnungsdaten nach den ersten Managementaufzeichnungsdaten verknüpft sind.
- Als nächstes werden nachfolgend unter Bezugnahme auf die Fig. 5 zweite Managementaufzeichnungsdaten für Clipdaten beschrieben. Die zweiten Managementaufzeichnungsdaten für Clipdaten sind Daten zum Managen der im Clipanzeigebereich 28 für jeweilige Clipbilddaten angezeigten Clipbilddaten. Deshalb existiert als diese die gleiche Zahl zweiter Managementaufzeichnungsdaten für Clipdaten wie die auf dem Clipanzeigebereich 28 angezeigten Clipbilddaten.
- Die zweiten Managementaufzeichnungsdaten für Clipdaten weisen einen Zeiger zu den vorhergehenden verknüpften Daten, einen Zeiger zu den folgenden verknüpften Daten, ein Attribut, eine Clipbilddatenkennung, einen Cliptyp, Zeitcodedaten und eine Indexnummer der Clipbilddaten auf.
- "Zeiger zu vorhergehenden verknüpften Daten" sind Daten, die den Zeiger der vor den zweiten Managementaufzeichnungsdaten verknüpften Managementaufzeichnungsdaten anzeigen. Da die ersten Managementaufzeichnungsdaten oder zweiten Managementaufzeichnungsdaten immer vor den zweiten Managementaufzeichnungsdaten existieren, wird der Zeiger der vorhergehenden verknüpften Daten immer aufgezeichnet.
- "Zeiger zu den folgenden verknüpften Daten" sind Daten, die den Zeiger der nach den zweiten Managementaufzeichnungsdaten verknüpften Managementaufzeichnungsdaten anzeigen. Existieren danach keine Managementaufzeichnungsdaten, wird der Zeiger der zweiten Managementaufzeichnungsdaten selbst aufgezeichnet.
- "Attribut" sind Daten, dir anzeigen, dass die zweiten Managementaufzeichnungsdaten für Clipdaten, Ereignisdaten oder Programmdaten sind.
- "Clipbilddatenkennung" sind Daten, die eine Adresse anzeigen, bei denen die Clipbilddaten aufgezeichnet sind. Demgemäss kann die Adresse, bei denen die Clipbilddaten gespeichert sind, durch Bezugnahme auf die Clipbilddatenkennung in den mit den gewünschten Clipbilddaten korrespondierenden zweiten Managementaufzeichnungsdaten erhalten werden.
- "Cliptyp" sind Daten, die anzeigen, dass die von den zweiten Managementaufzeichnungsdaten gemanagten Clipbilddaten die Clipbilddaten eines EIN-Punktes oder die Clipbilddaten eines AUS-Punktes sind.
- "Zeitcodedaten" sind Daten, die einen Zeitcode der von den zweiten Managementaufzeichnungsdaten gemanagten Clipbild¬ daten anzeigen.
- "Indexnummer von Clipbilddaten" ist eine Indexnummer, die zu den Clipbilddaten addiert ist. Die Indexnummer ist eine ungeachtet der Erzeugung eines EIN-Punktes, eines AUS- Punktes und eines Ereignisses zu allen in der Ordnung markierten Clipbilddaten addierte Zahl. Das heißt, sie ist die gleiche Nummer wie die im Clipnummertabellenabschnitt 28d angezeigte Clipnummer. Alle Clipbilddaten werden von der Indexnummer gemanagt.
- Hierauf folgend werden unter Bezugnahme auf die Fig. 6 zweite Managementaufzeichnungsdaten für Ereignisdaten und Programmdaten beschrieben. Die zweiten Managementaufzeichnungsdaten für Ereignisdaten sind Daten zum Managen der im Ereignisanzeigebereich 29 für alle Clipbilddaten angezeigten Clipbilddaten. Deshalb existiert die gleiche Zahl zweiter Nanagementaufzeichnungsdaten für Ereignisdaten wie die im Ereignisanzeigebereich 29 angezeigte Zahl Clipbilddaten. Ähnlich sind die zweiten Managementaufzeichnungsdaten für Programmdaten Daten zum Managen der im Programmanzeigebereich 30 für alle angezeigten Clipbilddaten angezeigten Clipbilddaten. Deshalb existiert die gleiche Zahl zweiter Managementaufzeichnungsdaten für Programmdaten wie die Zahl der im Programmanzeigebereich 30 angezeigten Clipbilddaten.
- Diese zweiten Managementaufzeichnungsdaten für Ereignisdaten und Programmdaten weisen den Zeiger zu den vorhergehenden verknüpften Daten, den Zeiger zu den folgenden verknüpften Daten, ein Attribut, eine Ereignisnummer, einen Titel, einen Untertitel, eine Clipbilddatenkennung des EIN-Punktes, einen Cliptyp des EIN-Punktes, Zeitcodedaten des EIN-Punktes, eine Indexnummer der Clipbilddaten eines EIN-Punktes, eine Clipbilddatenkennung des AUS-Punktes, einen Cliptyp des AUS- Punktes, Zeitcodedaten des AUS-Punktes, eine Indexnummer der Clipbilddaten eines AUS-Punktes, einen Langsamtyp, einen Symboltyp und Zeitcodedaten des Symbols auf.
- Eine Erläuterung des Zeigers zu den vorhergehenden verknüpften Daten, des Zeigers zu den folgenden verknüpften Daten und des Attributs ist fortgelassen, da diese den vorstehend erwähnten zweiten Managementaufzeichnungsdaten für Clip ähnlich sind.
- "Ereignisnummer" ist eine Zahl, die zu einem Ereignis in der Erzeugungsfolge addiert wird. Die Ereignisnummer wird im Ereignisnummeranzeigeabschnitt 29d angezeigt.
- "Titel" und "Untertitel" sind ein vorher zu einem registrierten Ereignis addierter Titel und Untertitel, die in praktischen Zeichen gespeichert werden. Der Titel wird im Titelanzeigeabschnitt 29g angezeigt.
- "Clipbilddatenkennung eines EIN-Punktes" sind Daten, die eine Adresse anzeigen, bei der die Clipbilddaten eines EIN- Punktes aufgezeichnet sind. Durch Bezugnahme auf die Clipbilddatenkennung des EIN-Punktes in den mit den gewünschten Clipbilddaten eines EIN-Punktes korrespondierenden zweiten Managementaufzeichnungsdaten kann eine Adresse, bei der die Clipbilddaten des EIN-Punktes gespeichert sind, erhalten werden.
- "Cliptyp eines EIN-Punktes" sind Daten, die anzeigen, dass die von den zweiten Managementaufzeichnungsdaten gemanagten Clipbilddaten eines EIN-Punktes die Clipbilddaten eines EIN-Punktes oder die Clipbilddaten eines AUS-Punktes sind. Hierin wird das ganze der die Clipbilddaten eines EIN- Punktes anzeigenden Daten gespeichert.
- "Zeitcodedaten eines EIN-Punktes" sind. Daten, die einen Zeitcode der von den zweiten Managementaufzeichnungsdaten gemanagten Clipbilddaten eines EIN-Punktes anzeigen.
- "Indexnummer von Clipbilddaten eines EIN-Punktes" ist eine Indexnummer, die zu den Clipbilddaten eines EIN-Punktes addiert ist. Ähnlich zur vorstehend erwähnten Indexnummer in den zweiten Managementaufzeichnungsdaten für Clipbilddaten ist die Indexnummer von Clipbilddaten eines EIN-Punktes eine Zahl, die ungeachtet der Erzeugung eines EIN-Punktes, eines AUS-Punktes und/oder eines Ereignisses zum Ganzen der markierten Clipbilddaten der Reihe nach addiert wird.
- "Clipbilddatenkennung eines AUS-Punktes" sind Daten, die eine Adresse anzeigen, bei der die Clipbilddaten eines AUS- Punktes aufgezeichnet sind. Infolgedessen kann durch Bezugnahme auf die Clipbilddatenkennung eines AUS-Punktes bei den mit den gewünschten Clipbilddaten eines AUS-Punktes korrespondierenden zweiten Managementaufzeichnungsdaten eine Adresse, bei der die gewünschten Clipbilddaten eines AUS-Punktes gespeichert sind, erhalten werden.
- "Cliptyp eines AUS-Punktes" sind Daten, die anzeigen, dass die von den zweiten Managementaufzeichnungsdaten gemanagten Clipbilddaten eines AUS-Punktes die Clipbilddaten eines EIN-Punktes oder die Clipbilddaten eines AUS-Punktes sind. Hierin werden alle Daten gespeichert, welche die Clip¬ bilddaten eines AUS-Punktes anzeigen.
- "Zeitcodedaten eines AUS-Punktes" sind Daten, die einen Zeitcode der von den zweiten Managementaufzeichnungsdaten gemanagten Clipbilddaten eines AUS-Punktes anzeigen.
- "Indexnummer von Clipbilddaten eines AUS-Punktes" ist eine Indexnummer, die zu den Clipbilddaten eines AUS-Punktes addiert sind. Ähnlich wie bei der vorstehend erwähnten Indexnummer bei den zweiten Managementaufzeichnungsdaten für Clipbilddaten ist die Indexnummer der Clipbilddaten eines AUS- Punktes eine Zahl, die ungeachtet der Erzeugung eines EIN- Punktes, eines AUS-Punktes und/oder eines Ereignisses der Reihe nach addiert wird.
- "Langsamtyp" sind Daten, die anzeigen, ob das von den zweiten Managementaufzeichnungsdaten gemanagte Ereignis oder Programm auf eine Wiedergabegeschwindigkeitssteuerung unter Verwendung des Wiedergabegeschwindigkeitseinstellbereichs 25 eingestellt ist oder auf die normale Wiedergabesteuerung eingestellt ist.
- "Symboltyp" sind Daten, die anzeigen, ob in der Periode zwischen einem EIN-Punkt und einem AUS-Punkt eines von den zweiten Managementaufzeichnungsdaten gemanagten Ereignisses als ein Symbol definierte Clipbilddaten existieren. "Symbol" bedeutet typische Clipbilddaten, die ein Ereignis darstellen.
- "Zeitcodedaten eines Symbols" ist ein Zeitcode der als ein Symbol gesetzten Clipbilddaten.
- Ein Beispiel gebend wird nachfolgend beschrieben, wie Clipbilddaten durch Verwendung der vorstehend erwähnten ersten Managementaufzeichnungsdaten und zweiten Managementaufzeichnungsdaten gemanagt werden.
- Es wird bei einem Managementverfahren der Clipbilddaten unter Bezugnahme auf die Fig. 7, 8, 9A, 9B und 9C beschrieben.
- Das in Fig. 7 gezeigte Datenfeld "Markierung" zeigt, dass eine Markierung von EIN und/oder AUS ausgeführt wird. Bei diesem Beispiel bedeutet dies, dass von links 15 mal die Markierung EIN ("IN"), EIN ("IN"), AUS ("OUT"), EIN ("IN"), AUS ("OUT"), EIN ("IN"), EIN ("IN"), AUS ("OUT"), EIN ("IN"), AUS ("OUT"), EIN ("IN"), EIN ("IN"), EIN ("IN") ausgeführt wird. Beim Datenfeld "INDEX Nr." ist eine zu den markierten Clipbilddaten eines EIN-Punktes oder AUS-Punktes addierte Indexnummer angezeigt. Die Indexnummer ist eine ungeachtet des EIN-Punktes und AUS-Punktes der Reihe nach zu allen markierten Clipbilddaten addierte Zahl. Demgemäss ist wie in Fig. 7 gezeigt zu den jeweiligen markierten Clipbilddaten der Reihe nach die Indexnummer 1 bis 15 addiert. Beim Datenfeld "CLIP Nr." ist eine im Clipnummeranzeigebereich 28d des Clipanzeigebereichs 28 angezeigte Clipnummer gezeigt. Es sei darauf hingewiesen, dass die im Clipnummeranzeigebereich 28d angezeigte Clipnummer die gleiche Zahl wie die Indexnummer ist. Beim Datenfeld "EREIGNIS No." ist eine im Ereignisnummeranzeigebereich 29d des Ereignisanzeigebereichs 29 angezeigte Ereignisnummer gezeigt. Die Ereignisnummer ist eine Zahl, die ohne gänzlicher Beachtung der Indexnummer in der Ereigniserzeugungsordnung automatisch addiert wird.
- Fig. 8 ist ein Diagramm, das in dem Fall, bei dem eine Markierung wie in Fig. 7 gezeigt ausgeführt wird, zeigt, welche Clipbilddaten im Clipanzeigebereich 28, im Ereignisanzeigebereich 29 und im Programmanzeigebereich 30 angezeigt werden.
- Im Clipanzeigebereich 28 werden der Reihe nach die Clipbilddaten der Indexnummer 1, die Clipbilddaten der Indexnummer 6, die Clipbilddaten der Indexnummer 7, die Clipbilddaten der Indexnummer 12, die Clipbilddaten der Indexnummer 13 und die Clipbilddaten der Indexnummer 14 angezeigt.
- Im Ereignisanzeigebereich 29 sind vier erzeugte Ereignisse angezeigt. Die Clipbilddaten der Indexnummer 2 sind als das Ereignis der Ereignisnummer 1 angezeigt, die Clipbilddaten der Indexnummer 4 sind als das Ereignis der Ereignisnummer 2 angezeigt, die Clipbilddaten der Indexnummer 8 sind als das Ereignis der Ereignisnummer 3 angezeigt bzw. die Clipbilddaten der Indexnummer 10 sind als das Ereignis der Ereignisnummer 4 der Reihe nach angezeigt.
- Im Programmanzeigebereich 30 werden irgendwelche Clipbilddaten nicht nur durch Zuordnen eines EIN-Punktes und/oder eines AUS-Punktes angezeigt. Bei diesem Beispiel sei angenommen, dass das in Fig. 8 gezeigte Programm durch Neu- bzw. Umordnen der im Ereignisanzeigebereich 29 angezeigten vier Ereignisse erzeugt werden. Das Programm ist ein Programm, das in der Folge des Ereignisses der Ereignisnummer 2, des Ereig¬ nisses der Ereignisnummer 4 und des Ereignisses der Ereignisnummer 1 sukzessive ist. Infolgedessen werden im Programmanzeigebereich 30 die als das Ereignis der Ereignisnummer 2 registrierten Clipbilddaten der Indexnummer 4, die als das Ereignis der Ereignisnummer 4 registrierten Clipbilddaten der Indexnummer 10 und die als ein Ereignis der Ereignisnummer 1 registrierten Clipbilddaten der Indexnummer 2 angezeigt.
- Fig. 9A, Fig. 9B und Fig. 9C sind Diagramme, die zeigen, wie Clipbilddaten von den ersten Managementaufzeichnungsdaten und den zweiten Managementaufzeichnungsdaten zu managen sind.
- Fig. 9C zeigt den Zustand, bei dem die im Clipanzeigebereich 28 angezeigten Clipbilddaten gemanagt werden. Managementaufzeichnungsdaten 101 sind erste Managementaufzeichnungsdaten für Clip. Wie in der Fig. 4 gezeigt weisen diese ersten Managementaufzeichnungsdaten 101 die Daten zum Managen des ganzen Bereichs des Clipanzeigebereichs 28 und der Position der im Clipanzeigebereich angezeigten Clipbilddaten auf.
- Managementaufzeichnungsdaten 201, die nach den ersten Managementaufzeichnungsdaten 101 verknüpft werden, sind zwei¬ te Managementaufzeichnungsdaten für Clip. Diese zweiten Managementaufzeichnungsdaten 201 sind die Daten zum Managen der Clipbilddaten der Indexnummer 1. Wie in der Fig. 5 gezeigt weisen die Managementaufzeichnungsdaten 201 die Clipbilddatenkennung auf, die eine Adresse anzeigt, bei der die Clipbilddaten der Indexnummer 1 gespeichert sind.
- Managementaufzeichnungsdaten 206, die nach den zweiten Managementaufzeichnungsdaten 201 verknüpft sind, sind zweite Managementaufzeichnungsdaten für Clip. Diese zweiten Managementaufzeichnungsdaten 206 sind die Daten zum Managen der Clipbildanzeigedaten der Indexnummer 6 und weisen die Clipbilddatenkennung auf, die eine Adresse anzeigt, bei der die Clipbilddaten der Indexnummer 6 gespeichert sind.
- Ähnlich sind zweite Managementaufzeichnungsdaten 207 zum Managen der Clipbilddaten der Indexnummer 7 nach den zweiten Managementaufzeichnungsdaten 206 verknüpft, sind zweite Managementaufzeichnungsdaten 212 zum Managen der. Clipbilddaten der Indexnummer 12 nach den zweiten Managementaufzeichnungsdaten 207 verknüpft, sind zweite Managementaufzeichnungsdaten 213 zum Managen der Clipbilddaten der Indexnummer 13 nach den zweiten Managementaufzeichnungsdaten 212 verknüpft, und sind zweite Managementaufzeichnungsdaten 214 zum Managen der Clipbilddaten der Indexnummer 14 nach den zweiten Managementaufzeichnungsdaten 213 verknüpft.
- Fig. 9B zeigt den Zustand, bei dem die im Ereignisanzeigebereich 29 angezeigten Clipbilddaten gemanagt werden. Managementaufzeichnungsdaten 102 sind erste Managementaufzeichnungsdaten für ein Ereignis. Wie in der Fig. 4 gezeigt weisen diese ersten Managementaufzeichnungsdaten 102 die Daten, zum Managen des ganzen Bereichs des Ereignisanzeigebereichs 29 und der Position der im Clipanzeigebereich 29 angezeigten Clipbilddaten auf.
- Nach den ersten Managementaufzeichnungsdaten 102 verknüpfte Managementaufzeichnungsdaten 202 sind zweite Managementaufzeichnungsdaten für Ereignis. Wie in der Fig. 6 gezeigt weisen diese zweiten Managementaufzeichnungsdaten 202 die Daten zum Managen der Clipbilddaten eines durch die Indexnummer 2 angezeigten EIN-Punktes und die Clipbilddaten eines durch die Indexnummer 3 angezeigten AUS-Punktes auf. Konkret weisen die zweiten Managementaufzeichnungsdaten 202 eine Clipbilddatenkennung eines EIN-Punktes auf, die eine Adresse der Clipbilddaten eines durch die Indexnummer 2 angezeigten EIN-Punktes anzeigt, und eine Clipbilddatenkennung eines AUS- Punktes, die eine Adresse der Clipbilddaten eines durch die Indexnummer 3 gezeigten AUS-Punktes anzeigt.
- Ähnlich sind die zweiten Managementaufzeichnungsdaten 204 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 4 und der Clipbilddaten des AUS-Punktes der Indexnummer 5 nach den zweiten Managementaufzeichnungsdaten 202 verknüpft, sind die zweiten Managementaufzeichnungsdaten 208 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 8 und der Clipbilddaten des AUS-Punktes der Indexnummer 9 nach den zweiten Managementaufzeichnungsdaten 204 verknüpft, und sind die zweiten. Managementaufzeichnungsdaten 210 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 10 und der Clipbilddaten des AUS-Punktes der Indexnummer 11 nach den zweiten Managementaufzeichnungsdaten 208 verknüpft.
- Fig. 9A zeigt den Zustand, bei dem die im Programmanzeigebereich 30 angezeigten Clipbilddaten gemanagt werden. Die Managementaufzeichnungsdaten 103 sind erste Managementaufzeichnungsdaten für Programm. Wie in der Fig. 4 gezeigt weisen diese ersten Managementaufzeichnungsdaten 103 die Daten zum Managen des ganzen Bereichs des Programmanzeigebereichs 30 und der Position der im Programmanzeigebereich 29 angezeigten Clipbilddaten auf.
- Zweite Managementaufzeichnungsdaten 204 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 4 und der Clipbilddaten des AUS-Punktes der Indexnummer 5 werden nach den ersten Managementaufzeichnungsdaten 103 verknüpft, zweite Managementaufzeichnungsdaten 210 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 10 und der Clipbilddaten des AUS-Punktes der Indexnummer 11 werden nach den zweiten Managementaufzeichnungsdaten 204 verknüpft, und zweite Managementaufzeichnungsdaten 202 zum Managen der Clipbilddaten des EIN-Punktes der Indexnummer 8 und der Clipbilddaten des AUS- Punktes der Indexnummer 9 werden nach den zweiten Managementaufzeichnungsdaten 210 verknüpft.
- Hier wird versucht, Fig. 9B, die das Management der Ereignisdaten darstellt, mit der Fig. 9A, die das Management der Programmdaten darstellt, zu vergleichen. Zwischen Fig. 9A und Fig. 9B wird die Speicherordnung der Clipbilddaten der Indexnummer 2, der Clipbilddaten der Indexnummer 4 und der Clipbilddaten der Indexnummer 10 nicht vollständig geändert. Dies bedeutet, dass die Speicherungsposition der Clipbilddaten nicht vollständig geändert wird. Der unterschiedliche Punkt zwischen Fig. 9A und Fig. 9B ist der Punkt, dass die Verknüpfungsordnung der zweiten Managementaufzeichnungs¬ daten geändert ist. Das heißt, diese Erfindung ändert die Verknüpfungsordnung der zweiten Managementaufzeichnungsdaten, welche die Clipbilddaten direkt ändert, um die Anzeigeordnung von Ereignissen ohne Änderung der Speicherungsposition der ein Ereignis anzeigenden Clipbilddaten zu ändern. Deshalb hat dies die Wirkung, dass eine Änderung der Anzeigeordnung von Ereignissen mit hoher Geschwindigkeit durchgeführt werden kann.
- Auch ist sie nicht auf die Änderung der Anzeigeordnung von Ereignissen beschränkt, sondern ist auch bei der Änderung der Anzeigeordnung der im Cliptabellenbereich 28 angezeigten Clipbilddaten ganz ähnlich. Beispielsweise ist es selbst bei einer Änderung der Anzeigeordnung der Clipbilddaten durch Löschen oder neu Hinzufügen von Clipbilddaten nicht notwendig, die Speicherposition der Clipbilddaten praktisch zu bewegen, und es ist nur notwendig, die Verknüpfungsinformation der zweiten Managementaufzeichnungsdaten zu ändern.
- Nachfolgend werden der Reihe nach eine erste Markierung bis fünfzehnte Markierung erläutert.
- Vor einem Starten der Markierung werden in der zu speichernden Kopfadresse eines Bereichs schon die Arbeitsdaten des RAM 10b, die ersten Managementaufzeichnungsdaten 101 für Clipdaten, die ersten Managementaufzeichnungsdaten 102 für Ereignisdaten und die ersten Managementaufzeichnungsdaten 103 für Programmdaten gebildet. Jedoch sind mit irgendwelchen Managementaufzeichnungsdaten keine zweiten Managementaufzeich¬ nungsdaten verknüpft, das heißt, ihre eigene Adresse ist als "Zeiger zu folgenden verknüpften Daten" gespeichert worden.
- Nach Ausführung der ersten Markierung werden durch Steuerung eines Auslesens aus dem Rahmenspeicher 11c 95 Pixel · 60 Pixel aus Clipbilddaten gebildet. Die gebildeten Clipbilddaten werden in einem leeren Bereich des RAM 10b als die Clipbilddaten der Indexnummer 1 gespeichert. Gleichzeitig mit dem Speichern werden die gebildeten Clipbilddaten im EIN- Clipanzeigebereich 24 angezeigt. Zu diesem Zeitpunkt sind die zweiten Managementaufzeichnungsdaten 201, die diese Clipbilddaten managen, vorübergehend im Register in der CPU 10 gespeichert worden, und sie sind nicht im RAM 10b gespeichert worden, da nicht klar ist, mit welchen Managementaufzeich¬ nungsdaten diese zweiten Managementaufzeichnungsdaten 201 verknüpft werden.
- Nach Ausführung der zweiten Markierung werden ähnlich die Clipbilddaten der Indexnummer 2 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Zu diesem Zeitpunkt wird daraus, dass der EIN-Punkt zweimal aufeinanderfolgend markiert wurde, verstanden, dass die im EIN- Clipanzeigebereich 24a angezeigten Clipbilddaten der Indexnummer 1 nicht als Ereignis verwendet werden. Infolgedessen werden die im EIN-Clipanzeigebereich 24a angezeigten Clipbilddaten der Indexnummer 1 zum Clipanzeigebereich 28 bewegt. Außerdem werden durch die zweite Markierung die zweiten Managementaufzeichnungsdaten, welche die Clipbilddaten der Indexnummer 1 managen, dazu bestimmt, mit den ersten. Managementaufzeichnungsdaten 101 für Clipdaten verknüpft zu werden. Deshalb werden, wie in Fig. 9C gezeigt, die vorübergehend im Register der CPU 10 gespeicherten zweiten Managementaufzeichnungsdaten im RAM 10b gespeichert, um mit den ersten Managementaufzeichnungsdaten 101 verknüpft zu werden.
- Andererseits werden die in der zweiten Markierung erzeugten Clipbilddaten der Indexnummer 2 im EIN- Clipanzeigebereich 24a neu angezeigt. Ähnlich wie bei der ersten Markierung werden die zweiten Managementaufzeichnungsdaten 201, welche die Clipbilddaten der Indexnummer 2 managen, vorübergehend und neu im Register in der CPU 10 gespeichert.
- Nach Ausführung der dritten Markierung werden ähnlich die Clipbilddaten der Indexnummer 3 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Da diese dritte Markierung ein AUS-Punkt ist, wird das Ereignis gebildet, bei dem die Clipbilddaten der Indexnummer 2 ein EIN-Punkt und die Clipbilddaten der Indexnummer 3 ein AUS-Punkt ist. Demgemäss werden die im EIN-Clipanzeigebereich 24a angezeigten Clipbilddaten der Indexnummer 2 bei ihrer Anzeige im EIN- Clipanzeigebereich 24a in den Ereignisanzeigebereich 28 kopiert. Außerdem werden durch die dritte Markierung die zweiten Managementaufzeichnungsdaten 202, welche die im Register gespeicherten Clipbilddaten der Indexnummer 2 managen, dazu bestimmt, mit den ersten Managementaufzeichnungsdaten 102 für Ereignisdaten verknüpft zu werden. Demgemäss werden wie in Fig. 9B die vorübergehend im Register der CPU 10 gespeicherten zweiten Managementaufzeichnungsdaten 202 im RAM 10b gespeichert, um mit den ersten Managementaufzeichnungsdaten 102 verknüpft zu werden.
- Andererseits werden die bei der dritten Markierung erzeugten Clipbilddaten der Indexnummer 3 im AUS- Clipanzeigebereich 24d neu angezeigt. Es sei darauf hingewiesen, dass die zweiten Managementaufzeichnungsdaten 202, welche die Clipbilddaten der Indexnummer 3 managen, da sie dazu bestimmt sind, mit den ersten Managementaufzeichnungsdaten 102 verknüpft zu werden, nicht vorübergehend im Register der CPU 10 gespeichert werden.
- Nach Ausführung der vierten Markierung werden ähnlich die Clipbilddaten der Indexnummer 4 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Gleichzeitig mit dem Speichern werden die gebildeten Clipbilddaten im EIN- Clipanzeigebereich 24a angezeigt. Auch werden ähnlich wie bei der ersten Markierung die zweiten Managementaufzeichnungsdaten 204, welche die Clipbilddaten der Indexnummer 4 managen, vorübergehend im Register der CPU 10 gespeichert. Es sei darauf hingewiesen, dass die im AUS-Clipanzeigebereich 24d angezeigten Clipbilddaten der Indexnummer 3 schon aufgezeichnet worden sind und infolge dessen werden sie vom Anzeigebereich 24d weggelöscht.
- Nach Ausführung der fünften Markierung werden ähnlich die Clipbilddaten der Indexnummer 5 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Da die fünfte Markierung ähnlich wie die dritte Markierung ein AUS-Punkt ist, wird das Ereignis gebildet, bei dem die Clipbilddaten der Indexnummer 4 ein EIN-Punkt und die Clipbilddaten der Indexnummer 5 ein AUS-Punkt Sind. Demgemäss werden die im EIN- Clipanzeigebereich 24a angezeigten Clipbilddaten der Indexnummer 4 in den Ereignisanzeigebereich 29 kopiert, wie sie im EIN-Clipanzeigebereich 24a angezeigt sind. Außerdem werden durch die fünfte Markierung die zweiten Managementaufzeichnungsdaten 204, welche die im Register gespeicherten Clipbilddaten der Indexnummer 4 managen, dazu bestimmt, mit den vorher gespeicherten zweiten Managementaufzeichnungsdaten 202 verknüpft zu werden. Demgemäss werden, wie in Fig. 9B gezeigt, die zweiten Managementaufzeichnungsdaten 204, die im Register der CPU 10 vorübergehend gespeichert worden sind, im RAM 10b gespeichert, um mit den zweiten Managementaufzeichnungsdaten 202 verknüpft zu werden.
- Andererseits werden die bei der fünften Markierung erzeugten Clipbilddaten der Indexnummer 5 im AUS- Clipanzeigebereich 24d neu angezeigt. Es sei darauf hingewiesen, dass die zweiten Managementaufzeichnungsdaten 204, welche die Clipbilddaten der Indexnummer 5 managen, da sie dazu bestimmt sind, mit den zweiten Managementaufzeichnungsdaten 202 verknüpft zu werden, nicht im Register in der CPU 10 vorübergehend gespeichert werden.
- Nach Ausführung der sechsten Markierung werden ähnlich die Clipbilddaten der Indexnummer 6 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Gleichzeitig mit dem Speichern werden die gebildeten Clipbilddaten der Indexnummer 6 im EIN-Clipanzeigebereich 24a angezeigt. Auch werden ähnlich zur vierten Markierung die zweiten Managementaufzeichnungsdaten 206, welche die Clipbilddaten der Indexnummer 6 managen, im Register in der CPU 10 vorübergehend gespeichert. Es sei darauf hingewiesen, dass die im AUS-Clipanzeigebereich 24d angezeigten Clipbilddaten der Indexnummer 5 schon aufgezeichnet worden Sind und infolge dessen werden sie vom Anzeigebereich 24d weggelöscht.
- Nach Ausführung der siebten Markierung werden ähnlich die Clipbilddaten der Indexnummer 7 gebildet und in einem leeren Bereich des RAM 10b gespeichert. Da der EIN-Punkt zweimal aufeinanderfolgend markiert wird, werden die im EIN- Clipanzeigebereich 24a angezeigten Clipbilddaten der Indexnummer 6 zum Clipanzeigebereich 28 bewegt. Außerdem werden durch die siebte Markierung die im Register der CPU 10 gespeicherten zweiten Managementaufzeichnungsdaten 206 im RAM 10b gespeichert, um, wie in Fig. 9C gezeigt, mit den zweiten Managementaufzeichnungsdaten 201 verknüpft zu werden. Andererseits werden die gebildeten Clipbilddaten der Indexnummer 7 im EIN-Clipanzeigebereich 24a angezeigt. Auch werden ähnlich wie bei der sechsten Markierung die zweiten Managementaufzeichnungsdaten 207, welche die Clipbilddaten der Indexnummer 7 managen, im Register in der CPU 10 vorübergehend gespeichert.
- Die neunte bis fünfzehnte Markierung werden auf ähnlich Weise wie die erste bis siebte Markierung ausgeführt, so dass ihre Erläuterung fortgelassen ist.
- Nachfolgend wird unter Bezugnahme auf die Fig. 10 das Festplattenarray 2 beschrieben. Fig. 10 zeigt den generellen Aufbau des Festplattenarrays 2.
- Das Festplattenarray 2 weist einen Systemkontroller 70 als das Zentrum, eine Videodaten-Eingabe/Ausgabe-Einheit 71, eine Videodatenprozessoreinheit 72, eine Videodatenfestplatte 73, eine Audio-Eingabe/Ausgabe-Einheit 74, eine Audiodatenprozessoreinheit 75 und eine Audiodatenfestplatte 76 auf.
- Der Systemkontroller 70 weist eine CPU 70a, einen Zeitcodegenerator 70b, einen DMA-Kontroller (Direct Memory Access- bzw. Direktzugriffsspeicher-Kontroller) 70c, einen SCSI-Kontroller 70d, einen DMA-Kontroller 70e und einen SCSI- Kontroller 70f auf.
- Die CPU 70a ist eine zentrale Verarbeitungseinheit bzw. Zentraleinheit, welche die Steuerung aller Blöcke des Festplattenarrays 2 ausführt. Die CPU 70a empfängt einen von einer externen Einrichtung dem Systemkontroller zugeführten Steuerungsbefehl entsprechend dem RS-422- Kommunikationsprotokoll und steuert die DMA-Kontroller 70c und 70f und die SCSI-Kontroller 70b und 70f entsprechend dem Befehl. Die CPU 70a empfängt auch einen dem Systemkontroller 70 vom Zeitcodegenerator 70b oder der externen Einrichtung zugeführten externen Zeitcode (EXT. TC) und führt die empfangenen Zeitcodedaten der Videodaten-Eingabe/Ausgabe-Einheit 71 und der Audiodaten-Eingabe/Ausgabe-Einheit 74 zu. Außerdem weist die CPU 70 einen RAM auf, in welchem alle in der Videofestplatte 73 in jeder Rahmeneinheit gespeicherten Aufzeichnungsadressen von Videodaten und alle Zeitcodes aufgezeichneter Rahmen miteinander korrespondieren und gespeichert sind. Ähnlich sind in diesem RAM alle in der Audiofestplatte 76 in jeder Rahmeneinheit gespeicherten Aufzeichnungsadressen von Audiodaten und alle Zeitcodes aufgezeichneter Rahmen gespeichert und korrespondieren miteinander. Dadurch können allein durch Bezeichnen eines Zeitcodes Videodaten und Audiodaten von der externen Einrichtung wiedergegeben werden.
- Der DMA-Kontroller 70c steuert eine Lesezeitsteuerung bzw. ein Lesetiming zu dem Zeitpunkt, bei dem Videodaten von den in der Videodatenprozessoreinheit 72 vorgesehenen Pufferspeichern 72b und 72e ausgelesen werden, und steuert auch eine Schreibzeitsteuerung bzw. ein Schreibtiming zu dem Zeitpunkt, bei dem Videodaten in die Pufferspeicher 72b und 72e entsprechend einem Befehl von der CPU 70a eingeschrieben werden.
- Der SCSI-Kontroller 70d wandelt den Steuerungsbefehl von der CPU 70a, vom DMA-Kontroller MOC empfangene Videodaten in der Rahmeneinheit und sich auf die Rahmenvideodaten beziehende Zeitcodedaten in die SCSI-Kommunikatiohsbefehle um und gibt sie an die Videodatenfestplatte 73 aus. Außerdem werden die von der Festplatte 73 wiedergegebenen Videodaten vom SCSI-Kommunikationsbefehl umgewandelt und dem DMA-Kontroller 70c zugeführt.
- Der DMA-Kontroller 70e steuert das Lesetiming zu dem Zeitpunkt, bei dem Audiodaten aus in der Audiodatenprozessoreinheit 75 vorgesehenen Pufferspeichern 75b und 75d ausgelesen werden, und steuert auch das Schreibtiming zu dem Zeitpunkt, bei dem Audiodaten in die Pufferspeicher 75b und 75d geschrieben werden.
- Der SCSI-Kontroller 70f wandelt den Steuerungsbefehl aus der CPU 7%, vom DMA-Kontroller 70e empfangene Audiodaten in der Rahmeneinheit und sich auf die Rahmenaudiodaten beziehende Zeitcodedaten in SCSI-Kommunikationsbefehle um und gibt sie an die Audiodatenfestplatte 76 aus. Außerdem werden die von der Festplatte 76 wiedergegebenen Audiodaten vom SCSI- Kommunikationsbefehl umgewandelt und dem DMA-Kontroller 70e zugeführt.
- Das Eingabesystem der Videodaten-Eingabe/Ausgabe-Einheit 71 besteht aus einem Decodierer 71a, in welchem das Synchronisierungssignal des Eingangsvideosignals V1 extrahiert und das Eingangsvideosignal V1 in ein Komponentensignal umgewandelt wird, und einer A/D-Wandlerschaltung 71b, in der das analoge Komponentenvideosignal in ein digitales Videosignal umgewandelt wird. Das Ausgangssystem der Videodaten- Eingabe/Ausgabe-Einheit 71 besteht aus einer D/A- Wandlerschaltung 71d, in der ein Wiedergabevideosignal eines von der Videodatenprozessoreinheit 73 zugeführten ersten Kanals analog umgewandelt wird, einem Codierer 71c, in welchem das Erstkanal-Wiedergabevideosignal in ein Mischsignal umgewandelt wird und ein Vertikalsynchronisierungssignal, dem ein Zeitcode überlagert ist, zum ausgegebenen Videomischsignal auf der Basis der Phase eines dem Systemkontroller 70 zugeführten externen Synchronisierungssignals (EXT. SYNC) addiert wird, einer D/A-Wandterschaltung 71f, in der ein von der Videodatenprozessoreinheit 72 zugeführtes Zweitkanal- Wiedergabevideosignal analog umgewandelt wird, und einem Codierer 71e, in welchem das Zweitkanal-Wiedergabevideosignal in ein Mischsignal umgewandelt wird und ein Vertikalsynchronisierungssignal, dem ein Zeitcode überlagert ist, zum ausgegebenen Videomischsignal auf der Basis der Phase des dem Systemkontroller 70 zugeführten externen Synchronisierungssignals (EXT. SYNC) addiert wird.
- Das Eingabesystem der Videodatenprozessoreinheit 72 weist eine Kompressoreinheit 72a, in der die von der Videodaten-Eingabe/Ausgabe-Einheit 71 zugeführten Videodaten in jeder Rahmeneinheit entsprechend dem JPEG-Standard komprimiert werden, und einen Pufferspeicher 72b auf, in welchem die Videodaten aus der Kompressoreinheit 72 entsprechend einem Schreibbefehl auf dem DMA-Kontroller 70c gespeichert werden, und die komprimierten Videodaten werden entsprechend dem Schreibbefehl aus dem DMA-Kontroller 70c einer Expandereinheit 72c oder dem DMA-Kontroller 70c zugeführt. Das Ausgabesystem der Videodatenprozessoreinheit 72 weist auf: die Expandereinheit 72c, in der die komprimierten Videodaten aus dem Pufferspeicher 72b empfangen, expandiert und als die Erstkanal-Videodaten ausgegeben werden, und eine Expandereinheit 72d, in der die komprimierten Videodaten aus dem Pufferspeicher 72e empfangen, expandiert und als die Zweitkanal- Videodaten ausgegeben werden, auf. Auch weist die Videoprozessoreinheit 72 den Pufferspeicher 72b zum Speichern der Erstkanal-Videodaten und den Pufferspeicher 72e zum Speichern der Zweitkanal-Videodaten auf. Diese Pufferspeicher 72b und 72e bestehen aus einem FIFO-Speicher und weisen die Kapazität, welche die Videodaten für 15 Rahmen speichern kann.
- Die Audiodaten-Eingabe/Ausgabe-Einheit 74 weist auf: einen Decodierer 74a, in welchem das Eingangsaudiosignal A1 umgewandelt wird, eine A/D-Wandlerschaltung 74b, in der das analoge Audiosignal in digitale Audiodaten umgewandelt wird, eine D/A-Wandlerschaltung 74d, in der von der Audiodatenprozessoreinheit 75 zugeführte Wiedergabeaudiodaten analog umgewandelt werden, und einen Codierer 74c, in welchem das von der D/A-Wandlerschaltung 74d zugeführte analoge Audiosignal in das Audiosignal A2 umgewandelt wird.
- Die Audiodatenprozessoreinheit 75 weist auf: eine Kompressoreinheit 75, in der die von der Audiodaten- Eingabe/Ausgabe-Einheit 74 zugeführten Audiodaten komprimiert werden, den Pufferspeicher 75b, in welchem die Audiodaten aus der Kompressoreinheit 75 auf der Basis des Steuerungsbefehls aus dem DMA-Kontroller 70e gespeichert werden und die komprimierten Audiodaten dem DMA-Kontroller 70e zugeführt werden, den Pufferspeicher 75d, in welchem die vom DMA-Kontroller 70e empfangenen Wiedergabeaudiodaten wiedergegeben und an eine Expandereinheit 75c ausgegeben werden, und die Expandereinheit 75c, bei der die wiedergegebenen Audiodaten aus dem Pufferspeicher 75d empfangen werden und die komprimierten Audiodaten expandiert werden.
- Nachfolgend wird die Aufzeichnungs- und Wiedergabeoperation des Festplattenarrays beschrieben.
- Das der Videogabe-Eingabe/Ausgabe-Einheit 71 zugeführte Videosignal wird der vorgeschriebenen Eingabe/Ausgabe- Verarbeitung unterworfen und der Videodatenprozessoreinheit 72 zugeführt. Die in der Kompressoreinheit 72a der Videodatenprozessoreinheit 72 komprimierten Videodaten werden dem Pufferspeicher 72b zugeführt. Die gleichen Videodaten wie die dem Pufferspeicher 72b zugeführten Videodaten werden entsprechend dem Lesebefehl aus dem DMA-Kontroller 70c sowohl an den DMA-Kontroller 70c als auch der Expanderschaltung 72c zugeführt. Die CPU 70a gibt eine Aufzeichnungsadresse an den SCSI-Kontroller 70d aus, so dass vom Zeitcodegenerator 70b zugeführte Zeitcodedaten und die dem DMA-Kontroller 70c zugeführten Videodaten aufeinander bezogen sind. Der SCSI- Kontroller 70d führt der Festplatte 73 einen Aufzeichnungsbefehl und die Videodaten zu, so dass die vom DMA-Kontroller 90c empfangenen Videodaten in einer von der CPU 70a bezeichneten Adresse aufgezeichnet werden.
- Andererseits werden die der Expanderschaltung 72c zugeführten Videodaten als die Erstkanal-Videodaten expandiert und an die Videodaten-Eingabe/Ausgabe-Einheit 71 ausgegeben. Die Videodaten-Eingabe/Ausgabe-Einheit 71 überlagert den von der CPU 70a zugeführten Zeitcode der Vertikalsynchronisierungsperiode den zugeführten. Videodaten und gibt sie als das Videomischsignäl V2 aus.
- Nachfolgend wird die Wiedergabeverarbeitung des Festplattenarrays 2 beschrieben.
- Bei Ausgabe eines Wiedergabebefehls entsprechend dem RS- 422-Kommunikationsprotokoll an das Festplattenarray 2 gibt die CPU 70a den Wiedergabebefehl über den SCSI-Kontroller 70d an die Festplatte 73 aus. Die wiedergegebenen Videodaten werden im Pufferspeicher 72e entsprechend dem Schreibtiming des DMA-Kontrollers 709 gespeichert. Die aus dem Pufferspeicher 72e gelesenen Videodaten werden von der Expanderschaltung 72d als die Zweitkanal-Videodaten expandiert und an die Videodaten-Eingabe/Ausgabe-Einheit 71 ausgegeben. Die Videodaten- Eingabe/Ausgabe-Einheit 71 überlagert den von der CPU 70a zugeführten Zeitcode der Vertikalsynchronisierungsperiode der zugeführten Videodaten und gibt sie als das Videomischsignal V3 aus.
- Hier wird über den Grund geschrieben, warum die Aufzeichnungsverarbeitung des Eingangsvideosignals V1 und die Wiedergabeverarbeitung des Videosignals V3 gleichzeitig ausgeführt werden können. Während der DMA-Kontroller 70c einen Lesebefehl an den Pufferspeicher 72b ausgibt, wird die Aufzeichnung eines Videosignals vom Pufferspeicher 72b auf der Festplatte 73 ausgeführt, und während der DMA-Kontroller 70c einen Schreibbefehl an den Pufferspeicher 72e ausgibt, wird die Wiedergabe des auf der Festplatte 73 aufgezeichneten Videosignalsausgeführt, und die wiedergegebenen Videodaten werden dem Pufferspeicher 72e zugeführt. Da insbesondere die Übertragung von auf der Festplatte 72 aufzuzeichnenden Videodaten vom Pufferspeicher 72b gepuffert wird und die Übertragung der von der Festplatte 73 wiedergegebenen Videodaten zur Videodaten-Eingabe/Ausgabe-Einheit 71 vom Pufferspeicher 72e gepuffert wird, scheinen die Aufzeichnungsverarbeitung des Eingangsvideosignals V1 und die Wiedergabeverarbeitung des Videosignals V3 gleichzeitig ausgeführt zu werden. Streng gesprochen werden die Aufzeichnungsoperation und die Wiedergabeoperation nicht gleichzeitig ausgeführt, da die Aufzeichnungsoperation der Festplatte 73 und die Wiedergabeoperation alternativ ausgeführt werden.
- Die Anfangsoperation des Computers 1 wird unter Bezugnahme auf die Fig. 11 beschrieben.
- Zuerst wird beim Zuordnen einer Ausführung eines Anwendungsprogramms durch eine Bedienungsperson die Verarbeitung beim Schritt SP1 gestartet.
- Da dieses Anwendungsprogramm in der lokalen Festplatte 15a gespeichert worden ist, lädt die CPU 10 beim Schritt SP2 das Anwendungsprogramm zu dem in der CPU 10 vorgesehenen Operations-RAM 10b hinauf.
- Nach Beendigung des Hinaufladens zum RAM 10b in der CPU 10 führt die CPU 10 beim Schritt SP3 das Anwendungsprogramm aus.
- Beim Schritt SP4 wird der Speicherbereich des RAM 10b sichergestellt. Der Speicherbereich wird sichergestellt, um alle jeweiligen Daten mehrerer Clipbilddaten und Editionsdaten, die durch eine Editieroperation im RAM 10b erzeugt werden, zu speichern. Bei diesem Schritt SP4 werden die in Fig. 9C gezeigten ersten Managementaufzeichnungsdaten für Clipbilddaten, die in Fig. 9B gezeigten ersten Managementaufzeichnungsdaten für Ereignisdaten und die in Fig. 9A gezeigten ersten Managementaufzeichnungsdaten für Programmdaten im RAM 10b aufgezeichnet.
- Beim Schritt SP5 wird durch die Editieroperation des Computers 1 ein Arbeitsordner zum Speichern von beispielsweise Programm- und/oder Ereignisdaten erzeugt. Der erzeugte Arbeitsordner wird in der lokalen Festplatte 15a aufgezeichnet.
- Beim Sehritt SP6 überträgt die CPU 10 Grafikdaten zum VRAM 13b in Realzeit, um die Grafikanzeige für die GUI auf dem Monitor 14 anzuzeigen.
- Beim Schritt SP7 wird die gleiche Grafik wie die im VRAM 13b gespeicherten Grafikdaten auf dem Monitor 14 angezeigt.
- Beim Schritt SP8 wird festgestellt, ob das Eingangsvideosignal V2 auf dem Aufzeichnungsvideoschirm 21a angezeigt werden soll oder nicht. Ist keine Zuordnung einer Videoanzeige vorhanden, wird entschieden, dass die Editieroperation nicht ausgeführt wird, und zum Sehritt SP16 gegangen, um zu beenden. Im normalen Fall geht wird zum Schritt SP9 gegangen, da es zum Ausführen einer Editieroperation notwendig ist, das Eingangsvideosignal V2 auf dem Aufzeichnungsvideoschirm 21a anzuzeigen.
- Beim Schritt SP9 wird ein RS-422-Steuerungsbefehl an das Festplattenarray 2 ausgegeben, um das Videosignal V2 an den Computer 1 auszugeben. Das Festplattenarray 2 erzeugt nach Empfang des Steuerungsbefehls vom Computer 1 aus dem Eingangsvideosignal V1 das Videosignal V2 als das Erstkanal- Videosignal und gibt es an den Computer 1 aus.
- Beim Schritt SP10 wird in der Datenwandlereinheit 11b aus dem Videomischsignäl V2, das dem Computer 1 zugeführt ist, ein Zeitcode extrahiert, und es wird auch das eingegebene Videomischsignal in digitale Komponentenvideodaten umgewandelt. Die umgewandelten Videodaten werden im Rahmenspeicher 11e in jeder Rahmeneinheit vorübergehend gespeichert. Der Prozessorkontroller 11a gibt die in der Datenwandlereinheit 11b extrahierten Zeitcodedaten an die CPU 10.
- Beim Schritt SP11 werden die im Rahmenspeicher 11c gespeicherten Videodaten zum VRAM 13b übertragen. Die aus dem Rahmenspeicher 11c zu übertragenden Videodaten weisen eine geringere Leseabtastrate auf, das heißt sie sind 380 Pixel · 240 Pixel-Videodaten. Es sei darauf hingewiesen, dass zu diesem Zeitpunkt eine Vermittlung des Bilddatenbusses 5a ausgeführt wird, so dass die zum VRAM 13b übertragenen Daten nicht nur die Videodaten aus dem Rahmenspeicher 11c sind, sondern auch die Videodaten vom Rahmenspeicher 11c in den Bereich, bei dem Videodaten angezeigt werden, übertragen werden, und Bilddaten von der CPU 10 in den Bereich, bei dem ein graphisches Bild für die GUI angezeigt wird, übertragen werden. Außerdem werden die im VRAM 13b gespeicherten Daten in Realzeit aktualisiert, so dass Videodaten in Realzeit auf dem Monitor 14 angezeigt werden können.
- Beim Schritt SP12 werden die Grafikdaten und die Videodaten, die im VRAM 13b gespeichert worden sind, in Realzeit auf den Monitor 14 angezeigt.
- Beim Schritt SP13 wird entschieden, ob das Festplattenarray 2 die Aufzeichnung der im Aufzeichnungsvideoschirm 21a angezeigten Videodaten starten soll oder nicht. Soll es die Aufzeichnung starten, wird die "START"-Taste 31a angeklickt.
- Beim Schritt SP14 gibt, wenn Aufzeichnungsstart zugeordnet ist, die CPU 10 den Befehl an die externe Schnittstelle 18 aus. Die externe Schnittstelle 18 wandelt ihn in das Kommunikationsformat des RS-422-Standard um und gibt ihn an das Festplattenarray 2 aus.
- Beim Schritt SP15 wird, da die Aufzeichnung vom Festplattenarray 2 gestartet worden ist, entschieden, dass alle Anfangseinstellungen vollendet sind, und dieser Fluss wird, beendet.
- Nachfolgend wird die Markierungsoperation unter Bezugnahme auf die Fig. 12 detailliert beschrieben. Es sei darauf hingewiesen, dass der in Fig. 12 gezeigte ganze Fluss die Operation der CPU 10 zeigt. Außerdem kann diese Markierungsoperation durch Bezugnahme auf die Beschreibung der Fig. 7 und Fig. 8 besser verstanden werden.
- Nach Beendigung des in Fig. 11 gezeigten Flusses entscheidet die CPU 10, dass diese Markierungsoperation ausgeführt werden kann und startet den Schritt SP20.
- Beim Schritt SP20 wird entschieden, ob die Markierung neu ausgeführt wird oder nicht. Ob die Markierung ausgeführt wird oder nicht wird danach entschieden, ob die Maus in dem Zustand, bei dem der Cursor in dem Bereich der Markierung- EIN-Taste 24c oder der Markierungs-AUS-Taste 24f positioniert ist, angeklickt war oder nicht. Auch ist diese Entscheidung eine Entscheidung durch einen der CPU 10 zugeführten Unterbrechungsbefehl. Ist die Markierungs-EIN-Taste 24c angeklickt, geht die. CPU 10 durch die Feststellung, dass der EIN- Punkt zugeordnet worden ist, zum Schritt SP22. Ist außerdem die Markierungs-AUS-Taste 24f angeklickt, geht sie durch die Feststellung, dass der AUS-Punkt zugeordnet worden ist, zum Schritt SP30.
- Beim Schritt SP22 werden die Clipbilddaten des EIN- Punktes gebildet. Diese Clipbilddaten des EIN-Punktes sind die beim Auslesen in den Videodaten-VRAM 13b gebildeten Daten, die im Rahmenspeicher 11c gespeichert worden sind, und sie weisen eine geringere Abtastrate auf, so dass sie eine Datenmenge von 1/16 der im Rahmenspeicher 11c aufgezeichneten Videodaten werden. Es sei darauf hingewiesen, dass diese Clipbilddaten aus 95 Pixel · 60 Pixel bestehen.
- Beim Schritt SP23 werden die in der Position des EIN- Clipanzeigebereichs 24a des VRAM 13b gespeicherten Clipbilddaten im EIN-Clipanzeigebereich 24a entsprechend den aus dem VRAM 13b ausgelesenen Daten angezeigt.
- Beim Schritt SP24 wird entschieden, ob die Clipbilddaten des beim Schritt SP21 markierten EIN-Punktes die erste Markierung sind oder nicht. Sind sie die erste Markierung, kehrt die CPU 10 zum Schritt SP21 zurück. Sind sie die zweite Markierung oder mehr, geht sie zum Schritt SP25 vor.
- Beim Schritt SP25 wird entschieden, ob die vorher markierten Clipbilddaten die Clipbilddaten des EIN-Punktes sind oder nicht. Sind die vorher markierten Clipbilddaten die Clipbilddaten des EIN-Punktes, geht die CPU 10 zum Schritt SP26 vor, sind jedoch die vorher markierten Clipbilddaten die Clipbilddaten des AUS-Punktes, geht sie zum Schritt SP27 vor.
- Beim Schritt SP26 werden die vorher markierten Clipbilddaten des EIN-Punktes vom EIN-Clipanzeigebereich 24a zum Clipanzeigebereich 28 bewegt. Das heißt, dass dieser Fall bedeutet, dass der EIN-Punkt zweimal nacheinander markiert wurde. Was die zu diesem Zeitpunkt gebildeten zweiten Managementaufzeichnungsdaten betrifft, ist es gut, auf die Beschreibung der Fig. 7, Fig. 8 und Fig. 9 Bezug zu nehmen.
- Beim Schritt SP 27 wird entschieden, ob durch den vorher markierten AUS-Punkt ein Ereignis erzeugt ist oder nicht. Ist durch die vorherige Markierung das Ereignis erzeugt, geht die CPU 10 zum Schritt SP29 vor, und ist das Ereignis durch die vorherige Markierung nicht erzeugt, geht sie zum Schritt SP28 vor.
- Beim Schritt 5P28 werden die im AUS-Clipanzeigebereich 24d angezeigten Clipbilddaten des AUS-Punktes zum Clipanzei¬ gebereich 28 bewegt, da festgestellt ist, dass sie die Clipbliddaten sind, die bei der Erzeugung des vorher markierten AUS-Punktes nicht benutzt werden.
- Beim Schritt SP29 werden die im AUS-Clipanzeigebereich 24d angezeigten Clipbilddaten gelöscht. Die im AUS- Clipanzeigebereich 24d angezeigten Clipbilddaten sind schon als der AUS-Punkt eines Ereignisses registriert worden, und folglich müssen sie nicht zum Clipanzeigebereich 28 bewegt werden.
- Zum Schritt SP21 zurückkehrend wird der Fall beschrieben, bei dem bei diesem Schritt SP21 der AUS-Punkt markiert wurde. Ist der AUS-Punkt zugeordnet, geht die CPU 10 zum Schritt SP30 vor.
- Beim Schritt SP30 werden die Clipbilddaten des AUS- Punktes gebildet. Diese Clipbilddaten des AUS-Punktes sind die beim Auslesen in den Videodaten VRAM 13b gebildeten Daten, die im Rahmenspeicher 11c gespeichert worden sind, und sie weisen eine geringere Abtastrate derart auf, dass sie die Datenmenge von 1/16 der im Rahmenspeicher 11c aufgezeichneten Videodaten werden. Es sei darauf hingewiesen, dass diese Clipbilddaten aus 95 Pixel · 60 Pixel bestehen.
- Beim Schritt SP31 werden die in der Position des AUS- Clipanzeigebereichs 24d des VRAM 13b gespeicherten Clipbilddaten im AUS-Clipanzeigebereich 24d entsprechend den aus dem VRAM 13b ausgelesenen Daten angezeigt.
- Beim Schritt SP32 wird festgestellt, ob die beim Schritt SP21 markierten Clipbilddaten des AUS-Punktes die erste Markierung sind oder nicht. Sind sie die erste Markierung, kehrt die CPU 10 zum Schritt SP21 zurück, sind sie jedoch die zweite Markierung oder mehr, geht sie zum Schritt SP33 vor.
- Beim Schritt SP33 wird festgestellt, ob die vorher markierten Clipbilddaten die Clipbilddaten eines EIN-Punktes sind oder nicht. Sind die vorher markierten Clipbilddaten die Clipbilddaten eines EIN-Punktes, geht die CPU 10 zum Schritt SP34 vor, sind jedoch die vorher markierten Clipbilddaten die Clipbilddaten eines AUS-Punktes, geht sie zum Schritt SP36 vor.
- Beim Schritt SP34 wird die Registrierung eines Ereignisses ausgeführt. Wird die Markierung eines AUS-Punktes nach einem EIN-Punkt als die obige ausgeführt, wird sie automatisch als ein Ereignis registriert. Was die Beschreibung der zweiten Managementaufzeichnungsdaten betrifft, die im Zusammenhang mit der Registrierung eines Ereignisses gebildet werden, kann sie unter Bezugnahme auf die Beschreibung der Fig. 7 und Fig. 8 gut verstanden werden.
- Beim Schritt SP35 werden die Clipbilddaten des EIN- Punktes des erzeugten Ereignisses in den Ereignisanzeigebereich 29 kopiert.
- Die Beschreibung des Schrittes SP36, des Schrittes SP37 und des Schrittes SP38 sind fortgelassen, da diese ähnlich dem Schritt SP27, dem Schritt SP28 und dem Schritt SP29 sind. Beim Schritt SP39 wird entschieden, ob die Markierung beendet werden soll oder nicht. Der in Fig. 12 gezeigte Fluss wird wiederholt, bis die Markierung vollendet ist.
- Fig. 13a und Fig. 13b zeigen den Fluss bei der Erzeugung eines Ereignisses aus dem vom Festplattenarray 2 wiedergegebenen Videosignal.
- Dieser Fluss wird in dem Zustand, bei dem die Clipbild¬ daten schon gespeichert worden sind, gestartet.
- Beim Schritt SP41 wird entschieden, ob die Clipbilddaten zugeordnet sind oder nicht. Beim Zuordnen der Clipbilddaten werden bei einem Doppelklicken (zweimal nacheinander Klicken) der Maus in dem Zustand, bei dem der Cursor in der Anzeigeposition der Clipbilddaten positioniert ist, die Clipbilddaten zugeordnet.
- Beim Schritt SP42 sind die Clipbilddaten zugeordnet, und sind die zugeordneten Clipbilddaten die Clipbilddaten eines EIN-Punktes, werden sie im EIN-Clipanzeigebereich 27a angezeigt, sind sie jedoch die Clipbilddaten eines AUS-Punktes, werden sie im AUS-Clipanzeigebereich 27d angezeigt.
- Beim Schritt SP43 bezieht sich die CPU 10 auf den in den zugeordneten Clipbilddaten enthaltenen Zeitcode und gibt einen Steuerungsbefehl an die externe Schnittstelle 18 aus, so dass Videodaten des Zeitcodes stehbildmäßig wiedergegeben werden. Die externe Schnittstelle 18 wandelt einen Stehbihdwiedergabebefehl in das RS-422-Protokoll um und gibt es an das Festplattenarray 2 aus. Das Festplattenarray 2 bezieht sich auf relevante Daten zum empfangenen Zeitcode und zur Speicheradresse, und danach werden die stehbildmäßig wiedergegebenen Videodaten aus der Festplatte 73 als die Zweitkanal-Videodaten ausgegeben.
- Beim Schritt SP44 werden die vom Festplattenarray 2 ausgegebenen Videodaten empfangen und im zweiten Videoprozessor 12 einer vorgeschriebenen Bildverarbeitung unterworfen.
- Beim Schritt SP45 werden die im Rahmenspeicher 12c gespeicherten Stehbildwiedergabevideodaten zum VRAM 13b übertragen, so dass sie 380 Pixel · 240 Pixel sind.
- Beim Schritt SP46 werden die im VRAM 13b gespeicherten Wiedergabevideodaten auf dem Wiedergabevideoschirm 23a angezeigt. Auf dem Wiedergabevideoschirm 23a wird nur das Fest- bzw. Stehbild angezeigt, da die Stehbildvideodaten aus dem Festplattenarray 2 nicht als Videosignal in Realzeit ausgegeben werden.
- Dann wird beim Schritt SP47 entschieden, ob die Wiedergabe in Bezug auf die auf dem Wiedergabevideoschirm 23a angezeigten Stehbildvideodaten zugeordnet sind oder nicht. Wird in dem Zustand, bei dem die Stehbildvideodaten auf dem Wiedergabevideoschirm 23a angezeigt werden, die "PREVIW"-Taste 32 angeklickt, wird entschieden, dass die Wiedergabeoperation gestartet werden soll.
- Beim Schritt SP48 wird über die externe Schnittstelle 18 ein Wiedergabestartbefehl an das Festplattenarray 2 ausgegeben. Das Festplattenarray 2 empfängt den Wiedergabestartbefehl und gibt normale Wiedergabevideodaten an den Computer 1 aus.
- Beim Schritt SP51 wird entschieden, ob eine Markierung ausgeführt wird oder nicht. Ob eine Markierung ausgeführt wird oder nicht wird danach entschieden, ob die Maus in dem Zustand, bei dem der Cursor im Bereich der Markierungs-EIN- Taste 27c oder der Markierungs-AUS-Taste 27f positioniert ist, geklickt wurde oder nicht. Auch ist diese Entscheidung eine Entscheidung durch den der CPU 10 zugeführten Unterbrechungsbefehl. Wird die Markierungs-EIN-Taste 27c geklickt, geht die CPU 10 durch die Entscheidung, dass der EIN-Punkt zugeordnet ist, zum Schritt SP52 vor. Ist außerdem die Markierungs-AUS-Taste 27f geklickt, geht sie durch die Entscheidung, dass der AUS-Punkt zugeordnet ist, zum Schritt SP55 vor.
- Beim Schritt SP52 werden die Clipbilddaten eines EIN- Punktes gebildet. Diese Clipbilddaten eines EIN-Punktes sind die beim Auslesen in den Videodaten-VRAM 13b gebildeten Daten, die im Rahmenspeicher 12c gespeichert worden sind, und sie haben eine kleinere Abtastrate derart, dass sie eine Datenmenge von 1/16 der im Rahmenspeicher 12c aufgezeichneten Videodaten werden. Es sei darauf hingewiesen, dass diese Clipbilddaten aus 95 Pixel · 60 Pixel bestehen.
- Beim Schritt SP53 werden die in der Position des EIN- Clipanzeigebereichs 27a des VRAM 13b gespeicherten Clipbilddaten im EIN-Clipanzeigebereich 27 entsprechend den aus dem VRAM 13b ausgelesenen Daten angezeigt.
- Beim Schritt SP54 werden die vorher markierten und im EIN-Clipanzeigebereichs 27d angezeigten Clipbilddaten des EIN-Punktes zum Clipanzeigebereich 28 bewegt.
- Beim Schritt SP55 werden die Clipbilddaten des AUS- Punktes gebildet. Diese Clipbilddaten des AUS-Punktes sind die beim Auslesen in den Videodaten-VRAM 13b gebildeten Daten, die im Rahmenspeicher 12c gespeichert worden sind, und sie haben eine kleinere Abtastrate derart, dass sie die Datenmenge von 1/16 der im Rahmenspeicher 12c aufgezeichneten Videodaten werden. Es sei darauf hingewiesen, dass diese Clipbilddaten aus 95 Pixel · 60 Pixel bestehen.
- Beim Schritt SP56 Werden die in der Position des AUS- Clipanzeigebereichs 27d des VRAM 13b gespeicherten Clipbilddaten auf dem AUS-Clipanzeigebereich 27d entsprechend den aus dem VRAM 13b ausgelesenen Daten angezeigt.
- Beim Schritt SP57 wird entschieden, ob die vorher markierten Clipbilddaten die EIN-Punkt-Clipbilddaten sind oder nicht. Sind die vorher markierten Clipbilddaten die EIN- Punkt-Clipbilddaten, geht die CPU 10 zum Schritt SP58 vor, sind jedoch die vorher markierten Clipbilddaten die AUS- Punkt-Clipbilddaten, geht sie zum Schritt SP59 vor.
- Beim Schritt SP58 wird entschieden, ob sie als ein Ereignis neu registriert werden sollen. Wird die "NEW EVENT"- Taste 33 geklickt, bedeutet dies, dass sie als ein Ereignis neu registriert werden.
- Beim Schritt SP59 führt sie die gleiche Verarbeitung wie beim Schritt SP28 aus.
- Beim Schritt SP60 wird eine Ereignisregistrierung ausgeführt. Wird die AUS-Punkt-Markierung nach dem EIN-Punkt ausgeführt und die "NEW EVENT"-Taste 33 wie oben geklickt, wird sie als ein Ereignis registriert. Was die Beschreibung der im Zusammenhang mit der Ereignisregistrierung gebildeten zweiten Managementaufzeichnungsdaten betrifft, so kann sie durch Bezugnahme auf die Beschreibung der Fig. 7 und Fig. 9 gut verstanden werden.
- Beim Schritt SP61 werden die EIN-Punkt-Clipbilddaten des erzeugten Ereignisses in den Ereignisanzeigebereich 29 kopiert.
- Beim Schritt SP62 wird entschieden, dass der Stopp der Wiedergabe der auf dem Wiedergabevideoschirm 23a angezeigten. Videodaten zugeordnet ist. Ist der Stopp zugeordnet, geht die CPU 10 zum Schritt SP63 vor.
- Beim Schritt SP63 wird ein Stoppbefehl an das Festplattenarray 2 ausgegeben und die Verarbeitung wird beendet.
- Diese Erfindung betrifft ein Editionssystem. Die Erfindung ist beispielsweise für ein System zum Editieren eines so bald wie möglich zu berichtenden Materials, beispielsweise Sport- und Nachrichtenreportagen, geeignet. Auch ist die. Erfindung auf ein Computergrafiksystem anwendbar.
Claims (53)
1. Editionssystem, mit einem Haupt-Aufzeichnungs- und -
Wiedergabegerät und einem Computer (1), wobei
das Haupt-Aufzeichnungs- und -Wiedergabegerät aufweist:
a) eine Aufzeichnungseinrichtung zur Aufzeichnung von
Quellenvideodaten (V1), die von einer externen
Einrichtung in Realzeit sukzessive zugeführt werden, auf einem
Aufzeichnungsmedium (2),
b) eine Wiedergabeeinrichtung zur Wiedergabe der auf dem
Aufzeichnungsmedium (2) entsprechend einem
Wiedergabebefehl aus dem Computer (1) aufgezeichneten Videodaten
(V1), wobei die Aufzeichnungseinrichtung die
Quellenvideodaten (V1) auf dem Aufzeichnungsmedium (2)
aufzeichnet, und
c) eine Ausgabeeinrichtung zum Ausgeben der Videodaten
so wie der Quellenvideodaten (V1) die auf dem
Aufzeichnungsmedium aufgezeichnet sind als erste Videodaten (V2)
an den Computer (1) und Ausgeben der von der
Wiedergabeeinrichtung wiedergegebenen Videodaten als zweite
Videodaten (V3) an den Computer (1), und wobei
der Computer (1) aufweist:
A) eine Benutzerschnittstelleneinrichtung (17),
B) einen Videoprozessor (11, 12) zum Empfang der ersten
Videodaten (V2) und der zweiten Videodaten (V3) und Er¬
zeugen erster Clipbilddaten, die den EIN-Punkt und/oder
den AUS-Punkt der ersten Videodaten (V2) von den ersten
Videodaten (V2) zeigen, und auch zweiter Clipbilddaten,
die den EIN-Punkt und/oder den AUS-Punkt der zweiten
Videodaten (V3) von den zweiten Videodaten (V3) zeigen,
C) eine Anzeigesteuerungseinrichtung (13) zum jeweiligen
Anzeigen eines die Benutzerschnittstelleneinrichtung
(17), die ersten Videodaten (V2), die zweiten Videodaten
(V3), die ersten Clipbilddaten und die zweiten
Clipbilddaten betreffenden Grafikbildes bei in einem
vorbestimmten Bereich einer Anzeigeeinrichtung (14), und
D) eine zentrale Steuerungseinrichtung zur Steuerung des
Videoprozessors (11, 12) und der
Anzeigesteuerungseinrichtung (13) entsprechend der Operation der
Benutzerschnittstelleneinrichtung (17).
2. Editionssystem nach Anspruch 1, wobei
die zentrale Steuerungseinrichtung den die
Wiedergabeeinrichtung des Haupt-Aufzeichnungs- und -Wiedergabegeräts
steuernden Wiedergabebefehl entsprechend der Operation der
Benutzerschnittatelleneinrichtung (17) erzeugt.
3. Editionssystem nach Anspruch 1,
wobei die zentrale Steuerungseinrichtung den
Videoprozessor (11, 12) so steuert, dass bei einem Markieren des EIN-
Punktes und/oder des AUS-Punktes durch die
Benutzerschnittstelleneinrichtung (17) die ersten Clipbilddaten vom ersten
Rahmen der dem Computer (1) zugeführten ersten Videodaten
(V2) erzeugt werden.
4. Editionssystem nach Anspruch 1, wobei
die zentrale Steuerungseinrichtung die Editionsdauer vom
EIN-Punkt zum AUS-Punkt der ersten Videodaten (V2) als ein
erstes Ereignis eingibt und die Editionsdauer vom EIN-Punkt
zum AUS-Punkt der zweiten Videodaten (V3) als ein zweites
Ereignis eingibt.
5. Editionssystem nach Anspruch 4, wobei
die zentrale Steuerungseinrichtung ein Editionsprogramm
zum Gewinnen der editierten Videodaten so erzeugt, dass das
von den eine Realzeitcharakteristik in Bezug auf die in dem
Haupt-Aufzeichnungs- und -Wiedergabegerät aufgezeichneten
Quellenvideodaten (V1) aufweisenden ersten Videodaten (V2)
erhaltene erste Ereignis und das von den nicht eine
Realzeitcharakteristik in Bezug auf die Quellenvideodaten (V1) auf¬
weisenden zweiten Videodaten (V3) erhaltene zweite. Ereignis
gemischt sind.
6. Editionssystem nach Anspruch 4, wobei
die Anzeigeeinrichtung (14) einen
Aufzeichnungsvideoanzeigebereich (21) zum Anzeigen der ersten Videodaten (V2),
einen Wiedergabevideoanzeigebereich (23) zum Anzeigen der
zweiten Videodaten (V3), einen ersten EIN-Clipanzeigebereich
(24a) zum Anzeigen der den EIN-Punkt zeigenden ersten
Clipbilddaten, einen ersten AUS-Clipanzeigebereich (24d) zum
Anzeigen der den AUS-Punkt zeigenden ersten Clipbilddaten,
einen zweiten EIN-Clipanzeigebereich (27a) zum Anzeigen der den
EIN-Punkt zeigenden zweiten Clipbilddaten, einen zweiten AUS-
Clipanzeigebereich (27d) zum Anzeigen der den AUS-Punkt
zeigenden zweiten Clipbilddaten, einen ersten Markierungs-EIN-
Tastenbereich (24c) zum Markieren eines EIN-Punktes in den
ersten Videodaten (V2), einen ersten Markierungs-AUS-
Tastenbereich (24f) zum Markieren eines AUS-Punktes in den
ersten Videodaten (V2), einen zweiten Markierungs-EIN-
Tastenbereich (27c) zum Markieren eines EIN-Punktes in den
zweiten Videodaten (V3) und einen zweiten Markierungs-AUS-
Tastenbereich (27f) zum Markieren eines AUS-Punktes in den
zweiten Videodaten (V2) aufweist, und wobei
die zentrale Steuerungseinrichtung den Videoprozessor
(11, 12) so steuert, dass die ersten Videodaten (V2) im zwei¬
ten Aufzeichnungsvideoanzeigebereich (21) als ein Bewegtbild
angezeigt werden und die zweiten Videodaten (V3) im
Wiedergabevideoanzeigebereich (23) als ein Bewegtbild angezeigt
werden.
7. Editionssystem nach Anspruch 6, wobei
die zentrale Steuerungseinrichtung den Videoprozessor
(11, 12) so steuert, dass, wenn detektiert wird, dass von der
Benutzerschnittstelleneinrichtung (17) der erste Markierungs-
EIN-Tastenbereich (24c) zugeordnet ist, die den EIN-Punkt
zeigenden ersten Clipbilddaten erzeugt werden, wenn
detektiert wird, dass von der Benutzerschnittstelleneinrichtung
(17) der erste Markierungs-AUS-Tastenbereich (24f) zugeordnet
ist, die den AUS-Punkt zeigenden ersten Clipbilddaten erzeugt
werden, wenn detektiert wird, dass von der
Benutzerschnittstelleneinrichtung (17) der zweite Markierungs-EIN-
Tastenbereich (27c) zugeordnet ist, die den EIN-Punkt
zeigenden zweiten Clipbilddaten erzeugt werden und, wenn detektiert
wird, dass von der Benutzerschnittstelleneinrichtung (17) der
erste Markierungs-AUS-Tastenbereich (27f) zugeordnet ist, die
den AUS-Punkt zeigenden zweiten Clipbilddaten erzeugt werden.
8. Editionssystem nach Anspruch 6, wobei
die zentrale Steuerungseinrichtung das erste Ereignis
eingibt, wenn detektiert wird, dass von der
Benutzerschnittstelleneinrichtung (17) der erste Markierungs-AUS-
Tastenbereich (24f) nach Zuordnung des ersten Markierungs-
EIN-Tastenbereichs (24c) zugeordnet ist, und das zweite
Ereignis eingibt, wenn detektiert wird, dass von der
Benutzerschnittstelleneinrichtung (17) der zweite Markierungs-AUS-
Tastenbereich (27f) nach Zuordnung des zweiten Markierungs-
EIN-Tastenbereichs (27c) zugeordnet ist.
9. Editionssystem nach Anspruch 6, wobei
die zentrale Steuerungseinrichtung eine Anzahl erster
Ereignisse durch Wiederholen der Markierungsoperation, bei
der die Markierung des AUS-Punktes der ersten Videodaten (V2)
nach der Markierung des EIN-Punktes der ersten Videodaten
(V2) ausgeführt wird, eingibt und eine Anzahl zweiter
Ereignisse durch Wiederholen der Markierungsoperation, bei der die
Markierung des AUS-Punktes der zweiten Videodaten (V3) nach
der Markierung des EIN-Punktes der zweiten Videodaten (V3)
ausgeführt wird, eingibt.
10. Editionssystem nach Anspruch 6, wobei
die Anzeigeeinrichtung (14) außerdem einen
Clipanzeigebereich (28) zum parallelen Anzeigen der mehreren
Clipbilddaten aufweist, und
die zentrale Steuerungseinrichtung die
Anzeigesteuerungseinrichtung (13) so steuert, dass in dem Fall, dass die
EIN-Punkt- und/oder AUS-Punkt-Clipbilddaten von der
Benutzerschnittstelleneinrichtung (17) in dem Zustand, in dem schon
irgendwelche Clipbilddaten in dem ersten EIN-
Clipanzeigebereich (24a), dem ersten AUS-Clipanzeigebereich
(24d), dem zweiten EIN-Clipanzeigebereich (27a) und/oder dem
zweiten AUS-Clipanzeigebereich (27d) angezeigt sind, neu
markiert werden, die in dem ersten EIN-Clipanzeigebereich (24a),
dem ersten AUS-Clipanzeigebereich (24d), dem zweiten EIN-
Clipanzeigebereich (27c) und/oder dem zweiten AUS-
Clipanzeigebereich (27d) angezeigten Clipbilddaten im
Clipanzeigebereich (28) angezeigt werden.
11. Editionssystem nach Anspruch 10, wobei
die Anzeigeeinrichtung (14) außerdem einen
Ereignisanzeigebereich (29) zum parallelen Anzeigen der die Ereignisse
zeigenden Clipbilddaten aufweist, und
die zentrale Steuerungseinrichtung die
Anzeigesteuerungseinrichtung (13) so steuert, dass die EIN-Punkt-
Clipbilddaten und/oder die AUS-Punkt-Clipbilddaten welche die
eingegebenen Ereignisse zeigen, im Ereignisanzeigebereich
(29) in der Eingabeordnung des Ereignisses anzeigt.
12. Editionssystem nach Anspruch 11, wobei
die Anzeigeeinrichtung (14) außerdem einen
Programmanzeigebereich (30) zum parallelen Anzeigen der die mehreren
Ereignisse zeigenden mehreren Clipbilddaten aufweist, und
die zentrale Steuerungseinrichtung die
Anzeigesteuerungseinrichtung (13) so steuert, dass die im
Ereignisanzeigebereich (29) angezeigten mehreren Clipbilddaten so
reorganisiert werden, dass sie in einer gewünschten Ordnung sind
und die so reorganisierten Clipbilddaten in dem
Programmanzeigebereich (30) angezeigt werden, und
die zentrale Steuerungseinrichtung ein Editionsprogramm
zum Editieren der mehreren Ereignisse entsprechend der
Anzeigeordnung in dem Programmanzeigebereich (30) der
reorganisierten Clipbilddaten erzeugt.
13. Editionssystem nach Anspruch 12 wobei
die zentrale Steuerungseinrichtung die reorganisierten
Clipbilddaten im Programmanzeigebereich (30) anzeigt durch
Wiederholen der Operation, die aus den im
Ereignisanzeigebereich (29) durch Betätigen einer in der
Benutzerschnittstelleneinrichtung (17) angeordneten Zeigereinrichtung (17a)
angezeigten mehreren Clipbilddaten gewünschte Clipbilddaten
wählt, und die so gewählten Clipbilddaten pro Einheit der
gewählten Clipbilddaten in eine gewünschte Anzeigeposition in
dem Programmanzeigebereich (30) kopiert.
14. Editionssystem nach Anspruch 12, wobei
das Editionsprogramm ein Programm ist, um die Videodaten
so editiert zu erhalten, dass das erste Ereignis und das
zweite Ereignis entsprechend der Anzeigeordnung der im
Programmanzeigebereich (30) angezeigten mehreren Clipbilddaten
ungeachtet dessen, ob die im Programmanzeigebereich (30)
angezeigten mehreren Clipbilddaten die von den ersten
Videodaten (V2) erhaltenen ersten Clipbilddaten oder die von den
zweiten Videodaten (V3) erhaltenen zweiten Clipbilddaten
sind, gemischt sind.
15. Editionssystem nach Anspruch 13, wobei
der Videoprozessor (11, 12) eine
Zeitcodeextraktionseinrichtung zum Extrahieren erster Zeitcodedaten aus den vom
Haupt-Aufzeichnungs- und -Wiedergabegerät zugeführten ersten
Videodaten (V2) und Extrahieren zweiter Zeitcodedaten aus den
vom Haupt-Aufzeichnungs- und -Wiedergabegerät zugeführten
zweiten Videodaten (V3) aufweist, und
die zentrale Steuerungseinrichtung die
Anzeigesteuerungseinrichtung (13) so steuert, dass die ersten
Zeitcodedaten entsprechend den im zweiten
Aufzeichnungsvideoanzeigebereich (21) als Bewegtbild angezeigten ersten Videodaten (V2)
angezeigt werden und die zweiten Zeitcodedaten entsprechend
den im Wiedergabevideoanzeigebereich (23) als ein Bewegtbild
angezeigten zweiten Videodaten (V2) angezeigt werden, und
so, dass die mit den im ersten EIN-Clipanzeigebereich
(24a) angezeigten Clipbilddaten und den im ersten AUS-
Clipanzeigebereich angezeigten Clipbilddaten
korrespondierenden ersten Zeitcodedaten jeweils angezeigt werden und auch
die mit den im zweiten EIN-Clipanzeigebereich (27a)
angezeigten Clipbilddaten und den im zweiten AUS-Clipanzeigebereich
(27d) angezeigten Clipbilddaten korrespondierenden zweiten
Zeitcodedaten jeweils angezeigt werden, und
so, dass die mit den im Clipanzeigebereich (28),
Ereignisanzeigebereich (29) und Programmanzeigebereich (30)
angezeigten ersten Clipbilddaten korrespondierenden ersten
Zeitcodedaten und die mit den im Clipanzeigebereich (28),
Ereignisanzeigebereich (29) und Programmanzeigebereich (30)
angezeigten zweiten Clipbilddaten korrespondierenden zweiten
Zeitcodedaten jeweils angezeigt werden.
16. Editionssystem nach Anspruch 13, wobei
die zentrale Steuerungseinrichtung zu den Clipbilddaten
eine serielle Indexnummer in der Erzeugungsordnung der
Clipbilddaten ungeachtet dessen, ob die erzeugten Clipbilddaten
die ersten Clipbilddaten oder die zweiten Clipbilddaten sind,
addiert,
die zentrale Steuerungseinrichtung die
Anzeigesteuerungseinrichtung (13) so steuert, dass die zu den im
Clipanzeigebereich (28) angezeigten Clipbilddaten addierte
Indexnummer jeweils angezeigt wird,
die zentrale Steuerungseinrichtung zu den Clipbilddaten
eine serielle Ereignisnummer in der Eingabeordnung des
Ereignisses ungeachtet dessen, ob das eingegebene Ereignis das
erste Ereignis oder das zweite Ereignis ist, addiert, und
die zentrale Steuerungseinrichtung die
Anzeigesteuerüngseinrichtung (13) so steuert, dass die zu dem von den im
Ereignisanzeigebereich (29) und Programmanzeigebereich (30)
angezeigten Clipbilddaten gezeigten Ereignis addierte
Ereignisnummer jeweils angezeigt wird.
17. Editionssystem nach Anspruch 13, wobei
die zentrale Steuerungseinrichtung die den EIN-Punkt
zeigenden Cliptypdaten zu den als der EIN-Punkt markierten
Clipbilddaten addiert und auch die den AUS-Punkt zeigenden
Cliptypdaten zu den als der AUS-Punkt markierten
Clipbilddaten addiert, und
die zentrale Steuerungseinrichtung die
Anzeigesteuerungseinrichtung (13) so steuert, dass das den EIN-Punkt
zeigende Zeichen und/oder das den AUS-Punkt zeigende Zeichen auf
der Basis der zu den im Clipanzeigebereich (28),
Ereignisanzeigebereich (29) und Programmanzeigebereich (30) angezeigten
Clipbilddaten addierten Cliptypdaten angezeigt wird.
18. Editionssystem nach Anspruch 13, wobei
die zentrale Steuerungseinrichtung eine
Speichereinrichtung zum Speichern der vom Videoprozessor (11, 12) erzeugten
ersten Clipbilddaten und zweiten Clipbilddaten, der sich auf
das eingegebene erste Ereignis beziehenden Daten und der sich
auf das eingegebene zweite Ereignis beziehenden Daten
aufweist.
19. Editionssystem nach Anspruch 18, wobei
die zentrale Steuerungseinrichtung bewirkt, dass die
Speichereinrichtung Managementaufzeichnungsdaten für
Clipdaten zum Managen der im Clipanzeigebereich (29) angezeigten
Clipbilddaten, Managementaufzeichnungsdaten für Ereignisdaten
zum Managen der im Ereignisanzeigebereich (29) angezeigten
Clipbilddaten und Managementaufzeichnungsdaten für
Programmdaten zum Managen der im Programmanzeigebereich (30)
angezeigten Clipbilddaten speichert.
20. Editionssystem nach Anspruch 19, wobei
die Managementaufzeichnungsdaten für Clipbilddaten aus
mehreren zweiten Managementaufzeichnungsdaten für
Clipbilddaten zum Managen der ersten Managementaufzeichnungsdaten für
Clipbilddaten, um den ganzen Clipanzeigebereich (28) und die
im Clipanzeigebereich (28) in jeder Clipbilddateneinheit
angezeigten Clipbilddaten zu managen, gebildet sind,
die Managementaufzeichnungsdaten für Ereignisdaten aus
mehreren zweiten Managementaufzeichnungsdaten für
Ereignisdaten zum Managen der ersten Managementaufzeichnungsdaten für
Ereignisdaten, um den ganzen Ereignisanzeigebereich (29) und
die im Ereignisanzeigebereich (29) in jeder
Clipbilddateneinheit angezeigten Clipbilddaten zu managen, gebildet sind, und
die Managementaufzeichnungsdaten für Programmdaten aus
mehreren zweiten Managementaufzeichnungsdaten für
Programmdaten zum Managen der ersten Managementaufzeichnungsdaten für
Programmdaten, um den ganzen Programmanzeigebereich (30) und
die im Programmanzeigebereich (30) in jeder
Clipbilddateneinheit angezeigten Clipbilddatenzu managen, gebildet sind.
21. Editionssystem nach Anspruch 20, wobei
die zentrale Steuerungseinrichtung in dem Fall, dass die
Anzeigeordnung der im Clipanzeigebereich (28) angezeigten
Clipbilddaten geändert wird, die zweiten
Managementaufzeichnungsdaten für Clipbilddaten ohne Änderung der
Speicherposition der Clipbilddaten im Speicher geändert werden,
die zentrale Steuerungseinrichtung in dem Fall, dass die
Anzeigeordnung der im Ereignisanzeigebereich (29) angezeigten
Clipbilddaten geändert wird, die zweiten
Managementaufzeichnungsdaten für Ereignisdaten ohne Änderung der
Speicherposition der im Ereignisanzeigebereich (29) angezeigten
Clipbilddaten im Speicher geändert werden, und
die zentrale Steuerungseinrichtung in dem Fall, dass die
Anzeigeordnung der im Programmanzeigebereich (30) angezeigten
Clipbilddaten geändert wird, die zweiten
Managementaufzeichnungsdaten für Programmdaten ohne Änderung der
Speicherposition der im Programmanzeigebereich angezeigten Clipbilddaten
im Speicher geändert werden.
22. Editionssystem nach Anspruch 20, wobei
die zentrale Steuerungseinrichtung alle im
Clipanzeigebereich (28) anzuzeigenden Clipbilddaten durch Verwendung der
Verknüpfungsstruktur, mit der die zweiten Managementaufzeichnungsdaten
für Clipbilddaten mit den ersten
Managementaufzeichnungsdaten für Clipbilddaten verknüpft sind, managt,
die zentrale Steuerungseinrichtung alle im
Ereignisanzeigebereich (29) anzuzeigenden Clipbilddaten durch
Verwendung der Verknüpfungsstruktur, mit der die zweiten
Managementaufzeichnungsdaten für Ereignisdaten mit den ersten
Managementaufzeichnungsdaten für Ereignisdaten verknüpft sind,
managt, und
die zentrale Steuerungseinrichtung alle im
Programmanzeigebereich (30) anzuzeigenden Clipbilddaten durch
Verwendung der Verknüpfungsstruktur, mit der die zweiten
Managementaufzeichnungsdaten für Programmdaten mit den ersten
Managementaufzeichnungsdaten für Programmdaten verknüpft sind,
managt.
23. Editionssystem nach Anspruch 22, wobei
die ersten Managementaufzeichnungsdaten für
Clipbilddaten die Verknüpfungsdatenzahl enthalten, welche die Zahl der
mit den ersten Managementaufzeichnungsdaten für Clipbilddaten
verknüpften zweiten Managementaufzeichnungsdaten für
Clipbilddaten zeigt.
24. Editionssystem nach Anspruch 22, wobei
die ersten Managementaufzeichnungsdaten für Clipdaten
die Zeigerdaten zum Zuordnen der Speicherposition der mit den
ersten Managementaufzeichnungsdaten für Clipdaten verknüpften
zweiten Managementaufzeichnungsdaten für Clipdaten in der
Speichereinrichtung enthalten, und
die mit den ersten Managementaufzeichnungsdaten für
Clipdaten verknüpften zweiten Managementaufzeichnungsdaten
für Clipdaten die Abwicklungsdaten zum Zuordnen der
Speicherposition der zuerst in der Speichereinrichtung im
Clipbildanzeigebereich (28) angezeigten Clipbilddaten enthalten, und
die mit den ersten Managementaufzeichnungsdaten für
Clipbilddaten verknüpften zweiten
Managementaufzeichnungsdaten für Clipbilddaten außerdem die Zeigerdaten zum Zuordnen
der Speicherposition von zweiten Managementaufzeichnungsdaten
für Clipbilddateh, die nach den im Clipbildanzeigebereich
(28) zuerst angezeigten Clipbilddaten angezeigte
Clipbilddaten managen, enthalten.
25. Editionssystem nach Anspruch 22, wobei
die N-ten zweiten Managementaufzeichnungsdaten für
Clipbilddaten zum Managen der im Clipanzeigebereich (28)
angezeigten N-ten Clipbilddaten ("N" ist der Wert einer ganzen
Zahl größer als "2") aufweisen:
die Zeigerdaten zum Zuordnen der Speicherposition der
mit den ersten Managementaufzeichnungsdaten für Clipbilddaten
verknüpften zweiten Managementaufzeichnungsdaten für
Clipbilddaten zu der (N-1)-ten in der Speichereinrichtung,
die Zeigerdaten zum Zuordnen der Speicherposition der
mit den ersten Managementaufzeichnungsdaten für Clipbilddaten
verknüpften zweiten Managementaufzeichnungsdaten für
Clipbliddaten zu der (N-1)-ten in der Speichereinrichtung und
die Abwicklungsdatendaten zum Zuordnen der
Speicherposition der Clipbilddaten zu der bei der N-ten in der
Speichereinrichtung angezeigten.
26. Editionssystem nach Anspruch 22, wobei
die ersten Managementaufzeichnungsdaten für
Ereignisdaten die Zeigerdaten zum Zuordnen der Speicherposition der
zweiten Managementaufzeichnungsdaten für Ereignisdaten
enthalten,
die mit den ersten Managementaufzeichnungsdaten für
Ereignisdaten verknüpften zweiten Managementaufzeichnungsdaten
für Ereignisdaten die EIN-Punkt-Abwicklungsdaten und die AUS-
Punkt-Abwicklungsdaten zum Zuordnen der Speicherposition der
Clipbilddaten des EIN-Puhktes und der Clipbilddaten des AUS-
Punktes des zuerst in die Speichereinrichtung eingegebenen
Ereignisses enthalten, und
die mit den ersten Managementaufzeichnungsdaten für
Ereignisdaten verknüpften zweiten Managementaufzeichnungsdaten
für Ereignisdaten außerdem die Zeigerdaten zum Zuordnen der
Speicherposition der zweiten Managementaufzeichnungsdaten für
Ereignisdaten zum Managen des nach dem zuerst eingegebenen
Ereignis eingegebene Ereignis enthalten.
27. Editionssystem nach Anspruch 22, wobei
die N-ten zweiten Managementaufzeichnungsdaten für
Ereignisdaten zum Managen der durch die im
Ereignisanzeigebereich (29) bei der N-ten angezeigten Clipbilddaten
zugeordneten Ereignisdaten ("N" ist der Wert einer ganzen Zahl größer
als "2") aufweisen:
die Zeigerdaten zum Zuordnen der Speicherposition der
mit den ersten Managementaufzeichnungsdaten für Ereignisdaten
verknüpften zweiten Managementaufzeichnungsdaten für
Ereignisdaten zu der (N-1)-ten in der Speichereinrichtung,
die Zeigerdaten zum Zuordnen der mit den ersten
Managementaufzeichnungsdaten für Ereignisdaten verknüpften zweiten
Managementaufzeichnungsdaten für Ereignisdaten zu der (N+1)-
ten in der Speichereinrichtung, und
die EIN-Punkt-Abwicklungsdaten und die AUS-Punkt-
Abwicklungsdaten, welche die Speicherpositionen der EIN-
Punkt-Clipbilddaten und der AUS-Punkt-Clipbilddaten zeigen,
die sich jeweils auf das durch die bei der N-ten angezeigten
Clipbilddaten gezeigte N-te Ereignis beziehen.
28. Editionssystem nach Anspruch 22, wobei
die ersten Managementaufzeichnungsdaten für
Programmdaten die Zeigerdaten zum Zuordnen der Speicherposition der mit
den ersten Managementaufzeichnungsdaten für Programmdaten
verknüpften zweiten Managementaufzeichnungsdaten für
Ereignisdaten enthalten, und
die mit den ersten Managementaufzeichnungsdaten für
Ereignisdaten verknüpften zweiten Managementaufzeichnungsdaten
für Ereignisdaten die EIN-Punkt-Abwicklungsdaten und die AUS-
Punkt-Abwicklungsdaten zum Zuordnen der Speicherpositionen
der EIN-Punkt-Clipbilddaten und der AUS-Punkt-Clipbilddaten,
die sich auf das Ereignis beziehen, das als das erste
Ereignis des Editionsprogramms eingegeben wird, enthalten.
29. Editionssystem nach Anspruch 28, wobei
das von den zweiten Managementaufzeichnungsdaten für
Programmdaten gemanagte Ereignis mit irgendeinem der von den
zweiten Managementaufzeichnungsdaten für Ereignisdaten
gemanagten Ereignisse koinzidiert.
30. Editionssystem nach Anspruch 28, wobei
die EIN-Punkt-Abwicklungsdaten und die AUS-Punkt-
Abwicklungsdaten der zweiten Managementaufzeichnungsdaten für
Programmdaten mit irgendwelchen der EIN-Punkt-
Abwicklungsdaten und der AUS-Punkt-Abwicklungsdaten der
zweiten Managementaufzeichnungsdaten für Ereignisdaten
koinzidieren.
31. Editionssystem nach Anspruch 28, wobei
die mit den ersten Managementaufzeichnungsdaten für
Programmdaten verknüpften zweiten Managementaufzeichnungsdaten
für Ereignisdaten außerdem die Zeigerdaten zum Zuordnen der
Speicherposition der zweiten Managementaufzeichnungsdaten für
Programmdaten zum Managen des bezüglich des ersten
Ereignisses des Editionsprogramms als nächstes Ereignis zugeordneten
Ereignisses enthalten.
32. Editionssystem nach Anspruch 28, wobei
das durch die im Speicheranzeigebereich (30) bei der N-
ten angezeigten Clipbilddaten gezeigte Ereignis ("N" ist der
Wert einer ganzen Zahl größer als "2") ein dem N-ten Ereignis
des Editionsprogramms zuzuordnendes Ereignis ist, und
das N-te Ereignis von den mit den ersten
Managementaufzeichnungsdaten für Programmdaten bei der N-ten verknüpften
N-ten zweiten Managementaufzeichnungsdaten für Programmdaten
gemanagt wird.
33. Editionssystem nach Anspruch 28, wobei
die zentrale Steuerungseinrichtung das Editionsprogramm
entsprechend dem Verknüpfungszustand der mehreren zweiten
Managementaufzeichnungsdaten für Programmdaten zum Managen mehrerer
durch die im Programmaufzeichnungsbereich (30) in jeder
Ereigniseinheit angezeigten mehreren Clipbilddaten gezeigten
mehreren Ereignisse erzeugt.
34. Editionssystem nach Anspruch 28, wobei
die mit den N-ten ersten Managementaufzeichnungsdaten
für Programmdaten verknüpften N-ten zweiten
Managementaufzeichnungsdaten für Programmdaten aufweisen:
vorhergehende verknüpfte Zeigerdaten zum Zuordnen der
Speicherposition der zweiten Managementaufzeichnungsdaten für
Programmdaten, die das dem (N-1)-ten Ereignis des
Editionsprogramms zugeordnete Ereignis managen,
folgende verknüpfte Zeigerdaten zum Zuordnen der
Speicherposition der zweiten Managementaufzeichnungsdaten für
Programmdaten, die das dem (N+1)-ten Ereignis des
Editionsprogramms zugeordnete Ereignis managen und
die EIN-Punkt-Abwicklungsdaten und die AUS-Punkt-
Abwicklungsdaten, welche die Speicherposition der EIN-Punkt-
Clipbilddaten und der AUS-Punkt-Clipbilddaten, die sich auf
das dem N-ten Ereignis des Editionsprogramms zugeordnete
Ereignis beziehen, zeigen.
35. Editionssystem nach Anspruch 34, wobei
die zentrale Steuerungseinrichtung die
Anzeigesteuerungseinrichtung (13) so steuert, dass von der
Benutzerschnittstelleneinrichtung (17) beliebige einzelne der im
Ereignisanzeigebereich (29) angezeigten Clipbilddaten
zugeordnet werden und das zugeordnete Ereignis kopiert und im
Programmanzeigebereich (30) angezeigt wird, und
die zentrale Steuerungseinrichtung die zweiten
Managementaufzeichnungsdaten für Programmdaten, welche die gleichen
EIN-Punkt-Abwicklungsdaten und AUS-Punkt-Abwicklungsdaten wie
die in den zweiten Managementaufzeichnungsdaten für
Ereignisdaten zum Managen der zugeordneten Clipbilddaten enthaltenen
EIN-Punkt-Abwicklungsdaten und AUS-Punkt-Abwicklungsdaten
aufweisen, erzeugt, um das durch die kopierten und im
Programmanzeigebereich
(30) angezeigten Clipbilddaten gezeigte
Ereignis zu managen.
36. Editionssystem nach Anspruch 34, wobei
die zentrale Steuerungseinrichtung die vorhergehenden
verknüpften Zeigerdaten und die folgenden verknüpften
Zeigerdaten ohne Änderung der Speicherpositionen der Clipdaten
des EIN-Punktes und der Clipbilddaten des AUS-Punktes wieder
in den Speicher schreibt, wobei die Abwicklungsdaten des EIN-
Punktes und die Abwicklungsdaten des AUS-Punktes, die in den
zweiten Managementaufzeichnungsdaten für Programmdaten
gespeichert sind, wieder geschrieben werden, um den
Verknüpfungszustand der zweiten Managementaufzeichnungsdaten für
Programmdaten so zu ändern, dass die Ordnung der in das
Editionsprogramm eingegebenen Ereignisse geändert wird.
37. Editionssystem nach Anspruch 28, wobei
die zweiten Managementaufzeichnungsdaten für Clipdaten,
die zweiten Managementaufzeichnungsdaten für Ereignisdaten
und die zweiten Managementaufzeichnungsdaten für
Programmdaten die Zeitcodedaten enthalten, die den Zeitcode zeigen, der
mit den von den jeweiligen Managementaufzeichnungsdaten
gemanagten Clipbilddaten korrespondiert, und
die zentrale Steuerungseinrichtung die
Anzeigesteuerungseinrichtung (13) so steuert, dass sie den Zeitcode, der
mit den jeweiligen Clipbilddaten, die im Clipanzeigebereich
(28), im Ereignisanzeigebereich (29) und im
Programmanzeigebereich (30) angezeigt werden, korrespondiert, auf der Basis
der Zeitcodedaten der zweiten Managementaufzeichnungsdaten
für Clipbilddaten, der zweiten Managementaufzeichnungsdaten
für Ereignisdaten und der zweiten
Managementaufzeichnungsdaten für Programmdaten, die in der Speichereinrichtung
gespeichert sind, anzeigt.
38. Editionssystem nach Anspruch 28, wobei
die zentrale Steuerungseinrichtung das Editionsprogramm
auf der Basis der Zeitcodedaten erzeugt, die In den zweiten
Managementaufzeichnungsdaten gespeichert sind, die das von
den im Programmanzeigebereich (30) angezeigten mehreren
Clipbilddaten gezeigte Ereignis managen.
39. Editionssystem nach Anspruch 22, wobei
die zentrale Steuerungseinrichtung die serielle
Indexnummer speichert, die in der Erzeugungsordnung der
Clipbilddaten als die Indexnummerdaten der zweiten
Managementaufzeichnungsdaten für Clipbilddaten zum Managen der im
Clipanzeigebereich (28) angezeigten Clipbilddaten addiert ist, und
die zentrale Steuerungseinrichtung die zu den im
Clipanzeigebereich (28) angezeigten Clipbilddaten addierte
Indexnummer auf der Basis der Indexnummerdaten der in der
Speichereinrichtung gespeicherten zweiten
Managementaufzeichnungsdaten für Clipbilddaten anzeigt.
40. Editionssystem nach Anspruch 21, wobei
die zentrale Steuerungseinrichtung einen Cliptyp, der
zeigt, dass die Clipbilddaten die EIN-Punkt-Clipbilddaten
und/oder die AUS-Punkt-Clipbilddaten sind, als die
Cliptypdaten der zweiten Managementaufzeichnungsdaten für Clipdaten
speichert; und
die zentrale Steuerungseinrichtung den Cliptyp der im
Clipanzeigebereich (28) angezeigten Clipbilddaten auf der
Basis der Cliptypdaten der in der Speichereinrichtung
gespeicherten zweiten Managementaufzeichnungsdaten für Clipdaten
anzeigt.
41. Editionssystem nach Anspruch 20, wobei
die zentrale Steuerungseinrichtung die
Anzeigesteuerungseinrichtung (13) so steuert, dass alle Clipbilddaten
jeweils im Clipanzeigebereich (28), Ereignisanzeigebereich (29)
und Programmanzeigebereich (30) auf der Basis der ersten
Managementaufzeichnungsdaten für Clipdaten, der zweiten
Managementaufzeichnungsdaten für Clipdaten, der ersten
Managementaufzeichnungsdaten für Ereignisdaten, der zweiten
Managementaufzeichnungsdaten für Ereignisdaten, der ersten Managementaufzeichnungsdaten
für Programmdaten und der zweiten
Managementaufzeichnungsdaten für Programmdaten, die in der Spei¬
chereinrichtung gespeichert sind, angezeigt werden.
42. Editionssystem nach Anspruch 20, wobei
die zweiten Managementaufzeichnungsdaten für Clipdaten
die den Zeitcode aller im Clipanzeigebereich (28) angezeigten
Clipbilddaten zeigenden Zeitcodedaten enthalten, und wobei
bei Zuordnung der im Clipanzeigebereich (28) angezeigten
Clipbilddaten durch die Operation der
Benutzerschnittstelleneinrichtung (17) die zentrale Steuerungseinrichtung des
Computers einen Wiedergabebefehl auf der Basis der Zeitcodedaten
der in der Speichereinrichtung gespeicherten zweiten
Managementaufzeichnungsdaten für Clipdaten der Haupt-Aufzeichnungs-
und -Wiedergabeeinrichtung zuführt,
die Haupt-Aufzeichnungs- und -Wiedergabeeinrichtung, bei
der die Wiedergabeeinrichtung auf den vom Computer (1)
zugeführten Wiedergabebebefehl ansprechend mit der Wiedergabe von
Videodaten von einer Zeitcodeposition auf der Basis der
Zeitcodedaten startet und die Ausgabeeinrichtung die auf diese
Weise wiedergegebenen Videodaten an den Computer als zweite
Videodaten (V3) ausgibt, und
die zentrale Steuerungseinrichtung des Computers (1) die
Anzeigesteuerungseinrichtung (13) so steuert, dass die
zweiten Videodaten (V3) im Wiedergabevideoanzeigebereich (23) als
ein Bewegtbild angezeigt werden.
43. Editionssystem nach Anspruch 42, wobei
die zentrale Steuerungseinrichtung des Computers (1) die
Anzeigesteuerungseinrichtung (13) so steuert, dass in der
Speichereinrichtung gespeicherten zugeordneten Clipbilddaten
auf der Basis der zweiten Managementaufzeichnungsdaten für
Clipdaten zum Managen der in der Speichereinrichtung
gespeicherten und im zweiten EIN-Clipanzeigebereich (27a) oder im
zweiten AUS-Clipanzeigebereich (27d) angezeigten zugeordneten
Clipbilddaten ausgelesen werden.
44. Editionssystem nach Anspruch 42, wobei
beim Detektieren durch die zentrale
Steuerungseinrichtung des Computers, dass die im Clipanzeigebereich (28)
angezeigten Clipbilddaten durch die Operation der
Benutzerschnittstelleneinrichtung (17) zugeordnet sind, die zentrale
Steuerungseinrichtung des Computers (1) einen
Wiedergabebefehl an die Haupt-Aufzeichnungs- und -Wiedergabeeinrichtung
ausgibt, so dass Videodaten von der Zeitcodeposition, bei der
die zugeordneten Clipbilddaten aufgezeichnet worden sind, auf
der Basis der Zeitcodedaten der zweiten
Managementaufzeichnungsdaten für Clipbilddaten zum Managen der in der
Speichereinrichtung gespeicherten Clipbilddaten wiedergegeben
werden.
45. Editionssystem nach Anspruch 1, wobei
die Haupt-Aufzeichnungs- und -Wiedergabeeinrichtung
mehrere Disk-Arrays (73) zur Aufzeichnung von Quellenvideodaten
(V1) und mehrere Disk-Arrays (76) zur Aufzeichnung von
Audiodaten (A1) aufweist.
46. Editionssystem nach Anspruch 1, wobei
die Haupt-Aufzeichnungs- und -Wiedergabeeinrichtung
außerdem eine erste Pufferungseinrichtung (72b) zum
zeitweiligen Puffern der Quellenvideodaten (V1), eine zweite
Pufferungseinrichtung (72e) zum zeitweiligen Puffern der von der
Wiedergabeeinrichtung wiedergegebenen Videodaten (V3) und
einen Systemkontroller (70) zur Steuerung der
Aufzeichnungseinrichtung, der Wiedergabeeinrichtung, der Ausgabeeinrichtung
sowie der ersten Pufferungseinrichtung (72b) und der zweiten
Pufferungseinrichtung (72e) durch Empfang des
Steuerungsbefehls vom Computer (1) aufweist.
47. Editionssystem nach Anspruch 46, wobei
der Systemkontroller (70) eine Speichereinrichtung zum
Beziehen der zu den ersten Videodaten (V2) addierten Zeit¬
codedaten auf eine Aufzeichnungsadresse der Quellenvideodaten
(V1) und um sie zu speichern aufweist.
48. Editionssystem nach Anspruch 46, wobei
der Systemkontroller (70) die Wiedergabeeinrichtung
durch Bezugnahme auf die mit dem vom Computer (1) zugeführten
Wiedergabebefehl korrespondierenden Zeitcodedaten und eine
Adresse der in der Speichereinrichtung des Systemkontrollers
(70) gespeicherten Zeitcodedaten steuert.
49. Editionssystem nach Anspruch 46, wobei
der Systemkontroller (70) die erste
Pufferungseinrichtung (72b) und die zweite Pufferungseinrichtung (72e) so
steuert, dass die bereits aufgezeichneten Quellenvideodaten
(V1) während der Aufzeichnung des Quellenvideos (V1) auf dem
Aufzeichnungsmedium (2) vom Aufzeichnungsmedium wiedergegeben
werden.
50. Editionssystem nach Anspruch 46, wobei
der Systemkontroller (70) die erste
Pufferungseinrichtung (72b) und die zweite Pufferungseinrichtung (72e) so
steuert, dass es scheint, als würden die Aufzeichnung des
Quellenvideos (V1) auf dem Aufzeichnungsmedium (2) und die
Wiedergabe vom Aufzeichnungsmedium (2) aus der Sicht des
Computers (1) gleichzeitig ausgeführt.
51. Computersystem (1) zum Editieren von Videodaten (V1),
die von einer externen Einrichtung zugeführt sind, mit:
A) einer Benutzerschnittstelleneinrichtung (17),
B) einem Videoprozessor (11, 12) zum Empfang erster
Videodaten (V2), die gleichzeitig auf einem
Aufzeichnungsmedium (2) aufgezeichnet werden, und zum Empfang zweiter
Videodaten (V3), die vom Aufzeichnungsmedium (2)
wiedergegeben werden, wobei die ersten Videodaten (V2) und die
zweiten Videodaten (V3) gleichzeitig empfangen werden,
und zum Erzeugen erster Clipbilddaten, die den EIN-Punkt
und/oder den AUS-Punkt der ersten Videodaten (V2) von
den ersten Videodaten (V2) zeigen, und auch zweiter
Clipbilddaten, die den EIN-Punkt und/oder den AUS-Punkt
der zweiten Videodaten (V3) von den zweiten Videodaten
(V3) zeigen,
C) einer Anzeigesteuerüngseinrichtung (13) zum Anzeigen
eines die Benutzerschnittstelleneinrichtung (17), die
ersten Videodaten (V2), die zweiten Videodaten (V3), die
ersten Clipbilddaten und die zweiten Clipbilddaten
betreffenden Grafikbildes auf jeweils einem vorbestimmten
Bereich einer Anzeigeeinrichtung (14), und
D) einer zentralen Steuerungseinrichtung zur Steuerung
des Videoprozessors (11, 12) und der
Anzeigesteuerungseinrichtung (13) entsprechend der Operation der
Benutzerschnittstelleneinrichtung (17).
52. Anwenderprogramm zum Betrieb des in den Ansprüchen 1 bis
50 beschriebenen Geräts entsprechend diesen Ansprüchen.
53. Software, die ein Medium bereitstellt, durch das ein
Anwenderprogramm nach Anspruch 52 bereitgestellt ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10821795 | 1995-04-08 | ||
PCT/JP1996/000963 WO1996032722A1 (fr) | 1995-04-08 | 1996-04-08 | Systeme de mise en forme |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69623712D1 DE69623712D1 (de) | 2002-10-24 |
DE69623712T2 true DE69623712T2 (de) | 2003-05-28 |
Family
ID=14479008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69623712T Expired - Fee Related DE69623712T2 (de) | 1995-04-08 | 1996-04-08 | Schnittsystem |
Country Status (7)
Country | Link |
---|---|
US (1) | US5930446A (de) |
EP (2) | EP1248258A2 (de) |
JP (1) | JP3837746B2 (de) |
KR (1) | KR970703595A (de) |
CN (2) | CN1139934C (de) |
DE (1) | DE69623712T2 (de) |
WO (1) | WO1996032722A1 (de) |
Families Citing this family (191)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6167350A (en) * | 1996-04-12 | 2000-12-26 | Sony Corporation | Method and apparatus for selecting information signal range and editing apparatus for information signal |
US6628303B1 (en) | 1996-07-29 | 2003-09-30 | Avid Technology, Inc. | Graphical user interface for a motion video planning and editing system for a computer |
DE69720221T2 (de) * | 1996-07-29 | 2004-02-05 | Avid Technology, Inc., Tewksbury | Graphische benutzerschnittstelle für plan- und schnittsystem für sich bewegende videobilder für einen rechner |
KR100551459B1 (ko) * | 1996-09-20 | 2006-11-30 | 소니 가부시끼 가이샤 | 편집시스템,편집방법,클립관리장치,및클립관리방법 |
US6201925B1 (en) * | 1996-11-15 | 2001-03-13 | Futuretel, Inc. | Method and apparatus for editing video files |
US6661430B1 (en) * | 1996-11-15 | 2003-12-09 | Picostar Llc | Method and apparatus for copying an audiovisual segment |
JPH10164495A (ja) * | 1996-11-28 | 1998-06-19 | Sony Corp | ビデオ編集装置及びその方法並びに記憶媒体 |
WO1998024091A1 (fr) * | 1996-11-29 | 1998-06-04 | Sony Corporation | Systeme de montage video et procede correspondant |
GB2325776B (en) * | 1996-12-09 | 2000-10-11 | Sony Corp | Editing device,editing system and editing method |
US20010016113A1 (en) * | 1997-02-10 | 2001-08-23 | Nikon Corporation | Information processing apparatus and method |
JP4462642B2 (ja) * | 1997-03-05 | 2010-05-12 | ソニー株式会社 | 編集装置及び編集方法 |
JP3419645B2 (ja) * | 1997-03-14 | 2003-06-23 | 株式会社日立国際電気 | 動画像編集方法 |
EP0869445A3 (de) * | 1997-03-31 | 2002-11-06 | Hitachi, Ltd. | System und Verfahren zur Videosignalverarbeitung mit Zeitkoden |
US6052508A (en) * | 1997-04-04 | 2000-04-18 | Avid Technology, Inc. | User interface for managing track assignment for portable digital moving picture recording and editing system |
CA2202106C (en) * | 1997-04-08 | 2002-09-17 | Mgi Software Corp. | A non-timeline, non-linear digital multimedia composition method and system |
KR100603161B1 (ko) * | 1997-04-12 | 2006-12-13 | 소니 가부시끼 가이샤 | 편집시스템및편집방법 |
KR100603173B1 (ko) * | 1997-04-12 | 2006-12-15 | 소니 가부시끼 가이샤 | 편집장치및편집방법 |
EP0920014A4 (de) * | 1997-04-12 | 2002-12-04 | Sony Corp | Schnittvorrichtung und schnittverfahren |
CA2257572A1 (en) * | 1997-04-12 | 1998-10-22 | Yoshiyuki Nakamura | Editing system and editing method |
JP3988205B2 (ja) * | 1997-05-27 | 2007-10-10 | ソニー株式会社 | 映像信号記録再生装置、映像信号記録再生方法、映像信号再生装置及び映像信号再生方法 |
GB9716033D0 (en) * | 1997-07-30 | 1997-10-01 | Discreet Logic Inc | Processing edit decision list data |
US6567980B1 (en) | 1997-08-14 | 2003-05-20 | Virage, Inc. | Video cataloger system with hyperlinked output |
US6360234B2 (en) | 1997-08-14 | 2002-03-19 | Virage, Inc. | Video cataloger system with synchronized encoders |
US6463444B1 (en) | 1997-08-14 | 2002-10-08 | Virage, Inc. | Video cataloger system with extensibility |
US7295752B1 (en) | 1997-08-14 | 2007-11-13 | Virage, Inc. | Video cataloger system with audio track extraction |
JP4303798B2 (ja) * | 1997-09-11 | 2009-07-29 | ソニー株式会社 | 撮像装置、編集装置及び編集システム |
JP4078691B2 (ja) * | 1997-09-19 | 2008-04-23 | ソニー株式会社 | 記録再生制御システム、記録再生制御方法および記録再生制御装置 |
US7394347B2 (en) * | 1997-10-27 | 2008-07-01 | World Wide Innovations, Llc | Locking device for electronic equipment |
US8963681B2 (en) | 1997-10-27 | 2015-02-24 | Direct Source International, Llc | Operating control system for electronic equipment |
JPH11297040A (ja) * | 1998-04-07 | 1999-10-29 | Sony Corp | 再生信号処理装置 |
AU4439899A (en) | 1998-06-16 | 2000-01-05 | United Video Properties, Inc. | Interactive television program guide with simultaneous watch and record capabilities |
US6163510A (en) | 1998-06-30 | 2000-12-19 | International Business Machines Corporation | Multimedia search and indexing system and method of operation using audio cues with signal thresholds |
US6833865B1 (en) * | 1998-09-01 | 2004-12-21 | Virage, Inc. | Embedded metadata engines in digital capture devices |
US20040027368A1 (en) * | 2002-05-09 | 2004-02-12 | Parkervision, Inc. | Time sheet for real time video production system and method |
US20030214605A1 (en) * | 1998-12-18 | 2003-11-20 | Snyder Robert J. | Autokeying method, system, and computer program product |
US7549128B2 (en) * | 2000-08-08 | 2009-06-16 | Thomson Licensing | Building macro elements for production automation control |
US7024677B1 (en) | 1998-12-18 | 2006-04-04 | Thomson Licensing | System and method for real time video production and multicasting |
US20030001880A1 (en) * | 2001-04-18 | 2003-01-02 | Parkervision, Inc. | Method, system, and computer program product for producing and distributing enhanced media |
US6952221B1 (en) | 1998-12-18 | 2005-10-04 | Thomson Licensing S.A. | System and method for real time video production and distribution |
US8560951B1 (en) | 1998-12-18 | 2013-10-15 | Thomson Licensing | System and method for real time video production and distribution |
US9123380B2 (en) | 1998-12-18 | 2015-09-01 | Gvbb Holdings S.A.R.L. | Systems, methods, and computer program products for automated real-time execution of live inserts of repurposed stored content distribution, and multiple aspect ratio automated simulcast production |
US6909874B2 (en) * | 2000-04-12 | 2005-06-21 | Thomson Licensing Sa. | Interactive tutorial method, system, and computer program product for real time media production |
US6452612B1 (en) * | 1998-12-18 | 2002-09-17 | Parkervision, Inc. | Real time video production system and method |
US11109114B2 (en) | 2001-04-18 | 2021-08-31 | Grass Valley Canada | Advertisement management method, system, and computer program product |
US6760916B2 (en) | 2000-01-14 | 2004-07-06 | Parkervision, Inc. | Method, system and computer program product for producing and distributing enhanced media downstreams |
US6748421B1 (en) * | 1998-12-23 | 2004-06-08 | Canon Kabushiki Kaisha | Method and system for conveying video messages |
WO2000051129A1 (en) * | 1999-02-25 | 2000-08-31 | Applied Magic, Inc. | Non-linear multimedia editing system integrated into a television, set-top box or the like |
EP1183689A1 (de) | 1999-03-30 | 2002-03-06 | Tivo, Inc. | System zur automatischen korrektur der wiedergabeposition nach schnellem vor- oder rückspulen |
US20020118954A1 (en) | 2001-12-07 | 2002-08-29 | Barton James M. | Data storage management and scheduling system |
US8689265B2 (en) | 1999-03-30 | 2014-04-01 | Tivo Inc. | Multimedia mobile personalization system |
US7543325B2 (en) | 1999-03-30 | 2009-06-02 | Tivo Inc. | System for remotely controlling client recording and storage behavior |
CN100407328C (zh) | 1999-03-30 | 2008-07-30 | 提维股份有限公司 | 多媒体可视的播放进度指示系统 |
US7665111B1 (en) | 1999-10-20 | 2010-02-16 | Tivo Inc. | Data storage management and scheduling system |
US6847778B1 (en) | 1999-03-30 | 2005-01-25 | Tivo, Inc. | Multimedia visual progress indication system |
EP1166269B1 (de) | 1999-03-30 | 2018-05-23 | TiVo Solutions Inc. | System zum hinzufügen von lesezeichen zu einem multimediaprogramm |
US6757906B1 (en) | 1999-03-30 | 2004-06-29 | Tivo, Inc. | Television viewer interface system |
US7242847B1 (en) * | 1999-06-18 | 2007-07-10 | Intel Corporation | Systems and methods for editing video streams using a grid-based representation |
US20030182567A1 (en) | 1999-10-20 | 2003-09-25 | Tivo Inc. | Client-side multimedia content targeting system |
JP2001195825A (ja) * | 1999-10-29 | 2001-07-19 | Sony Corp | 記録再生装置および方法 |
JP2001143447A (ja) * | 1999-11-16 | 2001-05-25 | Sony Corp | データ編集装置および方法、並びにデータ記録再生装置 |
JP2001197366A (ja) * | 2000-01-12 | 2001-07-19 | Hitachi Ltd | 画像合成方法及び画像合成プログラムを記録した記録媒体 |
JP4168307B2 (ja) * | 2000-03-17 | 2008-10-22 | ソニー株式会社 | 情報再生装置および画像表示制御方法、並びに記録媒体 |
JP4348821B2 (ja) * | 2000-03-27 | 2009-10-21 | ソニー株式会社 | 編集装置、編集方法 |
US7257641B1 (en) * | 2000-03-30 | 2007-08-14 | Microsoft Corporation | Multipoint processing unit |
EP1273008A2 (de) * | 2000-03-31 | 2003-01-08 | Parkervision, Inc. | Verfahren, system und rechnerprogrammprodukt zur vollständigen integration von nachrichten und automatisierung in einer echtzeit videoproduktionsumgebung |
EP1183688B1 (de) | 2000-04-05 | 2011-10-12 | Sony Europe Limited | Audio/videowiedergabegerät und verfahren |
GB2361098A (en) * | 2000-04-05 | 2001-10-10 | Sony Uk Ltd | Editing system and method using metadata |
US7861261B2 (en) | 2000-04-07 | 2010-12-28 | Visible World, Inc. | Systems and methods for managing and distributing media content |
US7870578B2 (en) | 2000-04-07 | 2011-01-11 | Visible World, Inc. | Systems and methods for managing and distributing media content |
US7260564B1 (en) * | 2000-04-07 | 2007-08-21 | Virage, Inc. | Network video guide and spidering |
US7870579B2 (en) | 2000-04-07 | 2011-01-11 | Visible Worl, Inc. | Systems and methods for managing and distributing media content |
US7900227B2 (en) | 2000-04-07 | 2011-03-01 | Visible World, Inc. | Systems and methods for managing and distributing media content |
US7962948B1 (en) * | 2000-04-07 | 2011-06-14 | Virage, Inc. | Video-enabled community building |
US7895620B2 (en) | 2000-04-07 | 2011-02-22 | Visible World, Inc. | Systems and methods for managing and distributing media content |
US7222163B1 (en) * | 2000-04-07 | 2007-05-22 | Virage, Inc. | System and method for hosting of video content over a network |
US7890971B2 (en) | 2000-04-07 | 2011-02-15 | Visible World, Inc. | Systems and methods for managing and distributing media content |
US7904922B1 (en) * | 2000-04-07 | 2011-03-08 | Visible World, Inc. | Template creation and editing for a message campaign |
US8171509B1 (en) | 2000-04-07 | 2012-05-01 | Virage, Inc. | System and method for applying a database to video multimedia |
JP4332988B2 (ja) * | 2000-04-27 | 2009-09-16 | ソニー株式会社 | 信号処理装置及び方法 |
JP2001319419A (ja) * | 2000-05-02 | 2001-11-16 | Matsushita Electric Ind Co Ltd | データ記録システム、記録先決定装置、媒体、および情報集合体 |
US8086697B2 (en) | 2005-06-28 | 2011-12-27 | Claria Innovations, Llc | Techniques for displaying impressions in documents delivered over a computer network |
US7475404B2 (en) | 2000-05-18 | 2009-01-06 | Maquis Techtrix Llc | System and method for implementing click-through for browser executed software including ad proxy and proxy cookie caching |
US6785901B1 (en) * | 2000-05-19 | 2004-08-31 | Webtv Networks, Inc. | Altering locks on programming content |
US9038108B2 (en) * | 2000-06-28 | 2015-05-19 | Verizon Patent And Licensing Inc. | Method and system for providing end user community functionality for publication and delivery of digital media content |
EP1173013A3 (de) | 2000-07-14 | 2004-04-21 | Sony Corporation | Fernsteueranlage für Aufnahme/Wiedergabegerät und Videosignalaufnahme/-wiedergabegerät |
AU2001277898A1 (en) * | 2000-07-17 | 2002-01-30 | Sensory Science Corporation | Multimedia appliance |
JP4725758B2 (ja) * | 2000-08-25 | 2011-07-13 | ソニー株式会社 | 情報処理装置および情報処理方法、並びに記録媒体 |
EP1343168A4 (de) * | 2000-12-05 | 2006-03-22 | Matsushita Electric Ind Co Ltd | Aufzeichnungs/wiedergabegeraet und aufzeichnungsmedium |
US6912717B2 (en) * | 2000-12-06 | 2005-06-28 | Microsoft Corporation | Methods and systems for implementing dynamic properties on objects that support only static properties |
US6961943B2 (en) * | 2000-12-06 | 2005-11-01 | Microsoft Corporation | Multimedia processing system parsing multimedia content from a single source to minimize instances of source files |
US6954581B2 (en) * | 2000-12-06 | 2005-10-11 | Microsoft Corporation | Methods and systems for managing multiple inputs and methods and systems for processing media content |
US6768499B2 (en) * | 2000-12-06 | 2004-07-27 | Microsoft Corporation | Methods and systems for processing media content |
US6882891B2 (en) * | 2000-12-06 | 2005-04-19 | Microsoft Corporation | Methods and systems for mixing digital audio signals |
US7114161B2 (en) * | 2000-12-06 | 2006-09-26 | Microsoft Corporation | System and related methods for reducing memory requirements of a media processing system |
US6834390B2 (en) | 2000-12-06 | 2004-12-21 | Microsoft Corporation | System and related interfaces supporting the processing of media content |
US7287226B2 (en) * | 2000-12-06 | 2007-10-23 | Microsoft Corporation | Methods and systems for effecting video transitions represented by bitmaps |
US6774919B2 (en) | 2000-12-06 | 2004-08-10 | Microsoft Corporation | Interface and related methods for reducing source accesses in a development system |
US7447754B2 (en) | 2000-12-06 | 2008-11-04 | Microsoft Corporation | Methods and systems for processing multi-media editing projects |
US7114162B2 (en) | 2000-12-06 | 2006-09-26 | Microsoft Corporation | System and methods for generating and managing filter strings in a filter graph |
US7103677B2 (en) | 2000-12-06 | 2006-09-05 | Microsoft Corporation | Methods and systems for efficiently processing compressed and uncompressed media content |
US6983466B2 (en) * | 2000-12-06 | 2006-01-03 | Microsoft Corporation | Multimedia project processing systems and multimedia project processing matrix systems |
US6959438B2 (en) | 2000-12-06 | 2005-10-25 | Microsoft Corporation | Interface and related methods for dynamically generating a filter graph in a development system |
US20020106191A1 (en) * | 2001-01-05 | 2002-08-08 | Vm Labs, Inc. | Systems and methods for creating a video montage from titles on a digital video disk |
US7356250B2 (en) * | 2001-01-05 | 2008-04-08 | Genesis Microchip Inc. | Systems and methods for creating a single video frame with one or more interest points |
JP2002222101A (ja) * | 2001-01-29 | 2002-08-09 | Pioneer Electronic Corp | 情報記録再生装置 |
US6897880B2 (en) * | 2001-02-22 | 2005-05-24 | Sony Corporation | User interface for generating parameter values in media presentations based on selected presentation instances |
US20070089151A1 (en) * | 2001-06-27 | 2007-04-19 | Mci, Llc. | Method and system for delivery of digital media experience via common instant communication clients |
JP3600555B2 (ja) * | 2001-06-27 | 2004-12-15 | 株式会社東芝 | 動画像編集装置及び動画像編集方法 |
US8990214B2 (en) * | 2001-06-27 | 2015-03-24 | Verizon Patent And Licensing Inc. | Method and system for providing distributed editing and storage of digital media over a network |
US8972862B2 (en) | 2001-06-27 | 2015-03-03 | Verizon Patent And Licensing Inc. | Method and system for providing remote digital media ingest with centralized editorial control |
US20060236221A1 (en) * | 2001-06-27 | 2006-10-19 | Mci, Llc. | Method and system for providing digital media management using templates and profiles |
US7970260B2 (en) * | 2001-06-27 | 2011-06-28 | Verizon Business Global Llc | Digital media asset management system and method for supporting multiple users |
JP4593842B2 (ja) * | 2001-08-03 | 2010-12-08 | キヤノン株式会社 | 動画像検索装置及びその制御方法 |
US7398004B1 (en) | 2001-10-16 | 2008-07-08 | Sonic Solutions | Software methods for authoring multimedia content to be written to optical media |
KR20040073511A (ko) * | 2001-12-25 | 2004-08-19 | 마츠시타 덴끼 산교 가부시키가이샤 | 컨텐츠 재생 장치, 재생 방법 및 컴퓨터 판독 가능 프로그램 |
WO2003063060A2 (en) * | 2002-01-24 | 2003-07-31 | Broadcom Corporation | Asymmetric digital subscriber line modem apparatus and methods therefor |
AU2003237186A1 (en) * | 2002-05-06 | 2003-11-17 | Mattel, Inc. | Audio-visual content editing peripheral and system |
WO2003096682A1 (en) * | 2002-05-09 | 2003-11-20 | Parkervision, Inc. | Video production system for automating the execution of a video show |
US7603341B2 (en) | 2002-11-05 | 2009-10-13 | Claria Corporation | Updating the content of a presentation vehicle in a computer network |
JP4379681B2 (ja) * | 2003-04-04 | 2009-12-09 | ソニー株式会社 | 携帯型情報処理装置、情報送信制御方法及び情報通信システム |
US20060098941A1 (en) * | 2003-04-04 | 2006-05-11 | Sony Corporation 7-35 Kitashinagawa | Video editor and editing method, recording medium, and program |
JP2005004866A (ja) * | 2003-06-11 | 2005-01-06 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2005012256A (ja) * | 2003-06-16 | 2005-01-13 | Canon Inc | データ処理装置 |
JP4096310B2 (ja) * | 2003-06-18 | 2008-06-04 | ソニー株式会社 | 情報作成装置および方法、再生装置および方法、並びにプログラム |
JP4313639B2 (ja) * | 2003-09-29 | 2009-08-12 | パイオニア株式会社 | 信号処理装置 |
US7725828B1 (en) * | 2003-10-15 | 2010-05-25 | Apple Inc. | Application of speed effects to a video presentation |
KR100561417B1 (ko) * | 2004-02-09 | 2006-03-16 | 삼성전자주식회사 | Av 데이터의 재생상태를 전환할 수 있는 인터랙티브그래픽 스트림을 기록한 정보저장매체, 그 재생방법 및 장치 |
EP1569371A3 (de) * | 2004-02-27 | 2012-10-10 | Yamaha Corporation | Vorrichtung zum Editieren von Szenendaten für einen digitalen Mischer |
US7308476B2 (en) * | 2004-05-11 | 2007-12-11 | International Business Machines Corporation | Method and system for participant automatic re-invite and updating during conferencing |
KR101058007B1 (ko) * | 2004-05-18 | 2011-08-19 | 삼성전자주식회사 | 기록 매체에 저장된 데이터를 삭제하는 방법 및 삭제된데이터를 복원하는 방법 |
US8296366B2 (en) * | 2004-05-27 | 2012-10-23 | Microsoft Corporation | Efficient routing of real-time multimedia information |
US8255413B2 (en) | 2004-08-19 | 2012-08-28 | Carhamm Ltd., Llc | Method and apparatus for responding to request for information-personalization |
US8078602B2 (en) | 2004-12-17 | 2011-12-13 | Claria Innovations, Llc | Search engine for a computer network |
JP4085392B2 (ja) * | 2004-09-02 | 2008-05-14 | ソニー株式会社 | 記録再生装置及びその方法並びにプログラム |
US7613383B2 (en) * | 2004-12-02 | 2009-11-03 | Hitachi, Ltd. | Editing method and recording and reproducing device |
US7693863B2 (en) | 2004-12-20 | 2010-04-06 | Claria Corporation | Method and device for publishing cross-network user behavioral data |
US8073866B2 (en) | 2005-03-17 | 2011-12-06 | Claria Innovations, Llc | Method for providing content to an internet user based on the user's demonstrated content preferences |
US7434155B2 (en) * | 2005-04-04 | 2008-10-07 | Leitch Technology, Inc. | Icon bar display for video editing system |
JP4396567B2 (ja) * | 2005-04-15 | 2010-01-13 | ソニー株式会社 | 素材記録装置および素材記録方法 |
JP2006303595A (ja) * | 2005-04-15 | 2006-11-02 | Sony Corp | 素材記録装置および素材記録方法 |
JP4442500B2 (ja) * | 2005-04-15 | 2010-03-31 | ソニー株式会社 | 素材記録装置および素材記録方法 |
JP4442499B2 (ja) * | 2005-04-15 | 2010-03-31 | ソニー株式会社 | 素材記録装置および素材記録方法 |
US20070107012A1 (en) * | 2005-09-07 | 2007-05-10 | Verizon Business Network Services Inc. | Method and apparatus for providing on-demand resource allocation |
US9076311B2 (en) * | 2005-09-07 | 2015-07-07 | Verizon Patent And Licensing Inc. | Method and apparatus for providing remote workflow management |
US9401080B2 (en) | 2005-09-07 | 2016-07-26 | Verizon Patent And Licensing Inc. | Method and apparatus for synchronizing video frames |
US8631226B2 (en) | 2005-09-07 | 2014-01-14 | Verizon Patent And Licensing Inc. | Method and system for video monitoring |
EP1949376A1 (de) | 2005-11-07 | 2008-07-30 | Koninklijke Philips Electronics N.V. | Verfahren und vorrichtung zur bearbeitung eines programms auf einer optischen platte |
US8024376B2 (en) * | 2006-03-10 | 2011-09-20 | Pioneer Corporation | Information processing apparatus, information processing method, and information processing program |
JP5458321B2 (ja) | 2006-04-24 | 2014-04-02 | ヴィジブル ワールド インコーポレイテッド | マイクロトレンドを使用してメディアコンテンツを生成するシステム及び方法 |
CN102436833B (zh) * | 2006-04-28 | 2016-01-20 | 松下电器产业株式会社 | 内容再现装置 |
JP5156646B2 (ja) * | 2006-05-29 | 2013-03-06 | ジーブイビービー ホールディングス エス.エイ.アール.エル. | 動画編集システムおよび動画編集方法 |
JP2009044436A (ja) * | 2007-08-08 | 2009-02-26 | Toshiba Corp | 映像処理装置及び映像処理システム |
JP4466724B2 (ja) * | 2007-11-22 | 2010-05-26 | ソニー株式会社 | 単位映像表現装置、編集卓装置 |
JP2009163643A (ja) * | 2008-01-09 | 2009-07-23 | Sony Corp | 映像検索装置、編集装置、映像検索方法およびプログラム |
JP4697289B2 (ja) | 2008-11-05 | 2011-06-08 | ソニー株式会社 | 撮像装置、撮像装置の表示制御方法 |
USD606560S1 (en) * | 2008-12-12 | 2009-12-22 | Microsoft Corporation | Icon for a portion of a display screen |
US8701007B2 (en) * | 2009-04-30 | 2014-04-15 | Apple Inc. | Edit visualizer for modifying and evaluating uncommitted media content |
US8555169B2 (en) * | 2009-04-30 | 2013-10-08 | Apple Inc. | Media clip auditioning used to evaluate uncommitted media content |
US8881013B2 (en) * | 2009-04-30 | 2014-11-04 | Apple Inc. | Tool for tracking versions of media sections in a composite presentation |
US8769421B2 (en) * | 2009-04-30 | 2014-07-01 | Apple Inc. | Graphical user interface for a media-editing application with a segmented timeline |
US8549404B2 (en) | 2009-04-30 | 2013-10-01 | Apple Inc. | Auditioning tools for a media editing application |
US9564173B2 (en) | 2009-04-30 | 2017-02-07 | Apple Inc. | Media editing application for auditioning different types of media clips |
US8522144B2 (en) * | 2009-04-30 | 2013-08-27 | Apple Inc. | Media editing application with candidate clip management |
US20110113361A1 (en) * | 2009-11-06 | 2011-05-12 | Apple Inc. | Adjustment presets for digital images |
CN101909161B (zh) * | 2009-12-17 | 2013-12-25 | 新奥特(北京)视频技术有限公司 | 一种视频剪辑方法及装置 |
US8910046B2 (en) | 2010-07-15 | 2014-12-09 | Apple Inc. | Media-editing application with anchored timeline |
US8875025B2 (en) | 2010-07-15 | 2014-10-28 | Apple Inc. | Media-editing application with media clips grouping capabilities |
JP5833822B2 (ja) * | 2010-11-25 | 2015-12-16 | パナソニックIpマネジメント株式会社 | 電子機器 |
US8886015B2 (en) | 2011-01-28 | 2014-11-11 | Apple Inc. | Efficient media import |
US8745499B2 (en) | 2011-01-28 | 2014-06-03 | Apple Inc. | Timeline search and index |
US8621355B2 (en) | 2011-02-02 | 2013-12-31 | Apple Inc. | Automatic synchronization of media clips |
US11747972B2 (en) | 2011-02-16 | 2023-09-05 | Apple Inc. | Media-editing application with novel editing tools |
US9997196B2 (en) | 2011-02-16 | 2018-06-12 | Apple Inc. | Retiming media presentations |
US8966367B2 (en) | 2011-02-16 | 2015-02-24 | Apple Inc. | Anchor override for a media-editing application with an anchored timeline |
US9536564B2 (en) | 2011-09-20 | 2017-01-03 | Apple Inc. | Role-facilitated editing operations |
US9437247B2 (en) | 2011-11-14 | 2016-09-06 | Apple Inc. | Preview display for multi-camera media clips |
USD684187S1 (en) * | 2011-12-02 | 2013-06-11 | Microsoft Corporation | Display screen with icon |
JP5915158B2 (ja) * | 2011-12-22 | 2016-05-11 | ソニー株式会社 | タイムコード表示装置及びタイムコード表示方法 |
US20150309998A1 (en) * | 2012-01-12 | 2015-10-29 | Thomson Licensing | Method and apparatus for playing a mp4 file container while generating such a file |
CN103313122B (zh) * | 2012-03-09 | 2018-02-27 | 联想(北京)有限公司 | 一种数据处理方法及电子设备 |
US8994777B2 (en) * | 2012-03-26 | 2015-03-31 | Salesforce.Com, Inc. | Method and system for web conference recording |
US9106961B2 (en) * | 2012-05-11 | 2015-08-11 | Cisco Technology, Inc. | Method, system, and apparatus for marking point of interest video clips and generating composite point of interest video in a network environment |
US9014544B2 (en) | 2012-12-19 | 2015-04-21 | Apple Inc. | User interface for retiming in a media authoring tool |
CN104347096A (zh) * | 2013-08-09 | 2015-02-11 | 上海证大喜马拉雅网络科技有限公司 | 集音频裁剪、续录及合并于一体的录音系统和方法 |
USD737320S1 (en) * | 2013-10-03 | 2015-08-25 | La Crosse Technology, Ltd. | Display screen with icon |
USD741368S1 (en) * | 2013-10-17 | 2015-10-20 | Microsoft Corporation | Display screen with transitional graphical user interface |
US10471348B2 (en) | 2015-07-24 | 2019-11-12 | Activision Publishing, Inc. | System and method for creating and sharing customized video game weapon configurations in multiplayer video games via one or more social networks |
USD781914S1 (en) * | 2015-11-18 | 2017-03-21 | Domo, Inc. | Display screen or portion thereof with a graphical user interface |
USD921034S1 (en) * | 2019-04-03 | 2021-06-01 | Vyaire Medical, Inc. | Display screen with a graphical user interface |
USD1041506S1 (en) * | 2022-01-20 | 2024-09-10 | Clo Virtual Fashion Inc. | Display panel with icon |
USD1041504S1 (en) * | 2022-01-20 | 2024-09-10 | Clo Virtual Fashion Inc. | Display panel with icon |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1217559A (en) * | 1982-12-22 | 1987-02-03 | Ronald C. Barker | Video composition method and apparatus |
US4717971A (en) * | 1984-08-24 | 1988-01-05 | Eastman Kodak Company | Partitioned editing method for a collection of video still pictures |
JP2643188B2 (ja) * | 1987-10-05 | 1997-08-20 | 松下電器産業株式会社 | 情報編集装置 |
EP0268270B1 (de) * | 1986-11-20 | 1993-11-03 | Matsushita Electric Industrial Co., Ltd. | Informationsschnittgerät |
US5047867A (en) * | 1989-06-08 | 1991-09-10 | North American Philips Corporation | Interface for a TV-VCR system |
US5218672A (en) * | 1990-01-19 | 1993-06-08 | Sony Corporation Of America | Offline editing system with user interface for controlling edit list generation |
US5237648A (en) * | 1990-06-08 | 1993-08-17 | Apple Computer, Inc. | Apparatus and method for editing a video recording by selecting and displaying video clips |
JP3029318B2 (ja) * | 1991-05-22 | 2000-04-04 | 株式会社東芝 | 画像ワ−クステ−ション |
DE69222102T2 (de) * | 1991-08-02 | 1998-03-26 | Grass Valley Group | Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial |
US5396339A (en) * | 1991-12-06 | 1995-03-07 | Accom, Inc. | Real-time disk system |
WO1993021635A1 (en) * | 1992-04-10 | 1993-10-28 | Avid Technology, Inc. | Method for visually and audibly representing computer instructions for editing video |
JPH05342267A (ja) * | 1992-06-10 | 1993-12-24 | Nippon Denki Micom Technol Kk | ドキュメント処理系におけるグロッサリ・インデックス自動作成方式 |
US5404316A (en) * | 1992-08-03 | 1995-04-04 | Spectra Group Ltd., Inc. | Desktop digital video processing system |
EP0598516A3 (de) * | 1992-11-05 | 1996-07-03 | Sony Corp | Aufzeichnung und Wiedergabe von bewegten Bildern. |
GB2273220B (en) * | 1992-12-07 | 1997-01-08 | Quantel Ltd | A video processing system |
US5333091B2 (en) * | 1993-01-08 | 1996-12-17 | Arthur D Little Enterprises | Method and apparatus for controlling a videotape player to automatically scan past recorded commercial messages |
JPH06259887A (ja) * | 1993-03-09 | 1994-09-16 | Sony Corp | 記録再生装置 |
JPH06282965A (ja) * | 1993-03-26 | 1994-10-07 | Sony Corp | ビデオ編集装置 |
EP0625781B1 (de) * | 1993-04-13 | 2000-06-14 | Sony Corporation | Editiergerät |
US5339393A (en) * | 1993-04-15 | 1994-08-16 | Sony Electronics, Inc. | Graphical user interface for displaying available source material for editing |
US5440348A (en) * | 1993-04-16 | 1995-08-08 | Avid Technology, Inc. | Method and user interface for creating, specifying and adjusting motion picture transitions |
JP3595835B2 (ja) * | 1994-03-16 | 2004-12-02 | ソニー株式会社 | 映像データ編集装置及び映像データ編集方法 |
US5659793A (en) * | 1994-12-22 | 1997-08-19 | Bell Atlantic Video Services, Inc. | Authoring tools for multimedia application development and network delivery |
-
1996
- 1996-04-08 KR KR1019960706675A patent/KR970703595A/ko not_active Abandoned
- 1996-04-08 EP EP20020076161 patent/EP1248258A2/de not_active Withdrawn
- 1996-04-08 JP JP53087096A patent/JP3837746B2/ja not_active Expired - Fee Related
- 1996-04-08 CN CNB961903074A patent/CN1139934C/zh not_active Expired - Fee Related
- 1996-04-08 US US08/750,330 patent/US5930446A/en not_active Expired - Fee Related
- 1996-04-08 CN CNB200310124338XA patent/CN1312609C/zh not_active Expired - Fee Related
- 1996-04-08 DE DE69623712T patent/DE69623712T2/de not_active Expired - Fee Related
- 1996-04-08 WO PCT/JP1996/000963 patent/WO1996032722A1/ja active IP Right Grant
- 1996-04-08 EP EP96908375A patent/EP0764951B1/de not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
CN1312609C (zh) | 2007-04-25 |
EP0764951B1 (de) | 2002-09-18 |
CN1139934C (zh) | 2004-02-25 |
WO1996032722A1 (fr) | 1996-10-17 |
EP0764951A1 (de) | 1997-03-26 |
US5930446A (en) | 1999-07-27 |
JP3837746B2 (ja) | 2006-10-25 |
EP1248258A2 (de) | 2002-10-09 |
EP0764951A4 (de) | 2000-11-22 |
CN1534512A (zh) | 2004-10-06 |
KR970703595A (ko) | 1997-07-03 |
CN1149924A (zh) | 1997-05-14 |
DE69623712D1 (de) | 2002-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69623712T2 (de) | Schnittsystem | |
DE69327707T2 (de) | Videoverarbeitungssystem | |
DE69718844T2 (de) | Schnittsteuerungsgerät und Schnittsteuerung | |
DE69836790T2 (de) | Suchen von Videobildern, Produktion von Videoinformationen und Speichermedium zur Speicherung eines Verarbeitungsprogramms dafür | |
DE69424084T2 (de) | Verfahren und Vorrichtung zum Anzeigen von verfügbarem Editierquellenmaterial | |
JP4117616B2 (ja) | 編集システム、その制御方法及び編集装置 | |
US6674955B2 (en) | Editing device and editing method | |
DE69332178T2 (de) | Elektronischer Videospeicher | |
DE19946727A1 (de) | Vorrichtung und Verfahren zur Videoeditierung | |
DE69701566T2 (de) | Medieneditiersystem und verfahren mit verbesserter effektsteuerung | |
DE60129390T2 (de) | Informationsaufzeichnungs- und -wiedergabevorrichtung | |
DE69424896T2 (de) | Editiergerät | |
US20030091329A1 (en) | Editing system and editing method | |
DE19915008A1 (de) | Editiervorrichtung | |
JP4168334B2 (ja) | 編集装置及び編集方法 | |
DE69719696T2 (de) | Videoschnittverfahren, nicht-lineares Videoschnittgerät und Speichermedium für Videoschnittprogramm | |
DE69720221T2 (de) | Graphische benutzerschnittstelle für plan- und schnittsystem für sich bewegende videobilder für einen rechner | |
DE60222463T2 (de) | Aufzeichnungs/wiedergabegerät und aufzeichnungs/wiedergabeverfahren | |
JP4229199B2 (ja) | 編集装置及び編集方法 | |
JP4588126B2 (ja) | 編集システム及び編集方法 | |
JP2000149502A (ja) | 編集データ作成装置 | |
DE69912735T2 (de) | Datenaufzeichnungs-/-wiedergabegerät | |
JPH10290418A (ja) | 編集装置 | |
JP2007317352A (ja) | 編集装置及び編集方法 | |
JPH10290419A (ja) | 編集装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |