DE69015871T2 - Verfahren für die Montage einer Videoprogramm-Information. - Google Patents
Verfahren für die Montage einer Videoprogramm-Information.Info
- Publication number
- DE69015871T2 DE69015871T2 DE69015871T DE69015871T DE69015871T2 DE 69015871 T2 DE69015871 T2 DE 69015871T2 DE 69015871 T DE69015871 T DE 69015871T DE 69015871 T DE69015871 T DE 69015871T DE 69015871 T2 DE69015871 T2 DE 69015871T2
- Authority
- DE
- Germany
- Prior art keywords
- vtr
- editing
- edit
- time
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title description 11
- 230000001360 synchronised effect Effects 0.000 description 49
- 238000012545 processing Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001934 delay Effects 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000979 retarding effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/12—Arrangements for observation, testing or troubleshooting
- H04H20/14—Arrangements for observation, testing or troubleshooting for monitoring programmes
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/022—Electronic editing of analogue information signals, e.g. audio or video signals
- G11B27/028—Electronic editing of analogue information signals, e.g. audio or video signals with computer assistance
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
- Information Transfer Between Computers (AREA)
Description
- Die vorliegende Erfindung bezieht sich auf eine Vorrichtung zum Editieren einer Videoprogramminformation.
- Es sind Videoeditiersysteme zum Mischen von Segmenten einer Videoprogramminformation aus verschiedenen vorher aufgezeichneten Quellenmedien beispielsweise von verschiedenen Videobändern auf einem Endaufzeichnungsband bekannt, das manchmal als Editierband bezeichnet wird. Üblicherweise überwacht eine Bedienungsperson oder ein Editor das Videoprogramm, das von jedem Videoband reproduziert wird, wählt sogenannte Schnittanfangspunkte und Schnittendepunkte aus jedem Band aus und zeichnet dann wieder alle Segmente auf, die durch die Schnittanfangspunkte und die Schnittendepunkte auf dem Editierband bestimmt sind. Auf Videobändern sind üblicherweise Adreßdaten in Form von Zeitcodes aufgezeichnet, um diskrete Positionen zu erkennen, oder Videorahmen, die auf dem Band aufgezeichnet sind. Bei einer Rundfunknorm, beispielsweise der SMPTE-Norm, sind solche Zeitcode-Adreßdaten in Form von Stunden, Minuten, Sekunden und Rahmen gebildet, die alle sich auf einen Zeitcodegenerator beziehen oder davon hergeleitet werden (oder einem anderen Takt, beispielsweise einem Studiotakt). Folglich können die Segmente auf jedem Videoband durch die Zeitcodes identifiziert werden, die mit dem Beginn (oder Schnittanfangspunkt) oder Ende (oder Schnittendepunkt) dieser Segmente in Verbindung stehen.
- Wenn einmal der Editor die Schnittanfangspunkte und die Schnittendepunkte (auch hier als Editierpunkte bezeichnet) auf jedem Band einrichtet, wird das Editieren durch Zurückspielen dieser Quellenbänder durch entsprechende Videobandrecorder (VTRs) bewirkt, und, wenn der erste Schnittanfangspunkt erreicht ist, wird das Segment der Videoprogramminformation, das dadurch erkannt wird, zurückgespielt und auf dem Editierband aufgezeichnet, bis der Schnittendepunkt dieses Segments erreicht ist. Üblicherweise wird der Schnittanfangspunkt des nächsten Segments auf einem anderen Videoband synchron mit dem Schnittendepunkt des gerade wiedergegebenen Segments erreicht, womit mit dem Beginn der Aufzeichnung dieses nächsten Segments auf dem Editierband begonnen wird. Die obige Arbeitsweise wird von dem Schnittanfangspunkt zum Schnittendepunkt und von Band zu Band wiederholt, so daß als Folge davon die ausgewählten Segmente der Videoinformation nach und nach auf dem Editierband aufgezeichnet werden.
- Während der obige Editiervorgang brauchbar und schnell für relativ einfache Videoprogramme durchgeführt werden kann, treten gewisse Schwierigkeiten auf, wenn Kunsteffekte gewünscht werden. Beispielsweise können bei der Aufzeichnung einer von mehreren Folgeszenen mehrere Cameras verwendet werden, um die gleiche Szene gleichzeitig aus verschiedenen Winkeln auf verschiedenen Videobändern auf zuzeichnen. Wenn beispielsweise drei separate Cameras (natürlich auch drei separate Videorecorder) verwendet werden, um Videound Audiosignale auf zuzeichnen, die von einer bestimmten Szene aufgenommen werden, wird jedes Videoband die Video- und Audioinformation haben, die die darauf gezeichnete Szene darstellt. Da jede Camera unabhängig manuell betätigt wird, wenn ein Regisseur entscheidet, das Auf zeichnen dieser Szene zu beenden, ist es wahrscheinlich, daß jeder Cameramann das Aufzeichnen zu einem unterschiedlichen Zeitpunkt beenden wird. Obwohl eine gemeinsame Szene aus verschiedenen Winkeln aufgezeichnet wurde, wird daher die Länge des Videoprogramms, das auf jedem Band aufgezeichnet ist, voneinander abweichen. Als Zahlenbeispiel ausgedrückt und wenn man annimmt, daß jedes Videoband zu einem Referenzzeitpunkt beginnt (beispielsweise mit dem Zeitcode 00:00:00), kann das Ende dieser Szene auf dem ersten Band im Zeitcode 05:00:00 auftreten, während diese Szene weiter auf dem nächsten Band aufgezeichnet sein kann, bis der Zeitcode 05:03:00 erreicht ist, und das Ende dieser Szene kann auf dem dritten Band im Zeitcode 05:06:15 aufgezeichnet sein. Wenn dann die nächste Szene durch diese Cameras aufgezeichnet wird, wird der Beginn dieser nächsten Szene von den Zeitpunkten aus beginnen, in denen die vorhergehende Szene beendet wurde; hier können jedoch auch die Endpunkte dieser nächsten aufgezeichneten Szene von Band zu Band differieren. Weiter kann jeder Cameramann mit der Aufzeichnung dieser Szene von einem verschiedenen Zeitpunkt aus beginnen, so daß die Information, die auf dem einen Band aufgezeichnet wird, nicht auf dem anderen Band aufgezeichnet werden kann. Beispielsweise kann ein Cameramann den Beginn der Aufzeichnung um eine oder zwei Sekunden verzögern, wobei dann die Information in der ersten oder zweiten Sekunde dieser Szene fehlt.
- Wenn der obige Betrieb weitergeht, werden die Unterschiede in den Zeitcodes, in denen eine besondere Szene beginnt, von Band zu Band ansteigen. Nachdem beispielsweise mehrere Szenen aufgezeichnet wurden, kann eine besondere Szene im Zeitcode 50:30:00 auf dem einen Band beginnen, jedoch bei 63:15:00 auf dem anderen und bei 46:40:00 auf noch einem anderen. Wenn die Segmente dieser Szene editiert werden sollen, ist der Editiervorgang nicht so einfach wie oben erwähnt. Wenn man beispielsweise annimmt, daß sowohl Audio- als auch Videosignale auf den entsprechenden Bändern aufgezeichnet sind, wenn die gleiche Szene durch unterschiedliche Cameras aufgezeichnet wird, ist es wichtig, daß, wenn ein Segment von einem Band zu einem Segment von einem anderen hinzugefügt wird, sowohl die Video- als auch die Audiosignale von den beiden Bändern in Phase zueinander sind (oder synchron zueinander sind). Wenn eine derartige Phasensynchronisation nicht beibehalten wird, sind bemerkenswerte Unregelmäßigkeiten, insbesondere bei Audiosignalen, nachweisbar. Dies ist nicht nur störend, sondern dies ist auch bei editierten Programmen einer besseren Qualität nicht annehmbar. Wenn folglich eine Videoprogramminformation editiert wird, die auf getrennten Bändern aufgezeichnet ist, die jedoch die gleiche Szene darstellt, müssen alle Bänder auf einen gleichen Zeitpunkt in der Szene eingestellt werden, bevor deren Segmente auf dem Editierband gemischt werden können. Folglich verläßt sich eine derartige Ausrichtung auf die Geschicklichkeit des Editors, der die Bänder auf die gemeinsame Szene positionieren soll, wenn mit der Editiervorgang begonnen werden soll.
- Eine andere Schwierigkeit beim Editieren besteht dann, wenn spezielle Effekte auf die Videosignale übertragen werden sollen, die von einem oder mehreren Videobändern reproduziert werden. Bei der Grundeditiervorgang werden der Schnittanfangspunkt und der Schnittendepunkt auf einem Quellenband wie auch auf dem Editierband ausgewählt. Man erwartet, daß der Schnittanfangspunkt des Quellen- und Editierbandes gleichzeitig erreicht werden, worauf die Videoprogramminformation, die vom Quellenband wiedergegeben wird, auf das Editierband aufgezeichnet wird. Bei diesem Betrieb wird angenommen, daß es im wesentlichen keine bemerkenswerten Zeitverzögerungen zwischen der Wiedergabe der Videoprogramminformation von dem Quellenband und der Aufzeichnung dieser Information auf dem Editierband gibt.
- Wenn jedoch eine Bildverarbeitung verwendet wird, um spezielle Effekte zu erzeugen, kann eine Zeitverzögerung durch die Bildverarbeitungsvorrichtung zu den reproduzierten Videosignalen übertragen werden. Da folglich das Quellen- und Editierband synchron zu und über ihre Schnittanfangspunkte angetrieben werden, wird ein leerer Bereich auf dem Editierband verbleiben, der dem Schnittanfangspunkt folgt, bis das verzögerte, verarbeitete Videosignal das Editierband zum Aufzeichnen schließlich erreicht. Dieses leere Intervall entspricht der Zeitverzögerung, die der Bildverarbeitungsvorrichtung zuzuschreiben ist, und zwar abhängig von den speziellen Effekten, die gewünscht werden, kann es variabel und unberechenbar sein.
- Um zu verhindern, daß das oben erwähnte nicht gewünschte freie Intervall während einem Editiervorgang aufgezeichnet wird, kann ein äußerst geschickter Editor die Bewegung des Editierbandes verzögern, um die Zeitverzögerung zu kompensieren, die zum verarbeiteten Videosignal hinzugefügt wird. Wenn jedoch Segmente der Videoprogramminformation aus verschiedenen Bändern auf dem Editierband gemischt werden, ist eine gleichphasige, synchrone Bewegung aller Bänder erforderlich, wodurch vermieden wird, daß der Editor die Bewegung des Editierbandes verzögern muß. Folglich kann das nicht gewünschte freie Intervall nicht leicht vermieden werden.
- Ein noch anderer Nachteil, der mit der Editiervorrichtung verbunden ist, tritt auf, wenn ein oder mehrere Quellenbänder mehrere darauf aufgezeichnete Szenen haben. Üblicherweise mischt der Editor Segmente der Videoprogramminformation aus einer besonderen Szene, wobei er eine Szenen- Szenen-Editierung durchführt. Wenn der Editor wünscht, Korrekturen oder Berichtigungen auf einem Editierband durchzuführen, beispielsweise, wenn ein zusätzliches Segment dazugemischt werden soll, oder wenn die Reihenfolge der gemischten Segmente geändert werden soll, oder wenn ein besonderes Segment durch ein mit speziellen Effekten verarbeitetes Signal ersetzt werden soll, können derartige Korrekturen oder Berichtigungen andere Szenen auf dem Editierband beeinträchtigen, die nicht geändert sind, da sie trotzdem eine arbeitsaufwendige Korrektur erfordern, damit sie mit der wiedereditierten Szene kompatibel sind.
- Erfindungsgemäß ist eine Vorrichtung zum Editieren einer Videoprogramminformation von mehreren bespielten Ursprungsmedien auf ein Editiermedium vorgesehen, wobei jedes Ursprungsmedium eine Videoprogramminformation einer gemeinsamen Szene enthält, die auf diesem Medium an einer Stelle, relativ zu ihrer Anfangsstelle aufgezeichnet sein kann, die sich von der Aufzeichnungsstelle dieser gleichen gemeinsamen Szene auf einem anderen Ursprungsmedium unterscheidet, und jedes Ursprungsmedium Adreßdaten aufweist, die einzelne Positionen darauf darstellen, wobei die Vorrichtung umfaßt:
- eine Wiedergabeeinrichtung zur Wiedergabe der Programminformation der gemeinsamen Szene gleichzeitig aus diesen Ursprungsmedien; und
- eine Überwachungseinrichtung zum Überwachen der wiedergegebenen Programminformation;
- gekennzeichnet durch:
- eine Anzeigeeinrichtung zum Anzeigen, wenn eine Stelle einer Szene in der gemeinsamen Szene im wesentlichen simultan aus diesen Ursprungsmedien wiedergegeben wird;
- eine Speichereinrichtung zum Speichern der Adreßdaten aus jedem Ursprungsmedium als synchronisierte Adreßdaten, wobei die Adreßdaten die augenblickliche Position darstellen, bei der die Stelle der Szene auf diesem Ursprungsmedium aufgezeichnet ist;
- eine Auswahleinrichtung zur Auswahl von Editierstellen auf bestimmten Medien der Ursprungsmedien;
- eine Referenzeinrichtung, um die ausgewählten Editierstellen gegenüber den synchronisierten Adreßdaten in Beziehung zu setzen; und
- eine Steuereinrichtung zum Steuern der Wiedergabeeinrichtung, um ausgewählte Segmente der Videoprogramminformation aus entsprechenden Ursprungsmedien zum Aufzeichnen auf dem Editiermedium gemäß den bezogenen Editierstellen wiederzugeben.
- Bei einer Ausführungsform der vorliegenden Erfindung wird die Programminformation aus einer Vielzahl von vorherbespielten Quellenmedien auf ein Editieraufzeichungsmedium editiert, bei welchem jedes Quellenmedium eine Videoprogramminformation einer gemeinsamen Szene aufweist, die in einem Zeitpunkt gegenüber dem Anfangszeitpunkt dieses Quellenmediums aufgezeichnet werden kann, der sich vom Zeitpunkt gegenüber dem Anfangszeitpunkt eines anderen Quellenmediums unterscheidet, auf welchem dieselbe gemeinsame Szene aufgezeichnet wird. Jedes Quellenmedium weist Adreßdaten auf, die die diskreten Positionen darauf darstellen, und, wenn die Programminformation der gemeinsamen Szene gleichzeitig aus diesen Quellenmedien wiedergegeben wird, werden die Adreßdaten, die zu den entsprechenden Medien gehören, ebenfalls wiedergegeben. Die reproduzierte Programminformation wird überwacht, und wenn eine Szene in der gemeinsamen Szene im wesentlichen simultan aus diesen Quellenmedien wiedergegeben wird, werden die Adreßdaten aus jedem Quellenmedium, die die augenblickliche Position darstellen, an der die Szene auf diesem Nedium aufgezeichnet ist, als synchronisierte Adreßdaten gespeichert. Die Editierstellen auf bestimmten Medien der Quellenmedien werden ausgewählt; und die ausgewählten Editierstellen werden auf die synchronisierten Adreßdaten bezogen. Die Wiedergabe der ausgewählten Segmente der Videoprogramminformation aus den entsprechenden Quellenmedien zum Aufzeichnen auf das editierte Aufzeichnungsmedium wird in Abhängigkeit von den in Bezug genommenen Editierstellen gesteuert.
- Die Adreßdaten auf einem vorgegebenen Quellenmedium können als Referenzeditieradreßdaten verwendet werden, um die Positionen zu identifizieren, die durch dieses Quellenmedium für jede Editierstelle erreicht werden, ohne Rücksicht darauf, ob die Editierstelle eine Stelle auf diesem Medium oder eine auf den anderen Medien identifizierte. Die in Bezug genommene Editieradresse jeder Editierstelle wird mit der Differenz zwischen den synchronisierten Adreßdaten dieses Quellenmediums und den synchronisierten Adreßdaten eines anderen Quellenmediums aktualisiert, um eine Steueradresse zu erzeugen, die die Editierstelle auf dem anderen Quellenmedium identifiziert. Die Positionierung des anderen Quellenmediums, um eine ausgewählte Editierstelle darauf zu erreichen, wird durch die Steueradresse gesteuert, wodurch alle Quellenmedien phasensynchronisiert miteinander zu den entsprechenden Editierstellen nach vorne verschoben werden.
- Um zu bestimmen, wenn eine Stelle einer Szene im wesentlichen gleichzeitig aus den Quellenmedien wiedergegeben wird, kann eine Bedienungsperson, beispielsweise ein Editor, beobachten, wenn die Videobilder, die aus den einzelnen Quellenmedien reproduziert werden, ungefähr den gleichen Zeitpunkt einer Szene repräsentieren. Üblicherweise wird eine Videoprogramminformation von allen Quellenmedien gleichzeitig wiedergegeben, und eine Bedienungsperson oder ein Editor beobachtet die so wiedergegebenen Videobilder. Bei einer Ausführungsform, wo die Quellenmedien Videobänder umfassen, die durch VTRs bespielt sind, können individuelle VTRs einzeln so vorlaufen oder verzögert werden, so daß ungefähr die gleiche Lage in der Szene beobachtet werden kann. Der Editor kann dann auf die Audiosignale hören, die von den individuellen Videobändern wiedergegeben werden; ein anderer Einstellbetrieb wird durchgeführt, bis die Audiosignale, die von den individuellen Videobändern wiedergegeben werden, als synchron ermittelt werden. Es wird dann ein Synchronisationssignal erzeugt, um die synchronisierten Adreßdaten jedes Quellenmediums in dem Zeitpunkt zu identifizieren, wenn ein derartiger Video- und Audiosynchronigmus beobachtet wird.
- Die Videosignale, die aus einem Quellenmedium wiedergegeben werden, können bildverarbeitet sein, um spezielle Effekte vor ihrem Aufzeichnen auf dem Editieraufzeichnungsmedium zu erzeugen. Es wird die Zeitverzögerung, die einer solchen Bildverarbeitung beigemessen wird, bestimmt, und es wird die Phasenbeziehung zwischen dem Quellenmedium und dem Editieraufzeichnungsmedium eingestellt, um eine solche Zeitverzögerung zu kompensieren, wodurch ein Segment der bildverarbeiteten Videoprogramminformation an einem Aufzeichnungseditierpunkt aufgezeichnet wird, der im wesentlichen mit dem Wiedergabeeditierpunkt zusammenfällt, aus welchem dieses Segment wiedergegeben wird.
- So kann ein freies Intervall auf dem Editierauf zeichnungsmedium, das sonst wegen der Bildverarbeitungszeitverzögerung vorhanden sein würde, vermieden werden. Jeder Wiedergabeeditierpunkt auf dem Quellenmedium identifiziert individuelle Segmente, die wiederzugeben sind. Diese Wiedergabeeditierpunkte werden zusammen mit einem Zeittakt gespeichert, wobei dieser eine Zeitinformation darstellt, die durch einen Referenztakt erzeugt wird an den Zeitpunkten, wo die Editierstellen erreicht werden. Auf ähnliche Weise werden die Aufzeichnungseditierpunkte, die die Stellen auf dem Editieraufzeichnungsmedium identifizieren, bei denen die individuellen Segmente auf zuzeichnen sind, zusammen mit den Zeittakten gespeichert, die jedem Aufzeichnungseditierpunkt entsprechen. Während dem tatsächlichen Editieren werden das Aufzeichnungsmedium und das Editieraufzeichnungsmedium synchron mit den Taktzeitsignalen weiterbewegt, die durch einen Taktgenerator erzeugt werden. Wenn ein erzeugtes Zeittaktsignal gleich einem gespeicherten Zeittaktsignal ist, wird das Segment auf dem Quellenmedium, das durch den Wiedergabeeditierpunkt identifiziert wird, der zu diesem Zeittakt gehört, wiedergegeben und auf dem editierten Aufzeichnungsmedium am Aufzeichnungseditierpunkt aufgezeichnet, der zu diesem Zeittakt gehört. Um die oben erwähnte Bildverarbeitungszeitverzögerung zu kompensieren, wird der zu einem Wiedergabeeditierpunkt gehörende Zeittakt um einen Betrag reduziert, der im wesentlichen gleich der Bildarbeitungszeitverzögerung ist. Wenn folglich der erzeugte Zeittakt gleich dem reduzierten Zeittakt ist, wird das Segment vom Wiedergabeeditierpunkt reproduziert, bildmäßig verarbeitet und auf dem editierten Aufzeichnungsmedium aufgezeichnet.
- Die Ausgangssignale von den Quellenmedien wie auch ein Ausgangssignal vom Spezialeffekt-Bildprozessor können mit dem editierten Aufzeichnungsmedium über eine Schaltmatrix gekoppelt werden. Wenn man annimmt, daß auf jedem Quellenmedium mehrere Szenen aufgezeichnet sind, wird eine Editierauf zeichnung gespeichert, die aus mehreren Szenentabellen besteht, wobei jede Szene Wiedergabeeditierpunkte aufweist, die individuelle Segmente der Videoprogramminformation identifizieren, die aus den Quellenmedien wiedergegeben werden sollen, Quellenmediumsidentifikationsdaten, die jedes Quellenmedium identifizieren, aus welchem ein identifiziertes Segment wiederzugeben ist, und die Schaltidentifikationsdaten, die die Folge identifizieren, in der die Schaltmatrix die jeweiligen Quellenmedien mit dem editierten Aufzeichnungsmedium verbindet. Die Editiervorgang wird durch Wiedergewinnung einer gewünschten Szene erzielt und dann durch Steuern der Quellenmedien und des editierten Aufzeichnungsmediums gemäß den Daten, die in dieser Szenentabelle enthalten sind. Daten in einer Szenentabelle, beispielsweise ein oder mehrere Wiedergabeeditierpunkte, Quellenmediumsidentifikationsdaten oder Schaltidentifikationsdaten können überprüft werden, um die Videoprogramminformation zu ändern, die editiert ist. In vorteilhafter Weise können Überprüfungen einer Szenentabelle durchgeführt werden, ohne die anderen Szenentabellen zu beeinträchtigen, wodurch ein Editieren schnell durchgeführt werden kann.
- Die Erfindung wird nun durch ein Ausführungsbeispiel unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben, wobei gleiche Teile durchwegs mit den gleichen Bezugszeichen versehen sind, und in denen:
- Fig. 1 eine schematische Darstellung einer Szene ist, die asynchron auf mehreren Quellenmedien durch einzelne Videocameras aufzeichnet ist;
- Fig. 2 eine schematische Darstellung der auf den Quellenmedien durch die in Fig. 1 gezeigten Cameras aufgezeichneten Videoprogramminformation ist;
- Fig. 3 eine Tabelle von Adreßdaten zeigt, die die Zeitpunkte von individuellen Szenen darstellt, die auf den Quellenmedien durch die Cameras von Fig. 1 aufgezeichnet sind;
- Fig. 4 ein Blockdiagramm einer Ausführungsform einer Editiervorrichtung gemäß der vorliegenden Erfindung ist;
- Fig. 5 ein Blockdiagramm einer VTR-Steuerschaltung ist, die Fig. 4 gezeigt ist;
- Fig. 6 eine schematische Darstellung von phasensynchronisierten oder ausgerichteten Quellenmedien ist, auf denen asynchron eine Videoprogramminformation aufgezeichnet sind;
- Fig. 7A und 7B schematische Darstellungen eines Editierbetriebs sind, der auf den phasensynchronisierten in Fig. 6 gezeigten Quellenmedien ausgeführt wird;
- Fig. 8 eine Szenentabelle zeigt, die dazu verwendet wird, einen Editierbetrieb zu steuern;
- Fig. 9 ein Blockdiagramm einer in Fig. 4 gezeigten Zeitkompensationsvorrichtung ist;
- Fig. 10 und 11 eine Wiedergabe- bzw. Aufzeichnungszeittabelle zeigen, die durch die Zeitkompensationsvorrichtung von Fig. 9 verwendet wird, um einen Editierbetrieb zu steuern;
- Fig. 12A bis 12C schematische Darstellungen der Effekte sind, die durch die Zeitkompensationsvorrichtung von Fig. 9 erzielt werden; und
- Fig. 13 eine schematische Darstellung einer Editiersteuerschalttafel ist.
- Betrachtet man nun die Zeichnungen, insbesondere Fig. 1, so ist dort ein schematischer Aufbau von drei separaten Videocameras C1, C2 und C3 vorgesehen, die dazu verwendet werden, um eine gemeinsame Szene aus drei verschiedenen Winkeln oder Ansichten aufzuzeichnen, beispielsweise eine Aufführung auf einer Bühne S. Jede Camera hat ein Mikrophon Ml, M2 und M3; jede Camera ist mit einem Videorecorder, beispielsweise einem Videobandrecorder VTR 1, VTR 2 und VTR 3 verbunden. Bei der gezeigten Ausführungsform besteht keine Zwischenverbindung zwischen den Cameras oder zwischen den VTRs. Somit kann man sich jede Camera und VTR-Kombination so vorstellen, daß diese unabhängig voneinander arbeiten. Demnach wird die Videoinformation auf den jeweiligen VTRs asynchron aufgezeichnet.
- Wenn die Fig. 1 gezeigte Anordnung dazu verwendet wird, eine Musikaufführung auf zuzeichnen, die beispielsweise mehrere Akte oder Szenen hat, wird eine spezielle Szene auf der Bühne S, die gerade durch die VTRs aufgezeichnet wird, üblicherweise als "Schnitt" bezeichnet. Die Cameras C1 bis C3 werden normalerweise durch Cameramänner unter der Aufsicht eines Regisseurs betätigt. Das Positionieren der Cameras wie auch die verschiedenen Effekte, beispielsweise das Einblenden, das Ausblenden usw. stehen unter der Regie des Regisseurs. Da jede Camera individuell gesteuert wird, ist es klar, daß der genaue Zeitpunkt, in welchem ein Cameramann die Aufzeichnung einer Szene beendet, von Camera zu Camera unterschiedlich sein kann, und somit auch von Band zu Band. Nichtsdestotrotz werden aufeinanderfolgende Szenen (manchmal als "Ereignisse" bezeichnet) oder Schnitte nach und nach auf jedem Band aufgezeichnet. Eine schematische Darstellung der Folge von drei Schnitten, beispielsweise des Schnitts A, des Schnitts B und des Schnitts C, wie sie durch die Camera C1, C2 und C3 auf dem VTR 1, dem VTR 2 und dem VTR 3 aufgezeichnet werden, ist in Fig. 2A, 2B und 2C gezeigt. Es sei angenommen, daß der Anfang von Schnitt A, der auf jedem VTR aufgezeichnet ist, ungefähr in der gleichen Position auf jedem Band liegt. Man sieht jedoch, daß der Schnitt A auf dem VTR 1 endet, bevor der Schnitt A auf dem VTR 3 endet, der wiederum vor dem Ende des Schnitts A auf dem VTR 2 endet. Somit beginnt der Schnitt B auf dem VTR 1 vor dem Anfang des Schnitts B auf dem VTR 3, der wiederum vor dem Anfang des Schnitts 13 auf dem VTR 2 beginnt. Insbesondere ist daher der Zeitpunkt des Anfangs des Schnitts B auf den entsprechenden Bändern derjenige, der außer Phase ist.
- Fig. 2 zeigt weiter, daß der Schnitt B auf dem VTR 3 vor dem Ende des Schnitts B auf dem VTR 1 endet, der wiederum vor dem Ende des Schnitts B auf dem VTR 2 endet. Somit und in bezug auf die Bandlänge in jedem VTR beginnt der Schnitt C auf dem VTR 3 vor dem Anfang des Schnitts C auf dem VTR 1, der wiederum vor dem Anfang des Schnitts C auf dem VTR 2 beginnt.
- Die in Fig. 2 gezeigten Kreise sollen einen besonderen Zeitpunkt, beispielsweise im Schnitt 13, andeuten, so wie alle VTRs bespielt sind. Dieser besondere Zeitpunkt ist der gleiche Szenenpunkt, der auf dem VTR 1, dem VTR 2 und dem VTR 3 durch die Cameras C1, C2 und C3 aus den entsprechenden beispielsweise in Fig. 1 gezeigten Winkeln aufgezeichnet ist. Fig. 2A bis 2C zeigen den ungleichphasigen, asynchronen Verlauf dieses gemeinsamen Punktes, so wie er durch die drei VTRs aufgezeichnet ist.
- Fig. 3 zeigt eine Tabelle, die die Lage des Anfangs von jedem Schnitt A, B und C zeigt, wie er auf dem VTR 1, dem VTR 2 und dem VTR 3 jeweils aufgezeichnet ist. Es ist üblich, Adreßdaten in Form von Zeitcodes in einer geeigneten Längsspur auf einem Videoband auf zuzeichnen, wenn darauf eine Videoinformation aufgezeichnet wird. Solche Zeitcodedaten identifizieren diskrete Positionen auf dem Band, und als Beispiel dafür kann die SMPTE-Zeitcodeübereinkunft verwendet werden, um den Zeitcode in Stunden, Minuten, Sekunden und Videorahmen aufzuzeichnen. Der Einfachheit halber zeigt die in Fig. 3 gezeigte Tabelle lediglich den Zeitcode in Minuten und Sekunden. Die in der Tabelle von Fig. 3 gezeigten Zeitcodes zeigen die entsprechenden Anfänge der Schnitte A, B und C, so wie sie durch den VTR 1, den VTR 2 und den VTR 3 aufgezeichnet sind.
- Da die Szenen asynchron auf den entsprechenden Videobändern in dem in den Fig. 2A bis 2C gezeigten Format aufgezeichnet sind und so wie durch die Tabelle in Fig. 3 gezeigt zusammengefaßt sind, sieht man, daß ein einfaches Editieren der verschiedenen Segmente von verschiedenen Bändern auf einem editierten Aufzeichnungsband ein Aufzeichnen von nichtzusammenhängenden Segmenten zur Folge hat. Wenn beispielsweise verschiedene Segmente vom Schnitt B auf dem editierten Aufzeichnungsband editiert werden sollen, kann die Ausrichtung des Anfangs von Schnitt B auf jedem Aufzeichnungs- (oder Quellen-) Band während des Editiervorgangs nicht sicherstellen, daß ein besonderer Punkt im Schnitt gleichzeitig auf jedem Band erreicht wird. Folglich kann man sich die Schnitte so vorstellen, daß sie nicht fluchten und nicht synchron zueinander sind, sogar dann, wenn der Beginn jedes Schnitts von Band zu Band fluchtet. Ein fluchtender Schnitt soll bedeuten, daß der Anfang eines Schnitts oder einer Szene simultan auf jedem Band durch die Einrichtung erreicht wird, die dazu verwendet wird, die darauf befindliche Video information zu reproduzieren. Üblicherweise sind derartige Wiedergabeeinrichtungen VTRs und sie werden hier als Wiedergabe-VTRs bezeichnet.
- Wenn nach einem Auf zeichnen von Schnitt A jeder VTR 1, VTR 2 und VTR 3 in seinen Pausenmodus versetzt wird, um auf den Schnitt B zu warten, ist es wahrscheinlich, daß jeder VTR die Aufzeichnung des Schnittes B zu einer etwas unterschiedlichen Zeit beginnen wird. Das heißt, daß ein Cameramann schneller auf einen Startbefehl von einem Regisseur reagieren kann als ein anderer. Sogar wenn diese Startpunkte B1, B2 und B3 von Band zu Band während eines Editiervorgangs gleich sind, kann das Ende eines besonderen Segments auf einem (bekannt als Schnittendepunkt) nicht mit dem Anfang eines benachbarten Segments auf einem anderen (bekannt als Schnittanfangspunkt) synchronisiert werden. Folglich weisen die Audio- und Videosignale, die auf dem Editieraufzeichnungsmedium aufgezeichnet sind, Unregelmäßigkeiten an den Verbindungspunkten der Segmente von den verschiedenen wiederbespielten Bändern auf, beispielsweise bei einem Editierbetrieb oder einem Einfügungseditierbetrieb.
- Bei einer Ausführungsform der vorliegenden Erfindung wird eine Editierung dann ausgeführt, wenn ein besonderer Punkt, der als "Szenen-Ort" bezeichnet wird, im wesentlichen simultan auf jedem Band erreicht wird. Das heißt, daß die in Fig. 2A, 2B und 2C gezeigten Videobänder durch individuelle Wiedergabe-VTRs reproduziert werden; und wenn die gewünschte Szene im wesentlichen simultan erreicht ist, während alle drei Bänder gleichzeitig wiedergeben werden, wird eine Ausrichtung festgestellt. Danach können verschiedene Segmente aus den individuellen Bändern auf das Editieraufzeichnungsband überspielt werden, ohne daß unerwünschte Unstetigkeiten auftreten. Ein Beispiel einer Vorrichtung zur Synchronisierung des Editiervorgangs ist in Fig. 4 dargestellt, wo die Wiedergabe-VTRs 1, 2 und 3 Segmente einer vorheraufgezeichneten Videoprogramminformation an einen Wiedergabe-VTR 4 liefern, um ein Editieraufzeichnungsmedium zu erzeugen. Obwohl hier Wiedergabe-VTRs gezeigt und beschrieben werden, ist es klar, daß andere Quellenmedien dazu verwendet werden können, um Segmente einer vorher aufgezeichneten Videoprogramminformation zu liefern, beispielsweise Videoplatten, wobei diese mit einer Videoinformation versehen sein können, die durch die in Fig. 1 gezeigte Anordnung aufgezeichnet ist. Obwohl drei Wiedergabe-VTRs (oder drei Quellenmedien) gezeigt sind, ist es klar, daß jede gewünschte Zahl von Quellenmedien verwendet werden kann, um individuelle Segmente aus jedem Medium zum Aufzeichnungs-VTR 4 zu liefern.
- Die in Fig. 4 gezeigte Vorrichtung weist einen Monitor 5, einen synchronisierten Zeitcodedetektor 7, Schaltmatrizen 10 und 20, eine VTR-Steuerung 30, eine Wiedereinschreibsteuerung 41, einen Pufferspeicher 42, einen Datenspeicher 44 und eine Eingabeeinrichtung 50 auf. Die Wiedergabe-VTRs 1, 2 und 3 sind mit der VTR-Steuerung 30 gekoppelt und sie werden durch sie gesteuert. Auf ähnliche Weise ist der Wiedergabe-VTR 4 mit der VTR-Steuerung 30 gekoppelt und wird durch sie gesteuert. In Abhängigkeit von verschiedenen Auswahl- und Steuersignalen, die zur VTR-Steuerung 30 geliefert werden, wie unten beschrieben wird, wird der Betrieb jedes VTRs 1, 2, 3 und 4 in einem Wiedergabemodus, einem Aufzeichnungsmodus und einer Vorwärts- und Rückwärtsbandbewegung gesteuert. Es ist klar, daß entsprechende Betriebsarten durch eine entsprechende Steuerung gesteuert werden, wenn die Wiedergabe-VTRs 1, 2 und 3 durch andere Quellenmedien ersetzt werden.
- Jeder VTR weist einen Zeitcodeausgang TC auf, der die Zeitcodedaten erzeugt, die von jedem Band gelesen werden. Diese Zeitcodedaten werden dazu verwendet, um die Position der Bänder in den Wiedergabe- und Aufzeichnungs-VTRs zu steuern, und die Zeitcodedaten werden dazu verwendet, ein Band zu adressieren, um auf eine gewünschte Zeitstelle darauf zuzugreifen, um eine Videoinformation an dieser Stelle reproduzieren oder aufzuzeichnen. Die Zeitcodeausgänge der VTRs 1, 2, 3 und 4 sind mit der VTR-Steuerung 30 gekoppelt. Die Zeitcodeausgänge der Wiedergabe-VTRs 1, 2 und 3 sind ebenfalls mit dem Synchronisationszeitcodedetektor 7 verbunden.
- Jeder Wiedergabe-VTR 1, 2 und 3 weist einen Videoausgang V und einen Audioausgang A auf, um Video- und Audiosignale zu liefern, die jeweils von dem entsprechenden Band reproduziert werden. In ähnlicher Weise weist der Aufzeichnungs-VTR 4 Video- und Audioeingänge auf, um sowohl Videosignale als auch Audiosignale auf einem darin befindlichen Band aufzuzeichnen. Die Videoausgänge V der Wiedergabe-VTRs 1, 2 und 3 sind mit dem Videoeingang des Aufzeichnungs-VTR 4 über die Videoschaltmatrix 10 gekoppelt. Ahnlich sind die Audioausgänge der Wiedergabe-VTRs 1, 2 und 3 mit dem Audioeingang des Aufzeichnungs-VTR 4 über die Audioschaltmatrix 20 gekoppelt. Die Schaltmatrizen 10 und 20 sind schematisch als elektromechanische Schalter dargestellt, die durch eine Schaltsteuerschaltung 6 gesteuert werden; es ist jedoch klar, daß sie ebenfalls durch Festkörperschalteinrichtungen gebildet sein können. Die Ausgänge der Schaltmatrizen 10 und 20 sind mit den entsprechenden Video- und Audioeingängen des Monitors 5 gekoppelt, um es einer Bedienungsperson, beispielsweise einem Editor zu erlauben, die Videobilder zu betrachten und der hörbaren Information zuzuhören, die durch die Wiedergabe-VTRs 1, 2 und 3 wiedergegeben wird.
- Bei der gezeigten Ausführungsform ist ein besonderer Wiedergabe-VTR, beispielsweise VTR 3, mit einem Bildprozessor 8 gekoppelt, der das gelieferte Videosignal verarbeitet und dadurch Spezial-Videoeffekte für eine Anzeige ermöglicht. Ein Beispiel eines Bildprozessors 8 ist in unserer US-A 4 791 581 offenbart. Um sich kurz zu fassen, wird der Bildprozessor 8 hier nicht weiter erklärt, sondern er ist ausführlicher unten in Verbindung mit Fig. 8 und 9 beschrieben. Für den Augenblick reicht die Erklärung, daß die verarbeiteten Videosignale, die durch den Bildprozessor 8 erzeugt werden, mit der Videoschaltmatrix 10 gekoppelt sind, damit sie zum Aufzeichnungs-VTR 4 und zum Monitor 5 geliefert werden. Ein anderer Ausgang des Bildprozessors 8 ist mit einer Zeitkompensationseinrichtung 9 gekoppelt, deren Aufgabe unten in Verbindung mit Fig. 9 beschrieben wird.
- Der synchronisierte Zeitcodedetektor 7 ist mit der Schaltsteuerschaltung 6 gekoppelt und legt in Abhängigkeit von einem von der Schaltsteuerschaltung 6 gelieferten Signal die entsprechenden Zeitcodes, die dann durch die VTRs 1, 2 und 3 reproduziert werden, an die Wiedereinschreibsteuerschaltung 41 an. Die Zeitcodes, die durch die synchronisierten Zeitcodes geliefert werden, werden bezüglich ihrer Aufgabe später beschrieben.
- Die Wiedereinschreibsteuerschaltung 41 ist mit dem Pufferspeicher 42 gekoppelt, und sie liefert die synchronisierten Zeitcodes, die vom synchronisierten Zeitcodedetektor 7 erhalten werden, zum Pufferspeicher 42. Die Wiedereinschreibsteuerschaltung 41 ist weiter mit einer Schnittbezeichnungsschaltung 45 gekoppelt, um daraus die Bezeichnung eines gewünschten Schnitts oder einer Szene zu erhalten, beispielsweise des Schnitts A, des Schnitts 13 und des Schnitts C usw. Die Schnittbezeichnungsschaltung 45 ist mit der VTR- Steuerung 30 gekoppelt und empfängt ein Schnittsteuersignal in Abhängigkeit von beispielsweise den Zeitcodes, die durch die VTR-Steuerung 30 von den Wiedergabe-VTRs 1, 2 und 3 erhalten werden.
- Die gezeigte Wiedereinschreibsteuerschaltung 41 ist weiter so geschaltet, daß sie Auswahlsignale empfängt, die durch eine VTR-Auswahleinrichtung 36 und eine Schaltauswahleinrichtung 37 erzeugt werden. Die Aufgabe der Auswahlschaltungen 36 und 37 sowie deren Zusammenarbeit mit der Wiedereinschreibsteuerschaltung 41 wird unten in Verbindung mit Fig. 8 beschrieben.
- Der Pufferspeicher 42, der ebenfalls mit der Wiedereinschreibsteuerschaltung 41 gekoppelt ist, ist über eine Lese/Schreibsteuerung 43 mit dem Datenspeicher 44 gekoppelt. Eine Information, die vorübergehend im Pufferspeicher 42 gespeichert ist, wird in den Datenspeicher 44, der ein RAM sein kann, über die Lese/Schreibsteuerung 43 eingeschrieben. Auf ähnliche Weise kann die im Datenspeicher 44 gespeicherte Information durch die Lese/Schreibsteuerung 43 daraus gelesen werden und vorübergehend im Pufferspeicher gespeichert werden. Der Pufferspeicher 42 speichert Editieraufzeichnungen, die die Editierstellen von entsprechenden Bändern darstellen, wodurch die Segmente identifiziert werden, die aus diesen Bändern wiederzugeben sind und die auf das editierte Aufzeichnungsmedium aufgezeichnet werden sollen, die Reihenfolge, in der diese Segmente wiederzugeben und wiederauf zuzeichnen sind und den besonderen Schnitt oder die Szene, die diese Editierstelle enthält. Ein Beispiel einer typischen Szenentabelle, die in einer Editieraufzeichnung enthalten ist, ist in Fig. 8 gezeigt und wird unten beschrieben. Die Daten, die die Editierstellen und den speziellen VTR erkennen, von welchem diese Editierstellen wiedergegeben werden, werden vom Pufferspeicher 42 zur VTR-Steuerung 30 geliefert. Die Daten die die Folge darstellen, in welcher die Segmente aus den individuellen VTRs reproduziert werden, werden vom Puf ferspeicher 42 zur Schaltsteuerschaltung 6 geliefert. Die Schaltsteuerschaltung 6 arbeitet ebenfalls mit der VTR-Steuerung 30 zusammen, wie durch die dazwischenliegende Verbindung angedeutet ist.
- Die Eingabeeinrichtung 50, die durch einen Editor manuell bedient wird, ist mit der VRT-Steuerung 30, der Schaltsteuerschaltung 6, der VRT-Auswahleinrichtung 36 und der Schaltauswahleinrichtung 37 gekoppelt. Die Eingabeeinrichtung 50 enthält Schalter, Bandtransportsteuerungen, Zeitcodeanzeigen und dergleichen, und sie wird vom Editor zur Steuerung eines Editiervorgangs verwendet. Ein Beispiel einer geeigneten Frontplatte der Eingabeeinrichtung ist Fig. 13 gezeigt und wird unten beschrieben.
- Es wird nun ein Beispiel des Betriebsablaufs der in Fig. 4 gezeigten Vorrichtung beschrieben. Es sei angenommen, daß Videobänder, die die Videoprogramminformation der Schnitte A, B und C haben, wie Fig. 2A bis 2C angedeutet ist, jeweils in die VTRs 1, 2 und 3 geladen werden. Wie oben erwähnt sind diese Videobänder asynchron bespielt, so daß folglich zu erwarten ist, daß eine bestimmte Stelle der Szene im Schnitt B auf dem Band, das durch den VTR 1 wiedergegeben wird, gegenüber der gleichen Stelle der Szene auf den Bändern, die durch den VTR 2 und den VTR 3 wiedergegeben werden, versetzt ist. Wenn folglich einem Segment vom Band, das durch VTR 1 wiedergegeben wird, ein Segment folgt, das durch den VTR 2 wiedergegeben wird, ist klar, daß eine bemerkbare unerwünschte Unstetigkeit auftritt, wenn das editierte Aufzeichnungsband wiedergegeben wird. Folglich wird die Vorrichtung von Fig. 4 vom Editor zuerst so bedient, daß er die Bänder, die durch die VTRs 1, 2 und 3 wiedergegeben werden, in Übereinstimmung bringt.
- Der Editor betätigt die Eingabeeinrichtung 50 so, daß geeignete Steuersignale zur VTR-Steuerung 30 geliefert werden, so daß die VTRs 1, 2 und 3 gleichzeitig arbeiten. Die Videoschaltmatrix 10 wird durch die Schaltsteuerschaltung 6 in Abhängigkeit von einem geeigneten Eingangssignal gesteuert, das durch die Eingabeeinrichtung 5 erzeugt wird, um das Videosignal, das durch einen gewünschten der Wiedergabe-VTRs 1, 2 und 3 erzeugt wird, mit dem Monitor 5 zu koppeln. Der Editor beobachtet die Videoprogramminformation, die dann durch den ausgewählten VTR reproduziert wird, wobei er von einem VTR zum anderen schaltet. Vorzugsweise arbeiten während dieser Anfangsüberprüfung alle Wiedergabe-VTRs 1, 2 und 3 gleichzeitig.
- Durch Betätigung geeigneter Schalter und Steuerungen der Eingabeeinrichtung 50 kann die Wiedergabe eines VTRs nach vorne verlegt oder gegenüber der Wiedergabe der anderen VTRs verzögert werden. Durch wahlweises Verzögern oder Beschleunigen der Videobänder, die wiederzugeben sind, und durch Beobachtung der Videobilder, die von den individuellen VTRs wiedergegeben werden, kann der Editor entscheiden, wann ungefähr dergleiche Zeitpunkt in der Szene, die durch den Schnitt B dargestellt wird, simultan durch die VTRs 1, 2 und 3 erreicht ist. Es ist klar, daß dies bloß eine ungefähre empirische Ausrichtung ist, denn in Wirklichkeit erreicht jeder VTR die gewünschte Stelle der Szene zu einem etwas anderen Zeitpunkt.
- Danach wird die Schaltsteuerschaltung 6 durch die Eingabeeinrichtung 50 so gesteuert, um die Audiosignale, die von einem gewünschten der VTRs 1, 2 und 3 wiedergegeben werden, mit dem Nonitor 5 zu verbinden. Durch das im wesentlichen gleiche darauf folgende Verfahren, das oben beschrieben wurde, das heißt, durch wahlweises Vorrücken und Verzögern der Wiedergabe-VTRs 1, 2 und 3 relativ zueinander kann der Editor entscheiden, ob die hörbaren Töne, die von den Audiosignalen reproduziert werden, in Phase zueinander sind. Wenn die Audio- und Videosignale, die gleichzeitig von allen Wiedergabe-VTRs 1, 2 und 3 reproduziert werden, in Phase sind, sind die entsprechenden Bänder ausgerichtet. In diesem Zeitpunkt liefert die Schaltsteuerschaltung 6 in Abhängigkeit von der Betätigung der Eingabeeinrichtung 50 durch den Editor ein Triggersignal zum synchronisierten Zeitcodedetektor 7. Dieses Triggersignal bildet ein Freigabesignal, um die Zeitcodes, die dann zum synchronisierten Zeitcodedetektor 7 von den VTRs 1, 2 und 3 geliefert werden, mit der Wiedereinschreibsteuerschaltung 41 zu koppeln. Diese Zeitcodes werden als synchronisierte Zeitcodes bezeichnet und in den Pufferspeicher 42 eingeschrieben. Aus dem Pufferspeicher 42 werden diese synchronisierten Zeitcodes in den Datenspeicher 44 durch die Lese/Schreibsteuerung 43 eingeschrieben. Fig. 6 zeigt schematisch die synchronisierten Zeitcodes von den VTRs 1, 2 und 3, so wie sie durch den synchronisierten Zeitcodedetektor 7 ermittelt werden. Wenn folglich beispielsweise die Stelle der Szene simultan durch die VTRs 1, 2 und 3 erreicht wird, ist der Zeitcode, der vom Band durch den VTR 1 gelesen wird, gleich 00:20:00, der Zeitcode, der durch den VTR 2 gelesen wird, gleich 00:25:00 und der Zeitcode, der durch den VTR 3 gelesen wird, gleich 00:23:00. Daher bleibt wegen der asynchronen Aufzeichnung des Schnitts B der Zeitcode, der vom VTR 1 gelesen wird, hinter dem Zeitcode, der vom VTR 2 gelesen wird, um fünf Sekunden zurück und bleibt hinter dein Zeitcode, der vom VTR 3 gelesen wird, um drei Sekunden zurück. Diese synchronisierten Zeitcodes, die durch den synchronisierten Zeitcodedetektor 7 ermittelt werden, werden zum Pufferspeicher 42 geliefert und dann in den Datenspeicher 44 eingeschrieben.
- Vorzugsweise in dem Zeitpunkt, wo der synchronisierte Zeitcodedetektor 7 die in Fig. 6 gezeigten synchronisierten Zeitcodes zur Wiedereinschreibsteuerschaltung 41 liefert, wird die Schnittbezeichnungsschaltung 45 durch die VTR-Steuerung 30 betätigt, um zur Wiedereinschreibsteuerschaltung eine Schnittbestimmung (oder Szene) zu liefern, die zeigt, daß die synchronisierten Zeitcodes während des Schnitts B erzeugt werden. Folglich speichert der Datenspeicher 44 die synchronisierten Zeitcodes und die Szenenerkennung, in der diese synchronisierten Zeitcodes vorkommen. Wenn dieser Synchronisationsbetrieb für die anderen Szenen wiederholt wird, werden die synchronisierten Zeitcodes und die Szenenerkennung daher in gleicher Weise im Datenspeicher 44 gespeichert.
- Wenn die synchronisierten Zeitcodes ermittelt werden und im Datenspeicher 44 gespeichert werden, kann der Editor einen Editiervorgang relativ leicht durchführen. Wie bekannt ist, werden bei einem typischen Editiervorgang verschiedene Editierstellen auf den entsprechenden Videobändern als Schnittanfangspunkte und Schnittendepunkte identifiziert, und das Segment der Videoprogramminformation, das zwischen dem Schnittanfangspunkt und dem Schnittendepunkt aufgezeichnet ist, wird wiedergegeben und auf dem editierten Aufzeichnungsband wiederaufgezeichnet. Diese Editierstellen werden durch die Zeitcodes identifiziert, die vom Videoband reproduziert werden. Obwohl ein Editiervorgang durchgeführt werden kann, bevor die synchronisierten Zeitcodes bestimmt werden, wird die oben erwähnte Schwierigkeit in bezug auf die Unstetigkeiten vermieden, wenn die Editierstellen zuerst auf die synchronisierten Zeitcodes bezogen werden. Diese Editierstellen können durch Betätigen der Eingabeeinrichtung 50 (wie unten beschrieben wird) ausgewählt werden, während man auf dem Monitor 5 die gewünschte Programminformation beobachtet, die dann reproduziert wird.
- Da vorzugsweise die VTRs 1, 2 und 3 gleichzeitig betätigt werden, kann jede Editierstelle ausgewählt werden und als diskreter Zeitcode, der beispielsweise durch den VTR 1 erzeugt wurde, identifiziert werden. Natürlich wird der spezielle VTR, aus welchem ein Segment der Programminformation extrahiert und wiederaufgezeichnet werden soll, identifiziert. Wenn daher der Editor beobachtet, daß das Segment beispielsweise vom VTR reproduziert wird, kann die entsprechende Editierstelle durch den Editor ausgewählt werden, und der Zeitcode, der dann durch den VTR 1 erzeugt wird, wird über die VTR-Steuerung 30 zum Pufferspeicher 42 geliefert, um dann im Datenspeicher 44 gespeichert zu werden. Wenn daher jede Editierstelle durch den Editor ausgewählt wird, werden eine Identifikation des VTR, der das gewünschte Segment wiedergibt, wie auch die entsprechende Stelle dieses Segments auf dem VTR 1 zum Datenspeicher 44 geliefert und gespeichert. Zu diesem Zeitpunkt werden die Videosignale, die durch die Wiedergabe-VTRs 1, 2 und 3 reproduziert werden, lediglich auf dem Monitor 5 angezeigt, jedoch noch nicht auf dem editierten Aufzeichnungsband durch den VTR 4 aufgezeichnet.
- Ein Beispiel von Zeitcodedaten und VTR-Identifikations-Daten, die im Datenspeicher 44 für einen speziellen Schnitt oder Szene gespeichert sind, ist in Fig. 8 dargestellt. Man sieht, daß die Daten von Fig. 8 die Identifikation eines Schalters einschließen, der in der Videoschaltmatrix 10 vorhanden ist. Diese Schaltidentifikation kann für den Betrieb verwendet werden, wo das Videoausgangssignal eines VTR, beispielsweise des VTR 3, unmittelbar zur Schaltmatrix geliefert wird oder dahin über den Spezialeffektbildprozessor 8 geliefert wird. Die Schaltidentifikationsdaten können somit verwendet werden, um einen speziellen Effekt während des Editiervorgangs auszuwählen.
- Wenn der oben erwähnte vorgeschlagene Editiervorgang beendet ist, das heißt, wenn nach jeder Editierstelle die VTR-Identifikationsdaten und die Schaltidentifikationsdaten ausgewählt und als Editieraufzeichnung im Datenspeicher 44 gespeichert sind, kann diese Editieraufzeichnung gelesen werden und dazu verwendet werden, einen automatischen Editiervorgang zu steuern. Wenn beispielsweise der Editieraufbau, der für den Schnitt B eingerichtet ist, wie beispielsweise in Fig. 8 gezeigt, eingefügt werden soll, wird die Eingabeeinrichtung 50 so betätigt, daß die VTR-Steuerung 30 eine Anforderung an die Schnittbezeichnungsschaltung 45 liefert, um die Editieraufzeichnungsdaten, die mit dem Schnitt B in Verbindung stehen, aus dem Datenspeicher 44 zu lesen. Diese Editierauf zeichnungsdaten für einen speziellen Schnitt werden auf eine Szenentabelle bezogen; die angeforderte Szenentabelle wird aus dem Datenspeicher 44 durch die Schreib/Lesesteuerung 43 gelesen und vorübergehend im Pufferspeicher 42 gespeichert. Zusätzlich zur Szenentabelle werden die synchronisierten Zeitcodes für den Schnitt B ebenfalls aus dem Datenspeicher 44 gelesen und im Pufferspeicher 42 gespeichert. Die Wiedergabeeditierpunkte werden vom Pufferspeicher 42 zur VTR-Steuerung 30 geliefert, und die Schaltidentifikationsdaten werden zur Schaltsteuerschaltung 6 geliefert. Obwohl die Wiedergabeeditierpunkte als Zeitcodes gespeichert werden, die vom VTR 1 hergeleitet sind, wandelt die VTR- Steuerung 30 diese Zeitcodes in Zeitcodes für den VTR 2 und den VTR 3 um, um somit die diskreten Positionen auf den Bändern zu identifizieren, die durch diese VTRs wiedergegeben werden, und um dadurch ein gewünschtes Segment daraus zu reproduzieren, wenn die vorher ausgewählte Editierstelle erreicht ist.
- Die Art und Weise, mit der die VTR-Steuerung 30 die gespeicherten Zeitcodes in Zeitcodes umwandelt, die zu den VTRs 2 und 3 gehören, wird nun unten in Verbindung mit Fig. 5 beschrieben. Es wird erklärt, daß, da alle Wiedergabe-VTRs 1, 2 und 3 in Phase in bezug auf die Szenenstelle betätigt werden, die vorher ermittelt wurde, die Zeitcodes, die die entsprechenden Editierstellen beispielsweise des VTR 2 und VTR 3 identifizieren, in Beziehung zu den synchronisierten Zeitcodes stehen. Daher werden die Zeitcodes, die durch den VTR 1 bereitgestellt werden, wenn die Editierstellen ausgewählt wurden, leicht in Zeitcodes des VTRs 2 und des VTRs 3 umgewandelt, wobei die Zeitcodes Bereiche der Videoprogramminformation identifizieren, die sämtlich in Phase sind.
- Fig. 7A und 7B sind schematische Darstellungen von drei Segmenten, die vom VTR 1, dem VTR 2 und dem VTR 3 reproduziert und auf dem Aufzeichnungs-VTR 4 wiederaufgezeichnet werden. Man sieht, daß die synchronisierten Zeitcodes, die aus dem Datenspeicher 44 gelesen werden und über den Pufferspeicher 42 zur VTR-Steuerung 30 geliefert werden, dazu dienen, um den VTR 1, den VTR 2 und den VTR 3 gleichphasig anzusteuern. Das heißt, daß das Band, das durch jeden dieser VTRs wiedergegeben wird, die Stelle der Szene (in Fig. 7A als offener Kreis angedeutet) simultan erreicht. Es sei angenommen, daß ein Editierstartpunkt oder Schnittanfangspunkt des VTR 1 bei einem Zeitcode ausgewählt wird, der beispielsweise 00:17:00 entspricht. Wenn der Schnittendepunkt des VTR 1 (durch ein Dreieck in Fig. 7A bezeichnet) erreicht ist, steuert die VTR-Steuerung 3 den VTR 2 so, daß der Schnittanfangspunkt (ebenfalls durch das Dreieck in Fig. 7A bezeichnet) simultan erreicht wird. In diesem Zeitpunkt steuert die Schaltsteuerschaltung 6 die Schaltmatrizen 10 und 20, um die Verbindung des VTR 1 zum Aufzeichnungs-VTR 4 zu unterbrechen und verbindet jetzt den Wiedergabe-VTR 2 mit dem Aufzeichnungs-VTR 4. Da nun alle VTRs synchron arbeiten und die Videobänder, die dadurch wiedergegeben werden, ausgerichtet sind, ist der Anfang des Segments, der aus dem Wiedergabe-VTR 2 extrahiert wird, in Phase mit dem Ende des Segments, das aus dem VTR 1 extrahiert wurde.
- Wenn danach der vorher ausgewählte Schnittendepunkt auf dem VTR 2 erreicht ist (als Quadrat in Fig. 7A dargestellt), wird der Schnittanfangspunkt auf dem VTR 3 simultan erreicht. Die VTR-Steuerung 30 steuert den Betrieb des VTR 3, um diese simultane Ankunft ihres Schnittanfangspunkts mit der Ankunft des Schnittendepunkts auf dem VTR 2 sicherzustellen. In diesem Zeitpunkt steuert die Schaltsteuerschaltung 6 die Schaltmatrizen 10 und 20, um die Verbindung des Aufzeichnungs-VTR 4 vom Wiedergabe-VTR 2 zum Wiedergabe-VTR 3 umzuschalten. Hier wiederum stellt der synchrone gleichphasige Betrieb aller Wiedergabe-VTRs 1, 2 und 3 sicher, daß der Anfang des Segments, das vom VTR 3 extrahiert wurde, in Phase und fortlaufend mit dem Ende des Segments ist, das vom VTR 2 extrahiert wurde. Der Wiedergabe-VTR 3 fährt damit fort, die Videoprogramminformation zu reproduzieren, die vorher auf dem Band aufgezeichnet wurde und dadurch reproduziert wird, bis der Editierendpunkt erreicht ist.
- Fig. 7B zeigt das editierte Aufzeichnungsband, das durch den Aufzeichnungs-VTR 4 aus den Segmenten der Videoinformation hergestellt wurde, die zu ihm vom VTR 1, vom VTR 2 und vom VTR 3 geliefert wurde.
- Es wird nun die Arbeitsweise der VTR-Steuerung 30 in Verbindung mit dem in Fig. 5 gezeigten Blockdiagramm beschrieben. Wie gezeigt weist die VTR-Steuerung 30 eine Relativpositions-Ermittlungsschaltung 31, einen Relativpositions-Addierer 32 und eine VTR-Ansteuerschaltung 33 auf. Die Relativpositions-Ermittlungsschaltung 31 steht mit einem Pufferspeicher 42 in Verbindung und empfängt die synchronisierten Zeitcodes, die durch den synchronisierten Zeitcodedetektor 7 geliefert wurden und im Datenspeicher 44 gespeichert wurden, wenn der Editor bestimmte, daß die drei Wiedergabe-VTRs 1, 2 und 3 die Stelle der Szene simultan reproduzierten. Die Ermittlungsschaltung 31 bestimmt die Differenz zwischen den synchronisierten Zeitcodes, die von den VTRs 1 und 2 hergeleitet wurden, wie auch die Differenz zwischen den synchronisierten Zeitcodes, die von den VTRs 1 und 3 hergeleitet wurden. Im in Fig. 6 gezeigten Beispiel ist die Differenz zwischen den synchronisierten Zeitcodes, die von VTRs 1 und 2 hergeleitet wurden, gleich 00:05:00; die Differenz zwischen den synchronisierten Zeitcodes, die von den VTRs 1 und 3 hergeleitet wurde, ist gleich 00:03:00. Diese jeweiligen Zeitcodedifferenzen werden über die Ermittlungsschaltung 31 zur Relativpositions-Additionsschaltung 32 geliefert.
- Der Addierer 32 steht mit dem Pufferspeicher 42 in Verbindung und empfängt während eines Editiervorgangs vom Pufferspeicher 42 die Zeitcodes, die die vorherausgewählten Editierstellen darstellen, die im Datenspeicher 44 gespeichert sind. Es sei nochmals darauf hingewiesen, daß diese Editierstellen als Zeitcodes identifiziert werden, die vom VTR 1 hergeleitet wurden. Die Aufgabe des Addierers 32 besteht darin, diese Zeitcodes in Zeitcodes des VTR 2 und des VTR 3 umzusetzen. Unter Bezugnahme beispielsweise auf Fig. 7A sei angenommen, daß die dort gezeigten Editierstellen ausgewählt wurden. Der Datenspeicher 44 speichert diese Editierstellen als vom VTR 1 hergeleitete Zeitcodes. Im gezeigten Beispiel sind diese Editierstellen als Zeitcodes 00:17:00, 00:22:00, 00:25:00 und 00:29:00 gespeichert. Der Addierer 32 addiert die Differenzen, die durch die Ermittlungsschaltung 31 ermittelt wurden, zu den dazu gelieferten Zeitcodes vom Datenspeicher 44 über den Pufferspeicher 42. Folglich wird der Schnittanfangspunkt des VTR 2, der durch das Dreieck von Fig. 7A dargestellt ist, durch Addieren der Zeitcodedifferenz von fünf Sekunden zum Zeitcode, der vom VTR 1 hergeleitet wurde, der diesen Schnittanfangspunkt darstellt, berechnet. Daher wird der Schnittanfangspunkt für den VTR 2 zu 00:27:00 berechnet. Auf ähnliche Weise wird der Schnittendepunkt für den VTR 2, der durch das Fig. 7A gezeigte Quadrat dargestellt ist, durch Addieren der Zeitcodedifferenz von fünf Sekunden zum Zeitcode berechnet, der vom VTR 1 hergeleitet wurde, der diesen Schnittendepunkt erkennt. Im gezeigten Beispiel ist dieser Schnittanfangspunkt für den VTR 2 als Zeitcode 00:25:00 vom VTR 1 dargestellt und ist berechnet als 00:30:00 für den VTR 2. Dieser Schnittendepunkt für den VTR 2 tritt gleichzeitig mit dem Schnittanfangspunkt VTR 3 auf. Da als Zeitcodedifferenz zwischen dem VTR 1 und dem VTR 3 drei Sekunden ermittelt wurden, wird diese Zeitcodedifferenz zum Zeitcode addiert, der vom VTR 1 hergeleitet wird, der dem Schnittanfangspunkt auf dem VTR 3 entspricht, was einen Schnittanfangspunkt für den VTR 3 von 00:28:00 zur Folge hat. Schließlich wird der Schnittendepunkt für den VTR 3, der dem Editierendpunkt entspricht, im Datenspeicher 44 als 00:29:00 gespeichert, der vom VTR 1 hergeleitet wurde. Der Schnittendepunkt für den VTR 3 wird folglich durch den Addierer 32 zu 00:32:00 berechnet. Folglich werden die Schnittanfangs- Punkte und die schnittendepunkte für die entsprechenden VTRs aus den Editierstellen hergeleitet, die im Datenspeicher 44 gespeichert sind, und sie werden durch den Addierer 32 für die VTR-Ansteuerschaltung 33 als Zeitcodes bereitgestellt, die die entsprechenden Schnittanfangspunkte und Schnittendepunkte für jeden VTR erkennen.
- Es sei betont, daß diese individuellen Schnittanfangs- und Schnittende-Zeitcodes für die entsprechenden VTRs sich alle auf den synchronisierten Zeitcode beziehen, der durch den synchronisierten Zeitcodedetektor bestimmt wurde und im Datenspeicher 44 gespeichert wurde. Folglich verwendet die VTR-Ansteuerschaltung 33 diese Zeitcodes, die die in Bezug genommenen Editierstellen darstellen, um sicherzustellen, daß die individuellen Videobänder synchron und in Phase zueinander angetrieben werden.
- Die VTR-Ansteuerschaltung 33 weist VTR-Ausgänge 34a bis 34d auf, die jeweils mit den VTRs 1 bis 4 in Verbindung stehen. Die Ansteuerschaltung weist weiter Zeitcodeeingänge 35a bis 35d auf, die die Zeitcodes empfangen, die jeweils durch die VTRs 1 bis 4 gelesen werden. Die VTR-Ansteuerschaltung 33 vergleicht die Zeitcodes, die an ihren Eingängen 35a bis 35d empfangen werden, mit den individuellen Zeitcodes für die VTRs 1, 2 und 3, die durch den Relativpositions-Addierer 32 geliefert wurden, um zu ermitteln, wenn ein Zeitcode, der von einem VTR gelesen wurde, im wesentlichen gleich dem Editierpunktzeitcode ist, der vom Addierer 32 geliefert wird. Wenn eine Übereinstimmung des Schnittanfangszeitcodes und eines Zeitcodes, der vom VTR gelesen wurde, festgestellt wird, wird die Videoprogamminformation, die dann durch diesen VTR wiedergegeben wird, über die Schaltmatrizen 10 und 20 zum Aufzeichnungs-VTR 4 geliefert. In ähnlicher Weise wird, wenn eine Übereinstimmung des Schnittendezeitcodes und eines Zeitcodes, der vom VTR gelesen wurde, festgestellt wird, die Videoprogramminformation, die vom VTR über die Schaltmatrizen 10 und 20 zum Aufzeichnungs-VTR 4 geliefert wurde, unterbrochen. Man sieht, daß ein Schnittanfangszeitcode, der über den Addierer 32 zur VTR-Ansteuerschaltung 33 geliefert wird, aus der Szenentabelle (siehe beispielsweise Fig. 8) hergeleitet wird, die aus dem Datenspeicher 44 gelesen wird. Somit wird jeder Schnittanfangspunkt (wie auch jeder Schnittendepunkt) von Schalterkennungsdaten begleitet, die vom Datenspeicher 44 zum Pufferspeicher 42 geliefert werden und von da zur Schaltsteuerschaltung 6, um die erkannten Schalter in den Schaltmatrizen 10 und 20 in dem Zeitpunkt zu schließen, in dem der Schnittanfangspunkt erreicht wird
- Man sieht daher, daß, obwohl der Datenspeicher 44 nur die Zeitcodes speichern muß, die von einem einzigen Wiedergabe-VTR hergeleitet werden, beispielsweise vom VTR 1, die die Position des Bandes darstellen, das durch den VTR 1 in dem Zeitpunkt wiedergegeben wird, in welchem die Editierstelle erreicht wird, ob diese Editierstelle eine Position auf dem Band, das durch VTR 1 wiedergegeben wird, identifiziert, oder das Band, das durch den VTR 2 wiedergegeben wird, oder das Band, das durch den VTR 3 wiedergegeben wird, da alle drei VTRs in Phase und synchron zueinander arbeiten, werden die Zeitcodes, die vom VTR 1 hergeleitet werden, leicht modifiziert, so daß sie die Zeitcodes für die Bänder darstellen, die durch die VTRs 2 und 3 wiedergegeben werden. Folglich kann die Editierstelle für jeden VTR leicht berechnet werden und dazu verwendet werden, zu bestimmen, wenn ein ausgewähltes Segment einer Videoprogramminformation erreicht wurde. Da alle Editierstellen von dem Zeitcode hergeleitet werden, der beispielsweise durch den VTR 1 erzeugt wurde, gibt es keine Unstetigkeit, wenn Segmente von verschiedenen VTRs editiert werden, obwohl die Programminformation, die durch diese VTRs bereitgestellt wurde, asynchron aufgezeichnet wurde.
- In Fig. 8 ist eine sogenannte Szenentabelle schematisch dargestellt. Diese Szenentabelle ist im Datenspeicher 44 gespeichert und wird durch eine bestimmte Szene erkannt, die dadurch darstellbar ist. Im dargestellten Ausführungsbeispiel zeigt die Fig. 8 eine Szenentabelle für den Schnitt B. Diese Szenentabelle identifiziert den besonderen Wiedergabe-VTR, der ausgewählt wird, ein Segment der vorheraufgezeichneten Videoprogramminformation von der Editierstelle wiederzugeben, die durch den Wiedergabezeitcode erkannt wird, und die Szenentabelle identifiziert ebenfalls die Folge, in welcher die Segmente aus den entsprechenden Wiedergabe-VTRs 1, 2 und 3 wiedergegeben werden. Da darüber hinaus spezielle Effekte auf die wiedergegebenen Videosignale durch den Bildprozessor 8 übertragen werden können, identifiziert die Szenentabelle ebenfalls die besondere Verbindung der Videoschaltmatrix 10, durch die die wiedergegebenen Videosignale zum Aufzeichnungs-VTR 4 geliefert werden. Wenn beispielsweise spezielle Effekte auf die Videoinformation übertragen werden sollen, die vom VTR 3 wiedergegeben werden, wird der Schalter 4 in der Matrix 10 so gewählt, daß er den Videoausgang des VTR 3 mit dem Aufzeichnungs-VTR 4 über den Bildprozessor 8 verbindet.
- Man sieht daher, daß Fig. 8 die Editierstellen darstellt, die durch die Zeitcodes bestimmt werden, die vom VTR 1 reproduziert werden, um die Segmente auf dem Aufzeichnungs- VTR 4 auf zuzeichnen, die in Fig. 7A gezeigt sind, um das in Fig. 7B gezeigte Editierband zu bilden. Man sieht, daß der Datenspeicher 44 mehrere Szenentabellen speichert, wobei jede Szenentabelle die Editierinformation für die entsprechende Szene darstellt. Wenn der Editor die Editierinformation für irgendeine Szene überarbeiten will, kann er eine derartige Überarbeitung leicht durchführen, wenn er lediglich die Szenentabelle für eine bestimmte Szene aus dem Datenspeicher 44 liest. Beispielsweise kann die Szenentabelle für den Schnitt B aus dem Datenspeicher 44 gelesen werden, wenn man ein Szenentabelle-Lesesignal von der Eingabeeinrichtung 45 über die VTR-Steuerung 30 zur Schnittbestimmungsschaltung 45 liefert. Wenn einmal die Szenentabelle aus dem Datenspeicher 44 in den Pufferspeicher 42 gelesen ist, kann die Eingabeeinrichtung 50 durch den Editor betätigt werden, um die VTR-Auswahleinrichtung 36 so zu steuern, um den für eine Wiedergabe ausgewählten VTR zu wechseln oder Editierstelle auf diesem VTR, wodurch das Segment der Videoprogramminformation, das editiert werden soll, modifiziert werden kann. Auf die gleiche Weise kann die Schaltauswahleinrichtung 37 durch die Eingabeeinrichtung 50 gesteuert werden, um den speziellen Schalter in einer oder beiden Schaltmatrizen 10 und 20 zu ändern, um beispielsweise Spezialvideoeffekte bereitzustellen, wenn dies gewünscht wird. Natürlich erfordert eine Modifikation der Szenentabelle für eine Szene, beispielsweise für den Schnitt B, nicht notwendigerweise eine Modifikation irgendeiner der anderen Szenentabellen, die im Datenspeicher 44 gespeichert sind. Folglich ist eine vollständige Überprüfung der gesamten gespeicherten Editierinformation nicht notwendig, wenn nur eine ausgewählte Information in einer bestimmten Szenentabelle geändert wird.
- Wenn man wieder Fig. 4 zurückkehrt, so sei angenommen, daß ein Editiervorgang ein Segment einer Videoprogramminformation auswählt, die vom VTR 3 reproduziert wird und die speziellen Videoeffekten unterworfen werden soll. Wenn das ausgewählte Segment auf dem Videoband, das durch den VTR 3 reproduziert wird, erreicht ist, betätigt die Schaltsteuerschaltung 6 den Schalter 4 in der Videoschaltmatrix 10, so daß das reproduzierte Segment der Videoinformation zum Aufzeichnungs-VTR 4 über den Bildprozessor 8 geliefert wird. Wie jedoch oben erwähnt wurde, ist das Videosignal, das über den Bildprozessor 8 geliefert wird, einer Zeitverzögerung unterworfen, die der Signalverarbeitung anhaftet, die durch Bildprozessor 8 durchgeführt wird. Diese Zeitverzögerung kann veränderlich sein, und sie kann daher nicht leicht vorhergesagt werden. Beispielsweise kann der Bildprozessor 8 einen sogenannten Rahmenspeicher aufweisen, der eine Verzögerung gleich der Zeitdauer eines Videorahmens überträgt. Eine Zeitverzögerung gleich einem Vielfachen von Rahmenverzögerungen kann auf das Videosignal übertragen werden, und zwar in Abhängigkeit von den Spezialvideoeffekten, die ausgewählt wurden. Der Aufbau und der Betrieb des Bildprozessors 8 ist nicht Teil dieser vorliegenden Erfindung; eine weitere Beschreibung dazu kann man in der oben erwähnten US-A 4791 581 finden.
- Man sieht, daß, wenn die Wiedergabe-VTRs 1, 2 und 4 arbeiten, der Aufzeichnungs-VTR 4 ebenfalls arbeitet. Folglich rückt das Videoband bei jedem dieser VTRs gleichzeitig vor. Aus Fig. 7A und 7B sieht man, daß, wenn ein Segment einer Videoinformation von einem Videoband wiedergegeben wird, dieses Segment sofort auf dem Editierband aufgezeichnet wird. Wenn jedoch das Videosignal einer Bildverarbeitung unterworfen wird, wird das verarbeitete Signal nicht sofort nach seiner Reproduktion vom VTR aufgezeichnet. Vielmehr ist die Aufzeichnung einer Verzögerung unterworfen, die gleich der inhärenten Zeitverzögerung des Bildprozessors 8 ist. Wenn folglich ein Segment einer Videoinformation beispielsweise vom VTR 3 ausgewählt wird und bildmäßig verarbeitet wird, werden keine Videosignale auf dem Editierband in einer Zeitdauer aufgezeichnet, die gleich der Verzögerungszeit des Bildprozessors ist. Als Folge davon wird ein freies Intervall (oder genauer verbleibt) auf dem Editierband aufgezeichnet. Dieses freie Intervall hat eine nichterwünschte, bemerkbare Störung zur Folge. In der in Fig. 4 gezeigten Vorrichtung ist eine Verarbeitungssteuerzeit-Kompensationseinrichtung vorgesehen, die der Zeitverzögerung Rechnung trägt, die auf das Videosignal übertragen wird, das durch Bildprozessor 8 verarbeitet wird, um diese Zeitverzögerung zu kompensieren und um das freie Intervall auf dem Editierband zu vermeiden.
- Die Verarbeitungszeitsteuerungs-Kompensationseinrichtung 9 ist ausführlicher in Fig. 9 gezeigt, und sie rückt die Zeit vor, wo der VTR 3 seine Schnittanfangsposition gegenüber dem Zeitpunkt erreicht, wo der Aufzeichnungs-VTR 4 seine entsprechende Schnittanfangsposition erreicht, um einen Betrag, der im wesentlichen gleich der Zeitverzögerung ist, die auf das Videosignal übertragen wurde, das durch den VTR 3 reproduziert wurde und durch den Bildprozessor 8 verarbeitet wurde. Durch Vorrücken der Zeit, wo das Videoband, das durch den VTR 3 wiedergegeben wird, seinen Schnittanfangspunkt erreicht, wird das verarbeitete Videosignal zum üblichen Aufzeichnungsmedium des VTR 4 in dem Zeitpunkt geliefert, wo der VTR 4 den Schnittanfangspunkt erreicht, an welchem dieses verarbeitete Videosignal aufgezeichnet werden muß. Die Zeitkompensationseinrichtung 9 weist unter anderem einen Zeittaktgenerator 11, eine Zeitverzögerungsdetektor 16 und eine Subtrahierschaltung 18 auf. Wie unten weiter beschrieben wird, liefert der Zeittaktgenerator 11 Referenztaktzeiten analog zu den Zeitcodes, die durch die VTRs 1 bis 4 reproduziert werden. Folglich haben die Referenztaktdaten die Form von Stunden:Minuten:Sekunden:Rahmen. Eine jeweilige Taktzeit gehört zu jeder Editierstelle, so daß, wenn der Taktzeitgenerator eine spezielle Taktzeit erzeugt, die Editierstelle auf dem VTR 3, der dazu gehört, erreicht wird.
- Die Zeitverzögerungsermittlungseinrichtung 16 ist mit dem Bildprozessor 8 verbunden und ermittelt die inhärente Zeitverzögerung durch den Bildprozessor 8 in bezug auf die Videosignale, die dahin vom VTR 3 geliefert werden. Es wird erwartet, daß diese Zeitverzögerung eine oder mehrere Rahmenzeiten aufweist. Die durch den Zeitverzögerungsdetektor 16 steht mit der Subtraktionsschaltung 18 in Verbindung, die den Schnittanfangspunkt um einen Betrag ändert, der im wesentlichen gleich der ermittelten Zeitverzögerung ist. In einem Fall wird, wie später erklärt wird, diese Schnittanfangspunkt-Änderung durch Subtrahieren der ermittelten Zeitverzögerung von den Taktdaten erzielt, die mit dieser Editierstelle verbunden sind. Man sieht, daß, wenn die so reduzierte Taktzeit durch den Taktzeitgenerator 11 erreicht wird, die VTR-Steuerung 30 den VTR 3 so betätigt hat, daß er den Schnittanfangspunkt erreicht. Folglich wird das Segment des Videoprogramminforination, das vom VTR 3 reproduziert wird, daraus in einem Zeitpunkt reproduziert werden, der dem erwarteten Zeitpunkt um einen Betrag vorausgeht, der gleich der ermittelten Zeitverzögerung des Bildprozessors 8 ist. Zu diesem Zeitpunkt wird das durch den Aufzeichnungs-VTR 4 bearbeitete Editierband noch nicht den Schnittanfangspunkt erreicht haben. Da jedoch während der Zeit, während das durch den VTR 3 reproduzierte Videosignal durch den Bildprozessor zum Aufzeichnungs-VTR 4 läuft, wird der Schnittanfangspunkt auf diesem erreicht und das verarbeitete Videosignal wird dort aufgezeichnet. Folglich wird das Editierband nicht das unerwünschte Intervall aufweisen, das diesem Schnittanfangspunkt vorhergeht.
- Fig. 9 zeigt die Zeitkompensationseinrichtung 9 ausführlicher. Weiter ist zum besseren Verständnis die VTRSteuerung 30 so gezeigt, daß sie eine Wiedergabesteuerschaltung 12 aufweist, die mit dem Wiedergabe-VTR 3 und einer Wiedergabesteuerschaltung 13 in Verbindung steht, die mit dem Aufzeichnungs-VTR 4 in Verbindung steht.
- Die Zeitkompensationseinrichtung 9 weist wie vorher einen Zeittaktgenerator 11, einen Zeitverzögerungsdetektor 16 und eine Subtraktionsschaltung 18 auf, und sie weist ebenfalls eine Bildverarbeitungssteuerschaltung 14, einen Zeittabellenspeicher 15, eine Verzögerungsbezeichnungseinrichtung 17 und eine Modusauswahleinrichtung 19 auf. Die Bildverarbeitungssteuerschaltung 14 steht mit dem Bildprozessor 8 in Verbindung und sie steuert die Verarbeitung gemäß den Taktsignalen, die durch den Taktzeitgenerator 11 geliefert werden. Die Bildverarbeitungssteuerschaltung 14 ist nicht Bestandteil dieser Erfindung und sie wird daher nicht weiter beschrieben.
- Der Zeittabellenspeicher 15 speichert eine Wiedergabezeittabelle und eine Aufzeichnungszeittabelle, wie sie in Fig. 10 bzw. 11 gezeigt ist. Die Wiedergabezeittabelle weist Zeitcodeadressen auf, die verschiedene Editierstellen auf dem Videoband darstellen, das durch den VTR 3 wiedergegeben wird. Jeder Editierstelle steht mit den Taktdaten in Verbindung, die die Taktzeit identifizieren, die durch den Taktzeitgenerator 11 gemeinsam mit der Editierstelle erreicht wird. Wenn beispielsweise der Zeittaktgenerator 11 die Taktzeit 01:00:00 erzeugt, wird die Editierstelle, die durch den Zeitcode 03:00:00 erkannt wird, erreicht. Die Wiedergabezeittabelle, die in Fig. 10 gezeigt ist, enthält auch eine Identifikation der Geschwindigkeit, mit der das Band von dieser Editierstelle zur nächsten transportiert werden soll.
- In ähnlicher Weise enthält die Aufzeichnungszeittabelle, die im Zeittabellenspeicher 15 gespeichert ist und die in Fig. 11 gezeigt ist, die Zeitcodes auf dem Editierband, die durch den Aufzeichnungs-VTR 4 verarbeitet wurden, die den Zeittakten entsprechen, die die Editierstellen des VTR 3 erkennen. Die Aufzeichnungszeittabelle enthält auch eine Erkennung der Schnittanfangspunkte und der Schnittendepunkte des Editierbands. Wenn beispielsweise das Editierband den Zeitcode 04:10:00 erreicht, wird nicht aufgezeichnet. Man sieht jedoch, daß die Stelle des Editierbandes, die durch den Zeitcode 05:40:00 erkannt wird, ein Schnittanfangspunkt ist, bei dem die Aufzeichnung beginnt. Der Schnittendepunkt für diese Aufzeichnung, das heißt, die Stelle, an der die Aufzeichnung endet, wird als Zeitcode 06:15:00 erkannt. Die Schnittanfangspunkte und die Schnittendepunkte entsprechen den Taktzeiten 02:30:00 und 03:05:00.
- Der Zeittabellenspeicher 15 steht mit der Wiedergabesteuerschaltung 12 und der Aufzeichnungssteuerschaltung 13 in Verbindung und liefert die Wiedergabezeittabelle zur Wiedergabesteuerschaltung 12 und die Aufzeichnungszeittabelle zur Aufzeichnungssteuerschaltung 13. Der Taktzeitgenerator 11 steht mit dem Zeittabellenspeicher 15 und weiter mit den entsprechenden Wiedergabe- und Aufzeichnungssteuerschaltungen 12 und 13 in Verbindung. Die Wiedergabe- und Aufzeichnungssteuerschaltungen 12 und 13 vergleichen Taktzeiten, die durch den Taktzeitgenerator 11 erzeugt werden, mit der Taktzeit, die in den Wiedergabe- und Aufzeichnungszeittabellen gespeichert ist. Dieser Vergleich wird dazu verwendet, den Aufzeichnungs- und Wiedergabebetrieb der VTRs 3 und 4 entsprechend zu steuern.
- Die Verzögerungsbezeichnungseinrichtung 17 steht mit dem Verzögerungsdetektor 16 in Verbindung und rundet die ermittelte Zeitverzögerung auf die nächste Rahmenzeitdauer ab. Wenn beispielsweise eine Verzögerung von ungefähr 1/30 Sekunde ermittelt wird, erzeugt die Verzögerungsbestimmungseinrichtung 17 eine Verzögerungszeit von 00:00:01. Wenn der Verzögerungsdetektor 16 eine Bildprozessor-Zeitverzögerung von ungefähr beispielsweise 3,7/30 Sekunden ermittelt, erzeugt die Verzögerungsbestimmungseinrichtung 17 eine Verzögerungszeit von 00:00:04. Die Verzögerungsbestimmungseinrichtung 17 steht mit der Subtrahierschaltung 18 in Verbindung, die wiederum mit dem Zeittabellenspeicher 15 in Verbindung steht.
- Die Aufgabe der Subtrahierschaltung 18 besteht darin, die Verzögerungszeit, die von der Verzögerungsbestimmungseinrichtung 17 erzeugt wird, von der Taktzeit abzuziehen, die mit dem Schnittanfangspunkt in Verbindung steht, der in der Wiedergabezeittabelle gespeichert ist. Man sieht, daß dadurch wirksam die Taktzeit nach vorne vorgerückt wird, bei der dieser Schnittanfangspunkt erreicht wird, um einen Betrag, der im wesentlichen gleich der Zeitverzögerung ist, die dem Bildprozessor 8 anhaftet. Die Subtrahierschaltung 18 kann man sich als Wiedereinschreibschaltung für die Taktzeiten vorstellen, die in der Wiedergabezeittabelle des Zeittabellenspeichers 15 gespeichert sind.
- Die Subtrahierschaltung 18 steht weiter mit der Modusauswahleinrichtung 19 in Verbindung, die den Subtrahierbetrieb in Abhängigkeit vom Editiermodus einrichtet oder löscht, der durch die Bedienungsperson ausgewählt werden kann. Beispielsweise löscht die Modusauswahleinrichtung 19 den Subtrahierbetrieb in dem Fall, wenn kein Editierbetrieb durch die Bedienungsperson ausgewählt wird. Wenn das Editierband, das durch den Aufzeichnungs-VTR 4 bespielt wurde, durch den Bildprozessor 8 wiedergegeben wird und auf dem Monitor 5 angezeigt wird, will man nicht die Taktzeiten ändern, die im Zeittabellenspeicher 15 gespeichert sein können; für diesen Modus wird der Subtrahierbetrieb nicht durchgeführt.
- Es wird nun die Art und Weise, in der die Zeitkompensationseinrichtung 9 arbeitet, unter Bezugnahme auf die in den Figuren 12A bis 12C gezeigten schematischen Darstellungen beschrieben, die das Problem aufzeigen, das mit der Zeitverzögerung verbunden ist, die durch den Bildprozessor 8 übertragen wird, sowie die Lösung für dieses Problem. Es sei angenommen, daß die in Fig. 10 gezeigte Wiedergabezeittabelle und die in Fig. 11 gezeigte Aufzeichnungszeittabelle im Zeittabellenspeicher 15 gespeichert sind. Die Zeittabellen können natürlich erzeugt werden, wenn ein Editor die Eingabeeinrichtung 50 Fig. 4 bedient, um Segmente aus dem VTR 3 auszuwählen, die für Spezialeffekte bildmäßig verarbeitet werden sollen und dann auf dem VTR 4 aufgezeichnet werden sollen. Die in Fig. 10 und 11 gezeigten Taktzeitdaten werden durch den Taktzeitgenerator 11 während des Beginns des Editierbetriebs erzeugt, das heißt, des Betriebs, der durch Editor verwendet wird, um die gewünschten Editierstellen auf dem Videoband auszuwählen, das durch den VTR 3 wiedergegeben wird, um den Modus auszuwählen, mit dem Segmente der Videoinformation durch den VTR (beispielsweise normal, schnell, langsam usw.) wiedergegeben werden, und um die Schnittanfangs- und Schnittendepunkte auszuwählen, um diese Segmente auf dem VTR 4 aufzuzeichnen.
- Bei einem Fehlen des Zeitverzögerungsdetektors 16, der Verzögerungsbestimmungseinrichtung 17 und der Subtrahierschaltung 18 wird, wenn ein Segment der Videoinformation, die sich mit dem Zeitcode 04:30:00 auf dem Videoband befindet, das durch den VTR 3 wiedergegeben wird, auf das Editierband übertragen werden soll, das durch den VTR 4 über den Bildprozessor 8 bespielt werden soll, das übertragene verarbeitete Segment nicht den VTR 4 in dem Zeitpunkt erreichen, wo die Position auf dem Editierband, die durch den Zeitcode 05:40:00 erkannt wird, erreicht wird. Der Grund dafür liegt darin, daß der Bildprozessor 8 die im anhaftende Zeitverzögerung auf die Videosignale überträgt, die durch ihn verarbeitet werden. Es sei angenommen, daß diese Zeitverzögerung gleich einer Rahmenzeit oder 1/30 Sekunde ist, was durch 00:00:01 ausgedrückt wird. Fig. 12A zeigt die Aufzeichnung des bildverarbeiteten Segments durch den Auf zeichnungs-VTR 4. Wegen der Zeitverzögerung, die der Bildprozessor 8 aufweist, wird das Segment, das von einer Stelle 04:30:00 auf dem Ursprungsband wiedergegeben wird, an einer Stelle 05:40:01 auf dem Editierband aufgezeichnet. Folglich bleibt das Intervall vom Zeitcode 05:40:00 bis 05:40:01 auf dem Editierband frei.
- Aus Fig. 12A sieht man, daß, da das Ursprungsband und das Editierband synchron vorlaufen, wenn der Taktzeitgenerator 11 die Taktzeit 02:30:00 erzeugt, um die Editierstellen auf sowohl dem Quellen- als auch dem Editierband zu erkennen, das Ursprungsband an einer Stelle positioniert ist, die durch den Zeitcode 04:30:00 dargestellt wird und das Editierband an einer Stelle positioniert ist, die durch den Zeitcode 05:40:00 dargestellt wird. Wenn der Bildprozessor 8 fehlt, wird ein Segment der Videoinformation, die von der Position 004:30:00 reproduziert wird, auf dem Editierband in der Position 05:40:00 aufgezeichnet. Wegen der Bildverarbeitungsverzögerung wird das verarbeitete Segment der Videoinformation jedoch nicht aufgezeichnet, bis das Editierband die Position 05:40:01 erreicht.
- Die Subtrahierschaltung 18 kompensiert diese Zeitverzögerung. Es sei angenommen, daß der Verzögerungsdetektor 16 eine Bildverarbeitungszeitverzögerung ermittelt, die ungefähr gleich der Zeitdauer des Rahmens ist. Die Verzögerungsbestimmungseinrichtung 17 rundet diese ermittelte Verzögerungszeit auf 00:00:01 ab und liefert diese bestimmte Zeitverzögerung zur Subtrahierschaltung 18. In diesem Zeitpunkt gibt der Modus, der durch die Modusauswahleinrichtung 19 ausgewählt wurde, die Subtrahierschaltung 18 frei, um einen Subtrahierbetrieb auszuführen. Folglich wird die Taktzeit 02:30:00, die in der Wiedergabezeittabelle im Zeittabellenspeicher 15 gespeichert ist, durch Subtrahieren der bestimmten Zeitverzögerung von dieser gespeicherten Taktzeit wiedereingeschrieben. Daher wird die Taktzeit, die in der Wiedergabezeittabelle gespeichert ist und der Zeitcodeposition des Ursprungsbands von 04:30:00 entspricht, so geändert, daß sie gleich 02:29:29 ist. Diese wiedereingeschriebene Wiedergabezeittabelle wird zur Wiedergabesteuerschaltung 12 geliefert.
- Wenn jetzt ein Editiervorgang durchgeführt wird, vergleicht die Wiedergabesteuerschaltung 12 die Taktzeiten, die durch den Taktzeitgenerator 11 erzeugt werden, mit den geänderten Taktzeiten, die in der Wiedergabezeittabelle gespeichert sind. Wenn die erzeugte Taktzeit gleich der geänderten gespeicherten Taktzeit von 02:29:29 ist, ist die Position des Ursprungsbands, die dieser Taktzeit entspricht, erreicht und das Segment der Videoinformation, die darauf aufgezeichnet ist, wird wiedergegeben. Folglich wird die Videoinformation, die an der Editierstelle 04:30:00 aufgezeichnet ist, wiedergegeben, zum Bildprozessor 8 geliefert und auf dem Editierband durch den VTR 4 wiederaufgezeichnet. Bis die verarbeiteten Videosignale den Aufzeichnungs-VTR erreichen, erzeugt der Taktzeitgenerator 11 die Taktzeit 02:30:00, wobei der Schnittanfangspunkt 05:40:00 auf dem Editierband erreicht ist. Folglich wird das bildverarbeitete Segment der Videoinformation an diesem Schnittanfangspunkt auf dem Editierband aufgezeichnet, wie in Fig. 12B gezeigt ist. Dies ist natürlich die Stelle, bei der das Segment aufgezeichnet werden soll und daher wird das in Fig. 12A auftretende freie Intervall vermieden.
- Obwohl es nicht gezeigt ist, erkennt man, daß das Segment der Videoinformation, das durch den VTR 3 reproduziert wird, weiterläuft, bis ein Schnittendeeditierpunkt erreicht ist. Aus Fig. 10 sieht man, daß dieser Schnittendepunkt bei der Taktzeit 03:05:00 erreicht wird, die der Zeitcodeposition 05:40:00 entspricht. Darüber hinaus wird das Ursprungsband mit einer Geschwindigkeit weiter befördert, die durch die Bandgeschwindigkeitsdaten bestimmt wird, die in der Wiedergabezeittabelle gespeichert sind. In dem hier beschriebenen Beispiel wird dieses Segment der Video information mit der zweifachen Normalbandgeschwindigkeit wiedergegeben. Die Aufzeichnung dieses bildverarbeiteten Segments auf dem Editierband beginnt an einer Position, die durch den Zeitcode 05:40:00 ermittelt wird (das heißt, am Schnittanfangspunkt auf dem Editierband), und geht weiter, bis der Schnittendepunkt erreicht ist. In diesem Beispiel wird das Segment 35 Sekunden lang aufgezeichnet und der Schnittendepunkt auf dem Editierband ist 06:15:00, wie in der Aufzeichnungszeittabelle von Fig. 11 gezeigt ist. Ein Vergleich von Fig. 10 und 11 zeigt, daß die zweifache Länge des Ursprungsbands verwendet wird, um das Segment zu reproduzieren, das auf dem Editierband aufgezeichnet wird, da das Ursprungsband mit der zweifachen Normalgeschwindigkeit angetrieben wird.
- Wenn jedes Segment, das vom VTR 3 reproduziert werden soll, einer Bildverarbeitung unterworfen werden soll, werden die Taktzeiten, die in der Wiedergabezeittabelle für alle Editierstellen gespeichert sind, um die erkannte Zeitverzögerung reduziert, die vom Zeitverzögerungsdetektor 16 hergeleitet wird. Wenn Videosegmente vom Ursprungsband auf das Editierband übertragen werden, wird jedes Taktzeitsignal, das durch den Taktzeitgenerator 11 erzeugt wird, mit jeder Taktzeit verglichen, die in der Wiedergabezeittabelle gespeichert ist, und mit jeder Taktzeit, die in der Aufzeichnungszeittabelle gespeichert ist. Die Ursprungs- und Editierbänder werden durch die Wiedergabesteuerschaltung 12 und die Aufzeichnungssteuerschaltung 13 gesteuert, so daß, wenn die erzeugte Taktzeit mit der gespeicherten Taktzeit übereinstimmt (insbesondere eine wiedereingeschriebene Taktzeit, die in der Wiedergabezeittabelle gespeichert ist), die Ursprungs- und Editierbänder an Zeitcodes positioniert werden, die dieser gespeicherten Taktzeit entsprechen. Dann wird in Abhängigkeit von den Editierdaten, die in der entsprechenden Zeittabelle gespeichert sind, der befohlene Editierbetrieb ausgeführt. Beispielsweise kann in der Wiedergabezeittabelle der Editierbefehl die Geschwindigkeit bestimmen, mit der das Ursprungsband transportiert wird, um die darauf befindlichen Videoinformationen wiederzugeben. In der Aufzeichnungszeittabelle ermittelt der Editierbefehl die Schnittanfangs- und Schnittendepunkte auf dem Editierband, das heißt die Punkte, bei denen eine Wiederauf zeichnung beginnt und endet.
- Obwohl oben ein Zeitverzögerungskompensationsbetrieb beschrieben wurde, wo die Taktzeiten, die in der Wiedergabezeittabelle gespeichert sind, in Abhängigkeit von der ermittelten Bildverarbeitungszeitverzögerung reduziert werden, um so die Zeit vorzurücken, in welcher eine Editierstelle auf dem Quellenband erreicht wird, kann eine Zeitkompensation durch Vergrößern der Taktzeiten, die in der Aufzeichnungszeittabelle gespeichert sind, durchgeführt werden, um so die Ankunft der Editierstelle auf dem Editierband zu verzögern. Wenn man beispielsweise annimmt, daß das Segment der Videoinformation, das vom Ursprungsband in der Taktzeit 02:30:00 reproduziert wird, bildverarbeitet wird und am Schnittanfangspunkt 05:40:00 auf dem Editierband aufgezeichnet werden soll, kann die Taktzeit, die diesem Zeitcode entspricht, in der Aufzeichnungszeittabelle als 02:30:01 wiedereingeschrieben werden. Somit wird, wie in Fig. 12C gezeigt ist, wenn der Taktzeitgenerator 11 die Taktzeit 02:30:00 erzeugt, die Editierstelle, die durch den Zeitcode 04:30:00 auf dem Ursprungsband erkannt wird, erreicht und die dortige Videoinformation reproduziert. In diesem Zeitpunkt jedoch ist das Editierband im Zeitcode positioniert, der durch 05:39:29 erkannt wird. Somit wird, wenn der Taktzeitgenerator 11 die Taktzeit 02:30:01 erzeugt, der Schnittanfangspunkt, der durch den Zeitcode 05:40:00 auf dem Editierband erkannt wird, erreicht und das bildverarbeitete Videosignal wird dann darauf aufgezeichnet. Folglich wird die durch den Bildprozessor 8 übertragene Zeitverzögerung kompensiert und das nichtgewünschte freie Intervall zwischen dem Schnittendepunkt des vorherigen Segments, das zum Editierband übertragen wird, und dem Schnittanfangspunkt des nächstfolgenden Segments, beseitigt.
- Beachtet man nun Fig. 13, so ist dort eine schematische Darstellung einer Editiersteuertafel gezeigt, die in der Eingabeeinrichtung 50 vorhanden ist und durch einen Editor betätigbar ist. Die Art und Weise, mit der die diese Steuertafel betätigt wird und die dadurch erzielbaren Effekte werden nun kurz beschrieben.
- Um den VTR 1 für einen Wiedergabebetrieb auszuwählen, betätigt der Editor einen VTR-Auswahlknopf L. Um dann auf dem Videoband, das durch den VTR 1 wiedergegeben wird, nach einem gewünschten Segment zu suchen, wird ein Sprungmoduseinstellknopf P betätigt und die Geschwindigkeit, mit der das Band transportiert wird, kann durch Betätigung einer Sprungwählscheibe R eingestellt werden. Beispielsweise und unter Bezugnahme auf die in Fig. 4 gezeigte Ausführungsform, wo auf den VTRs 1, 2 und 3 die gleiche Szene aufgezeichnet wurde, die durch verschiedene Cameras aufgenommen wurde, wird eine spezielle Szene auf dem VTR 1 durch Betätigung der Sprungwählscheibe R gesucht. Wenn die gewünschte Szene erreicht ist, wird ein VTR-Auswahlknopf M betätigt, um das Videoband zu suchen, das durch den VTR 2 mit der gleichen Szene bespielt ist. Auf die gleiche Weise wird diese Szene, die auf dem Videoband aufgezeichnet ist, das durch VTR 3 bespielt ist, durch Betätigung eines VTR-Auswahlknopfs N gesucht. Durch Umschalten von einem VTR zum anderen kann der Editor die gleiche Szene beobachten, die auf jedem Videoband aufgezeichnet ist.
- Um die drei Videobänder synchron zu transportieren, so daß sie die Stelle einer Szene simultan erreichen, betätigt der Editor einzelne Knöpfe der VTR-Auswahlknöpfe L, M und N, während er die Sprungwählscheibe R betätigt und die Videoinformation beobachtet, die auf dem Monitor 5 angezeigt wird. Um die Bewegung auf einem Ursprungsband gegenüber den anderen Bändern zu beschleunigen oder zu verzögern, kann ein Beschleunigungsknopf B oder ein Verzögerungsknopf C betätigt werden, um das Videoband zu beschleunigen oder zu verzögern, das durch den ausgewählten VTR transportiert wird. Dieses Verfahren wird wiederholt, bis der Editor beobachtet, daß die gewünschte Stelle der Szene im wesentlichen simultan von den VTRs 1, 2 und 3 wiedergegeben wird. In diesem Zeitpunkt betätigt der Editor einen Synchronisationspunkt-Einstellknopf S, um die Zeitcodes, die aus den VTRs 1, 2 und 3 gelesen werden, auf den synchronisierten Zeitcodedetektor 7 zu übertragen. Diese Zeitcodes umfassen somit die oben erwähnten synchronisierten Zeitcodes.
- Um nun einen Editiervorgang durchzuführen, wo jetzt alle VTRs synchronisiert sind, wird ein gewünschtes Segment auf jedem VTR erkannt, während die VTRs gemeinsam und synchron arbeiten. Beispielsweise wird ein Segment auf dem VTR 1 durch Betätigung des VTR-Auswahlknopfs L und der Sprungwählscheibe R erkannt, bis der Anfang dieses Segments erreicht ist. In diesem Zeitpunkt wird der Editierbeginnknopf D betätigt, um den Zeitcode auf dem VTR 1 zum Pufferspeicher 42 und von dort zum Datenspeicher 44 zu übertragen, um die Editierstelle zu identifizieren. Der Zeitcode, der dieser Editierstelle entspricht, wird auf der Zeitcodeanzeige H angezeigt. Wenn das Ende dieses Segments beobachtet wird, betätigt der Editor den Editierendknopf E; der Zeitcode, der dann vom VTR 1 gelesen wird, wird zum Pufferspeicher 42 und dann zum Datenspeicher 44 übertragen. Die Editierstelle, die durch diesen Zeitcode identifiziert wird, wird durch die Zeitcodeanzeige H angezeigt.
- Ein ähnlicher Betrieb wird durchgeführt, um den Beginn und das Ende anderer gewünschter Segmente zu identifizieren, die vom VTR 2 oder dem VTR 3 reproduziert werden. Vorzugsweise werden die Zeitcodes, die die Start- und Endeditierpunkte auf dem VTR 2 identifizieren, durch eine Zeitcodeanzeige I angezeigt, und die Zeitcodes die die Start- und Endeditierpunkte auf dem VTR 3 identifizieren, werden durch eine Zeitcodeanzeige J angezeigt. Beim oben beschriebenen Beispiel werden die Zeitcodes, die vom VTR 1 reproduziert werden in jeder Editierstelle unabhängig davon, ob es der VTR 1, der VTR 2 oder der VTR 3 ist, d.h. die Wiedergabe der Videoinformation, im Datenspeicher 44 gespeichert, wenn der Editierstaftknopf D oder der Editierendknopf E betätigt wird. Alternativ dazu kann der Datenspeicher 44 die Zeitcodes liefern, die gerade vom VTR 2 oder dem VTR 3 gelesen werden, wenn Editierstellen für diese VTRs ausgewählt werden.
- Wenn eine Bildverarbeitung eines reproduzierten Segments einer Videoinformation gewünscht wird, kann durch den Editor ein Schalteinstellknopf F betätigt werden, wenn das reproduzierte Videosignal auf dem Monitor 5 angezeigt wird. Beispielsweise, wie in Fig. 4 gezeigt ist, schließt die Betätigung dieses Knopfes den Schalter 4 der Videoschaltmatrix 10. In einem anderen Fall kann der Bildprozessor 8 mit jedem der VTRs 1, 2 und 3 verbunden werden, und, wenn ein spezieller VTR ausgewählt wird, beispielsweise durch Betätigen des Auswahlknopfs L, M oder N, kann die Videoinformation, die durch diesen VTR reproduziert wird, zum Aufzeichnen auf dem Editierband durch Betätigen des Schalteinstellknopfs F bildmäßig verarbeitet werden. Wenn dieser Knopf betätigt wird, werden der Monitor 5 und der Aufzeichnungs-VTR 4 vom Ausgang dieses Wiedergabe-VTRs getrennt und mit dem Ausgang des Bildprozessors 8 verbunden.
- Wenn einmal eine Editierinformation durch die oben beschriebene Betätigung ausgewählt wurde, kann sie, wenn man es wünscht, in einfacher Weise durch Betätigung des passenden VTR-Auswahlknopfs L, M oder N überprüft werden und dann durch Wiederholung des Betriebs, durch den das Ursprungsband, das durch den ausgewählten VTR bespielt ist, nach einem neuen Segment durchsucht wird, welches dann durch Betätigen des Editierstartknopfes D und des Editierendkopfes E ausgewählt wird. Um die vorher gespeicherten Editierstellen zu überprüfen, kann ein Korrekturknopf G durch den Editor betätigt werden. Wenn weiter ein Segment vom VTR 2 an Stelle eines Segments vom VTR 1 ausgewählt werden soll, wodurch die Reihenfolge geändert wird, mit der die Videosegmente reproduziert werden sollen, kann eine neue Reihenfolge durch Betätigen der gewünschten VTR-Auswahlknöpfe, der Editierstart- und der Editierendeknöpfe D und E, des Schaltereinstellknopfs F und des Korrekturknopfs G ausgewählt werden. Somit wird eine geänderte Editierinformation erzeugt und zum Datenspeicher 44 geliefert, um die vorher ausgewählten Editierdaten zu ersetzen.
- Es werden die Schnittanfangspunkte und die Schnittendepunkte für jedes Segment, das auf den Editierband aufgezeichnet werden soll, durch Betätigen eines Aufzeichnungs-VTR-Auswahlknopfs O und der Sprungscheibe R ausgewählt, um das Editierband an Stellen zu positionieren, an die die editierten Segmente übertragen werden sollen. Es ist klar, daß der Editor die vorher auf dem Aufzeichnungs-VTR 4 aufgezeichnete Information durch den Monitor 5 beobachtet. Wenn ein gewünschter Schnittanfangspunkt erreicht ist, wird der Editierstartknopf D betätigt. Damit ist der Punkt auf dem Editierband eingerichtet, an dem die Segmentfolge, die durch den oben beschriebenen Betrieb ausgewählt wurde, aufgezeichnet wird. In einem Fall wird der Schnittendepunkt automatisch am Ende der Folge der übertragenden Segmente bestimmt. In einem anderen Fall kann der Schnittendepunkt einfach durch Betätigung des Editierendknopfes ausgewählt werden, wenn ein gewünschter Punkt auf dem Editierband auf dem Monitor 5 durch den Editor beobachtet wird.
- Um den Editierarbeit zu beobachten, die ausgewählt wurde, ohne die ausgewählten Segmente auf dem Editierband gerade wiederauf zuzeichnen, wird ein Vorschauknopf U betätigt. In diesem Zeitpunkt wird die im Datenspeicher 44 gespeicherte Editierinformation dazu verwendet, um die VTRs 1, 2 und 3 und die Schaltmatrizen 10 und 20 zu steuern, so daß die ausgewählten Segmente auf dem Monitor 5 in der gewählten Reihenfolge angezeigt werden. Wenn der Editor es wünscht, eine dieser Editierinformationen zu überprüfen, kann er dies in der oben beschriebenen Weise tun. Wenn jedoch der Editor mit der ausgewählten Editierung zufrieden ist, braucht er bloß den Editierstartknopf V zu betätigen, und die Segmente, die ausgewählt wurden, werden von den VTRs 1, 2 und 3 reproduziert, wahlweise durch den Bildprozessor 8 verarbeitet und auf dem Editierband in der speziellen Reihenfolge aufgezeichnet, die er bestimmte.
- Obwohl die Erfindung insbesondere für bevorzugte Ausführungsformen gezeigt und beschrieben wurde, ist klar, daß verschiedene Anderungen und Modifikationen durchgeführt werden können. Beispielsweise waren die hier beschriebenen Quellenmedien Videobänder. Es ist klar, daß andere geeignete Quellenmedien verwendet werden können, beispielsweise Videoplatten oder dergleichen. Obwohl hier nur drei Wiedergabe- VTRs beschrieben wurden, kann jede beliebige Zahl von Wiedergabe-VTRs (oder andere Quellenmedien) verwendet werden, um eine Videoinformation zur Aufzeichnung auf einem Editierband bereitzustellen. Obwohl ein Videoband das bevorzugte Medium zum Aufzeichnen der Editierinformation ist, können andere Medien verwendet werden, die bespielt werden können, beispielsweise eine WORM-Platte, eine löschbare optische Platte oder dergleichen.
Claims (13)
1. Vorrichtung zum Editieren einer Videoprogramminformation
von mehreren bespielten Ursprungsmedien (1, 2, 3) auf ein
Editiermedium (4), wobei jedes Ursprungsmedium (1, 2, 3) eine
Videoprogramminformation einer gemeinsamen Szene enthält, die
auf diesem Medium an einer Stelle, relativ zu ihrer
Anfangsstelle aufgezeichnet sein kann, die sich von der
Aufzeichnungsstelle dieser gleichen gemeinsamen Szene auf einem
anderen Ursprungsmedium unterscheidet, und jedes Ursprungsmedium
(1, 2, 3) Adreßdaten aufweist, die einzelne Positionen darauf
darstellen, wobei die Vorrichtung umfaßt:
eine Wiedergabeeinrichtung (1, 2, 30) zur Wiedergabe der
Programminformation der gemeinsamen Szene gleichzeitig aus
diesen Ursprungsmedien (1, 2, 3); und
eine Überwachungseinrichtung (5) zum Überwachen der
wiedergegebenen Programminformation;
gekennzeichnet durch:
eine Anzeigeeinrichtung (5, 50, 7) zum Anzeigen, wenn eine
Stelle einer Szene in der gemeinsamen Szene im wesentlichen
simultan aus diesen Ursprungsmedien (1, 2, 3) wiedergegeben
wird;
eine Speichereinrichtung (42, 44) zum Speichern der
Adreßdaten aus jedem Ursprungsmedium als synchronisierte Adreßdaten,
wobei die Adreßdaten die augenblickliche Position darstellen,
bei der die Stelle der Szene auf diesem Ursprungsmedium
aufgezeichnet ist;
eine Auswahleinrichtung (50, 30, 36, 37) zur Auswahl von
Editierstellen auf bestimmten Medien der Ursprungsmedien;
eine Referenzeinrichtung (31, 32, 33), um die ausgewählten
Editierstellen gegenüber den synchronisierten Adreßdaten in
Beziehung zu setzen; und
eine Steuereinrichtung (30) zum Steuern der
Wiedergabeeinrichtung (1, 2, 3, 30), um ausgewählte Segmente der
Videoprogramminformation aus entsprechenden Ursprungsmedien (1, 2, 3)
zum Aufzeichnen auf dem Editiermedium (4) gemäß den bezogenen
Editierstellen wiederzugeben.
2. Vorrichtung nach Anspruch 1, wobei die Auswahleinrichtung
(50, 30, 36, 37) eine Einrichtung (36, 37) zum Lesen der
Adreßdaten aus einem Ursprungsmedium (1, 2, 3) entsprechend
einem ausgewählten Editiervorgang aufweist.
3. Vorrichtung nach Anspruch 2, wobei die Referenzeinrichtung
(31, 32, 33) eine Einrichtung (31) zum Bestimmen jeder
Differenz zwischen den synchronisierten Adreßdaten eines
vorgegebenen Ursprungsmediums (1, 2, 3) und den synchronisierten
Adreßdaten von jedem der übrigen Ursprungsmedien (1, 2, 3),
eine Einrichtung (42) zum Ermitteln der Adreßdaten aus dem
vorgegebenen Ursprungsmedium (1, 2, 3) bei jeder
Editierstelle auf jedem Ursprungsmedium (1, 2, 3), und eine
Kombiniereinrichtung (32) zum Kombinieren jeder Differenz mit den
ermittelten Adreßdaten aufweist, um
Ursprungsmedien-Steueradreßdaten zum Steuern der Position der Ursprungsmedien (1,
2, 3) zu erzeugen, um die ausgewählten Editierstellen darauf
synchron zueinander zu erreichen.
4. Vorrichtung nach Anspruch 1, wobei die Steuereinrichtung
(30) eine Schalteinrichtung (10, 20) zum Liefern der von den
bestimmten Medien der verschiedenen Ursprungsmedien (1, 2, 3)
wiedergegebenen Videoprogramminformation zum Editiermedium
(4) aufweist, wenn die entsprechenden bezogenen
Editierstellen erreicht sind, um jedes ausgewählte Segment
aufzuzeichnen.
5. Vorrichtung nach Anspruch 4, wobei die Speichereinrichtung
(42, 44) die in Bezug genommene Editierstelle für jedes
Ursprungsmedium (1, 2, 3) speichert und ebenfalls die
Folgedaten speichert, die die Reihenfolge darstellen, mit der die
Videoprogramminformation, die aus den individuellen
Ursprungsmedien (1, 2, 3) wiedergegeben wird, zum Editiermedium
geliefert wird, und wobei die Schalteinrichtung (10, 20) die
bestimmten Ursprungsmedien (1, 2, 3) mit dem Editiermedium
(4) in der Reihenfolge verbindet, die durch die gespeicherten
Folgedaten dargestellt wird, zu den Zeitpunkten, wo die
gespeicherten bezogenen Editierstellen erreicht sind.
56. Vorrichtung nach Anspruch 1, wobei die vorher
aufgezeichnete Videoprogramminformation Video- und Audiosignale
enthält; und wobei die Anzeigeeinrichtung (5, 50, 7) eine
manuell betätigbare Einrichtung (S) aufweist, die betätigt werden
muß, wenn eine Bedienungsposition beobachtet, wenn
Videobilder, die aus den bestimmten Ursprungsmedien (1, 2, 3)
wiedergegeben werden, ungefähr die gleiche Stelle in der Szene
darstellen, und wenn die Audiosignale, die aus den bestimmten
Ursprungsmedien (1, 2, 3) wiedergegeben werden, im
wesentlichen die gleiche Stelle in der Szene darstellen, um dadurch
ein Synchronisationssignal in dem Zeitpunkt zu erzeugen, wo
die bestimmten Ursprungsmedien (1, 2, 3) im wesentlichen die
gleiche Stelle in der Szene simultan erreichen.
7. Vorrichtung nach Anspruch 1, wobei auf jedem
Ursprungsmedium (1, 2, 3) eine Videoprogramminformation von mehreren
Szenen vorher aufgezeichnet ist; und wobei die
Speichereinrichtung (42, 44) mehrere Szenentabellen speichert, wobei
jede Tabelle die bezogenen Editierstellen enthält, die die
entsprechenden Segmente der Videoprogramminformation erkennen,
die aus den bestimmten Ursprungsmedien (1, 2, 3)
wiederzugeben und auf das Editiermedium (4) auf zuzeichnen sind,
Folgedaten, die die Reihenfolge erkennen, in der die Segmente
wiederzugeben sind, und Szenenerkennungsdaten, die die Szene
darstellen, welche diese Segmente enthält.
8. Vorrichtung nach Anspruch 7, wobei die Steuereinrichtung
(30) eine Leseeinrichtung (43) zum Lesen einer ausgewählten
Szenentabelle aus der Speichereinrichtung (42, 44) enthält,
um die Wiedergabe der Segmente der Videoprogramminformation
zu steuern, die durch die bezogenen Editierstellen in der
ausgewählten Szenentabelle in der Ordnung erkannt werden, die
durch die Folgedaten in der ausgewählten Szenentabelle
erkannt werden.
9. Vorrichtung nach Anspruch 7, die weiter eine Einrichtung
zur wahlweisen Änderung der in Bezug genommenen
Editierstellen und der Folgedaten aufweist, die nur in einer
ausgewählten Szenentabelle gespeichert sind.
10. Vorrichtung nach Anspruch 1, wobei die Steuereinrichtung
(30) eine Bildverarbeitungseinrichtung (8) zum Verarbeiten
des Videosignals aufweist, das von zumindest einem der
Ursprungsmedien (1, 2, 3) wiedergegeben wird, um
Spezialvideoeffekte vor dessen Aufzeichnung auf das Editiermedium
dahin zu übertragen (4).
11. Vorrichtung nach Anspruch 10, wobei die Segmente der
Videoprogramminformation mit Taktzeiten aufgezeichnet sind und
wobei die Bildverarbeitungseinrichtung (8) eine ihr
anhaftende Zeitverzögerung aufweist; und wobei die
Steuereinrichtung (30) weiter eine Einrichtung zur Erkennung einer
Aufzeichnungseditierstelle auf dem Editiermedium (4) aufweist,
bei dem das verarbeitete Signal aufgezeichnet werden soll,
eine Zeiteinrichtungsvorrichtung (11, 15) zur Einrichtung der
Taktzeit, mit der die Aufzeichnungseditierstelle auf dem
Aufzeichnungsmedium und die in Bezug genommene Editierstelle,
bei dem das ausgewählte Segment der Videoprogramminformation
aus dem Ursprungsmedium (1, 2, 3) wiedergegeben wird und
durch die Bildverarbeitungseinrichtung (8) verarbeitet wird,
beide auftreten, und eine Modifikationseinrichtung (17, 18)
zur Modifizierung des Auftretens der
Aufzeichnungseditierstelle oder der in Bezug genommenen Editierstelle
hinsichtlich der eingerichteten Taktzeit, um die ihr anhaftende
Zeitverzögerung zu kompensieren, so daß das verarbeitete
Videosignal an der Aufzeichnungseditierstelle aufgezeichnet wird.
12. Vorrichtung nach Anspruch 11, wobei die Steuereinrichtung
(30) eine Wiedergabespeichereinrichtung (15, 12) zum
Speichern einer Wiedergabetabelle aufweist, die die in Bezug
genommenen Editierstellen aufweist, die die entsprechenden
Segmente einer Videoprogramminformation erkennen, die aus dem
Ursprungsmedium (1, 2, 3) wiederzugeben ist und die
bildverarbeitet ist zur Aufzeichnung und zum Speichern von
Taktdaten, die Taktzeiten erkennen, die jeder in Bezug genommenen
Editierstelle entsprechen, und eine
Aufzeichnungsspeichereinrichtung (15, 13) zum Speichern einer Aufzeichnungstabelle,
die die Aufzeichnungsmontagepunkte enthält, die diese Punkte
auf dem Editiermedium (4) erkennen, bei denen jedes
bildverarbeitete Segment der Videoprogramminformation aufgezeichnet
werden soll, und zum Speichern von Taktdaten, die die
Taktzeiten erkennen, die jedem Aufzeichnungsmontagepunkt
entsprechen; und wobei die Modifikationseinrichtung (17, 18) eine
Einrichtung zum Lesen der gespeicherten Wiedergabetabelle und
der gespeicherten Aufzeichnungstabelle aufweist, eine
Taktgeneratoreinrichtung (11) zum Erzeugen von Taktzeitsignalen,
während die Videoprogramminformation aus den Ursprungsmedien
(1, 2, 3) wiedergegeben wird und Segmente auf dem
Editiermedium (4) aufgezeichnet werden, so daß jeder bezogene
Montagepunkt und jeder Aufzeichnungsmontagepunkt erreicht wird, wenn
die Taktgeneratoreinrichtung (11) Taktzeitsignale
entsprechend dazu erzeugt, und eine Einstelleinrichtung (18) zum
Einstellen der Taktdaten, die in einer der Wiedergabe- oder
Aufzeichnungstabellen gespeichert sind, um einen Betrag, der
im wesentlichen gleich der ihr anhaftenden Zeitverzögerung
ist.
13. Vorrichtung nach Anspruch 12, wobei die
Einstelleinrichtung (18) eine Subtrahiereinrichtung (18) zum Subtrahieren
eines Betrags aufweist, der im wesentlichen gleich der
inhärenten Zeitverzögerung von den Taktdaten ist, die der in
Bezug genommenen Editierstelle entsprechen, bei dem das Segment
der Videoprogramminformation, das verarbeitet werden soll,
aus einem Ursprungsmedium (1, 2, 3) wiedergegeben wird, um
dadurch modifizierte Taktdaten zu erzeugen; und wobei die
Steuereinrichtung (30) eine Einrichtung zum Vergleichen der
erzeugten Zeittaktsignale mit den modifizierten Taktdaten
aufweist, um zu ermitteln, wann das Segment einer
Videoprogramminformation, das verarbeitet werden soll, lagerichtig
ist, um wiedergegeben zu werden.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1108775A JP2840755B2 (ja) | 1989-04-27 | 1989-04-27 | プログラム送出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69015871D1 DE69015871D1 (de) | 1995-02-23 |
DE69015871T2 true DE69015871T2 (de) | 1995-05-24 |
Family
ID=14493165
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69027625T Expired - Lifetime DE69027625T2 (de) | 1989-04-27 | 1990-04-24 | Programmübertragungssystem und -verfahren |
DE69015871T Expired - Lifetime DE69015871T2 (de) | 1989-04-27 | 1990-04-26 | Verfahren für die Montage einer Videoprogramm-Information. |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69027625T Expired - Lifetime DE69027625T2 (de) | 1989-04-27 | 1990-04-24 | Programmübertragungssystem und -verfahren |
Country Status (8)
Country | Link |
---|---|
US (1) | US5182640A (de) |
EP (2) | EP0394939B1 (de) |
JP (1) | JP2840755B2 (de) |
KR (1) | KR0167771B1 (de) |
AU (1) | AU638242B2 (de) |
CA (1) | CA2015546C (de) |
DE (2) | DE69027625T2 (de) |
SG (1) | SG92602A1 (de) |
Families Citing this family (76)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5099319A (en) * | 1989-10-23 | 1992-03-24 | Esch Arthur G | Video information delivery method and apparatus |
DE4008081A1 (de) * | 1990-03-13 | 1991-09-19 | Thomas Reussner | Mehrkanalige vorrichtung zum digitalen aufzeichnen und wiedergeben von audiosignalen |
US5790198A (en) * | 1990-09-10 | 1998-08-04 | Starsight Telecast, Inc. | Television schedule information transmission and utilization system and process |
US7210159B2 (en) * | 1994-02-18 | 2007-04-24 | Starsight Telecast, Inc. | System and method for transmitting and utilizing electronic programs guide information |
US5619274A (en) * | 1990-09-10 | 1997-04-08 | Starsight Telecast, Inc. | Television schedule information transmission and utilization system and process |
AU644220B2 (en) * | 1990-10-23 | 1993-12-02 | Sony (Australia) Pty Limited | Automatic transmission system multi-channel scheduling |
US5296848A (en) * | 1990-10-23 | 1994-03-22 | Sony (Australia) Pty Limited | Method and apparatus for triggering an automatic transmission |
EP0482802B1 (de) * | 1990-10-23 | 1996-09-25 | Sony Australia Limited | Automatisches Übertragungsverfahren für Fernseh- und Rundfunkübertragung |
AU644221B2 (en) * | 1990-10-23 | 1993-12-02 | Sony (Australia) Pty Limited | Method and apparatus for triggering an automatic transmission system |
WO1993011635A1 (en) * | 1991-12-03 | 1993-06-10 | Esch Arthur G | Multiple media delivery network method and apparatus |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
FR2687523B1 (fr) * | 1992-02-18 | 1995-01-20 | Telediffusion Fse | Regie de diffusion de programmes audiovisuels. |
US5715018A (en) * | 1992-04-10 | 1998-02-03 | Avid Technology, Inc. | Digital advertisement insertion system |
GB2269512B (en) | 1992-08-03 | 1996-08-14 | Nokia Mobile Phones Uk | Radio arrangement |
JPH06139671A (ja) * | 1992-10-27 | 1994-05-20 | Sony Corp | 記録再生システム |
US7168084B1 (en) | 1992-12-09 | 2007-01-23 | Sedna Patent Services, Llc | Method and apparatus for targeting virtual objects |
US9286294B2 (en) | 1992-12-09 | 2016-03-15 | Comcast Ip Holdings I, Llc | Video and digital multimedia aggregator content suggestion engine |
US5812937B1 (en) * | 1993-04-08 | 2000-09-19 | Digital Dj Inc | Broadcast data system with multiple-tuner receiver |
FR2711025B1 (fr) * | 1993-10-07 | 1995-11-17 | Telediffusion Fse | Système de diffusion de programmes radiophoniques ou de télévision à décrochages locaux. |
US8793738B2 (en) | 1994-05-04 | 2014-07-29 | Starsight Telecast Incorporated | Television system with downloadable features |
WO1995031069A1 (en) * | 1994-05-04 | 1995-11-16 | Starsight Telecast, Inc. | Television schedule information transmission and utilization system and process |
EP0761061A4 (de) * | 1994-05-04 | 2000-01-12 | Starsight Telecast Inc | Fernsehprogramminformationsübertragungs- und -benutzungssystem und -methode |
KR100409187B1 (ko) * | 1994-08-16 | 2004-03-10 | 소니 가부시끼 가이샤 | 텔레비젼신호수신및프로그램절환장치와방법과원격조정기 |
DE19540661A1 (de) * | 1994-11-03 | 1996-05-09 | Tektronix Inc | Videoeffekte unter Verwendung eines Videoaufzeichnungs-/-abspielgeräts |
GB2299492B (en) | 1995-03-28 | 1999-12-22 | Sony Uk Ltd | Automation of signal processing apparatus |
US5740549A (en) * | 1995-06-12 | 1998-04-14 | Pointcast, Inc. | Information and advertising distribution system and method |
US6807558B1 (en) | 1995-06-12 | 2004-10-19 | Pointcast, Inc. | Utilization of information “push” technology |
US5553058A (en) * | 1995-07-10 | 1996-09-03 | Telefonaktiebolaget Lm Ericsson | Centralized load minimizing method for periodical routing verification tests scheduling |
US20020178051A1 (en) | 1995-07-25 | 2002-11-28 | Thomas G. Scavone | Interactive marketing network and process using electronic certificates |
US9530150B2 (en) * | 1996-01-19 | 2016-12-27 | Adcension, Llc | Compensation model for network services |
US20090012864A1 (en) * | 2007-07-02 | 2009-01-08 | Goldberg Sheldon F | Compensation model for network services |
US5823879A (en) * | 1996-01-19 | 1998-10-20 | Sheldon F. Goldberg | Network gaming system |
US6264560B1 (en) | 1996-01-19 | 2001-07-24 | Sheldon F. Goldberg | Method and system for playing games on a network |
US5745756A (en) * | 1996-06-24 | 1998-04-28 | International Business Machines Corporation | Method and system for managing movement of large multi-media data files from an archival storage to an active storage within a multi-media server computer system |
US20030016948A1 (en) * | 1996-09-09 | 2003-01-23 | Crim Peter L. | Method and apparatus for random-access sequencing of audio/visual information |
US6526575B1 (en) | 1997-01-07 | 2003-02-25 | United Video Properties, Inc. | System and method for distributing and broadcasting multimedia |
US6305019B1 (en) | 1997-01-13 | 2001-10-16 | Diva Systems Corporation | System for interactively distributing information services having a remote video session manager |
US7069575B1 (en) | 1997-01-13 | 2006-06-27 | Sedna Patent Services, Llc | System for interactively distributing information services |
US6166730A (en) * | 1997-12-03 | 2000-12-26 | Diva Systems Corporation | System for interactively distributing information services |
US6253375B1 (en) * | 1997-01-13 | 2001-06-26 | Diva Systems Corporation | System for interactively distributing information services |
US6208335B1 (en) | 1997-01-13 | 2001-03-27 | Diva Systems Corporation | Method and apparatus for providing a menu structure for an interactive information distribution system |
US6138162A (en) * | 1997-02-11 | 2000-10-24 | Pointcast, Inc. | Method and apparatus for configuring a client to redirect requests to a caching proxy server based on a category ID with the request |
US6173311B1 (en) | 1997-02-13 | 2001-01-09 | Pointcast, Inc. | Apparatus, method and article of manufacture for servicing client requests on a network |
US5905942A (en) * | 1997-02-18 | 1999-05-18 | Lodgenet Entertainment Corporation | Multiple dwelling unit interactive audio/video distribution system |
US5850218A (en) * | 1997-02-19 | 1998-12-15 | Time Warner Entertainment Company L.P. | Inter-active program guide with default selection control |
US7313810B1 (en) | 1997-09-25 | 2007-12-25 | The Weather Channel | Multimedia information transmission and distribution system |
US6209130B1 (en) * | 1997-10-10 | 2001-03-27 | United Video Properties, Inc. | System for collecting television program data |
ES2168595T3 (es) * | 1997-10-31 | 2002-06-16 | Sohard Ag | Metodo para crear planes de envio de datos multimedia. |
US7117440B2 (en) * | 1997-12-03 | 2006-10-03 | Sedna Patent Services, Llc | Method and apparatus for providing a menu structure for an interactive information distribution system |
US6536041B1 (en) * | 1998-06-16 | 2003-03-18 | United Video Properties, Inc. | Program guide system with real-time data sources |
US6442755B1 (en) | 1998-07-07 | 2002-08-27 | United Video Properties, Inc. | Electronic program guide using markup language |
BR9912385A (pt) | 1998-07-23 | 2002-01-15 | Diva Systems Corp | Interface de usuário gerada em um extremo de cabeça, guia de programa interativo, e, processos de geração e distribuição de uma interface de usuário, e de interação com um guia de programa interativo |
US9924234B2 (en) | 1998-07-23 | 2018-03-20 | Comcast Ip Holdings I, Llc | Data structure and methods for providing an interactive program |
US6754905B2 (en) | 1998-07-23 | 2004-06-22 | Diva Systems Corporation | Data structure and methods for providing an interactive program guide |
JP4198800B2 (ja) * | 1998-12-03 | 2008-12-17 | マスプロ電工株式会社 | 有線放送システムの分岐装置 |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
US7096487B1 (en) | 1999-10-27 | 2006-08-22 | Sedna Patent Services, Llc | Apparatus and method for combining realtime and non-realtime encoded content |
US6754271B1 (en) * | 1999-04-15 | 2004-06-22 | Diva Systems Corporation | Temporal slice persistence method and apparatus for delivery of interactive program guide |
US6904610B1 (en) | 1999-04-15 | 2005-06-07 | Sedna Patent Services, Llc | Server-centric customized interactive program guide in an interactive television environment |
US6404441B1 (en) | 1999-07-16 | 2002-06-11 | Jet Software, Inc. | System for creating media presentations of computer software application programs |
AU1576801A (en) | 1999-10-27 | 2001-05-08 | Diva Systems Corporation | Picture-in-picture and multiple video streams using slice-based encoding |
JP2001143385A (ja) * | 1999-11-16 | 2001-05-25 | Nippon Columbia Co Ltd | ディジタル・オーディオ・ディスク・レコーダ |
US7793326B2 (en) | 2001-08-03 | 2010-09-07 | Comcast Ip Holdings I, Llc | Video and digital multimedia aggregator |
US7908628B2 (en) | 2001-08-03 | 2011-03-15 | Comcast Ip Holdings I, Llc | Video and digital multimedia aggregator content coding and formatting |
US7721337B2 (en) | 2001-10-26 | 2010-05-18 | Ibiquity Digital Corporation | System and method for providing a push of background data |
US20030083977A1 (en) * | 2001-10-26 | 2003-05-01 | Majid Syed | System and method for providing electronic bulk buying |
FR2835131B1 (fr) * | 2002-01-21 | 2004-03-05 | Carlipa Systems | Systeme de diffusion de media et rocede mis en oeuvre dans un tel systeme |
US20030142129A1 (en) * | 2002-01-31 | 2003-07-31 | Kleven Michael L. | Content processing and distribution systems and processes |
DE602005021216D1 (de) * | 2005-08-10 | 2010-06-24 | Alcatel Lucent | Ablaufsteuerung für Internet Protokoll Fernsehrundfunk |
EP1753204B1 (de) * | 2005-08-10 | 2013-03-20 | Alcatel Lucent | System mit ausführenden Knoten für auszuführende Zeitpläne |
US9183753B2 (en) * | 2007-02-26 | 2015-11-10 | Sony Computer Entertainment America Llc | Variation and control of sensory work playback |
US9083938B2 (en) | 2007-02-26 | 2015-07-14 | Sony Computer Entertainment America Llc | Media player with networked playback control and advertisement insertion |
US8775245B2 (en) | 2010-02-11 | 2014-07-08 | News America Marketing Properties, Llc | Secure coupon distribution |
US9154813B2 (en) | 2011-06-09 | 2015-10-06 | Comcast Cable Communications, Llc | Multiple video content in a composite video stream |
US9948962B2 (en) | 2014-11-13 | 2018-04-17 | Time Warner Cable Enterprises Llc | Apparatus and methods for efficient delivery of electronic program guide data |
US9966110B2 (en) * | 2015-10-16 | 2018-05-08 | Tribune Broadcasting Company, Llc | Video-production system with DVE feature |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4381522A (en) * | 1980-12-01 | 1983-04-26 | Adams-Russell Co., Inc. | Selective viewing |
IT1145225B (it) * | 1981-12-07 | 1986-11-05 | Cselt Centro Studi Lab Telecom | Dispositivo per il controllo automatico tramite calcolatore dell azionamento di piu videoregistratori |
US4724491A (en) * | 1984-08-28 | 1988-02-09 | Adams-Russell Co., Inc. | Inserting television advertising spots automatically |
DE3578916D1 (de) * | 1985-04-08 | 1990-08-30 | Odetics Inc | Robotsystem zur materialbehandlung. |
US4734005A (en) * | 1985-07-19 | 1988-03-29 | Marvin Blumberg | Vending machine for video cassettes |
US4821101A (en) * | 1987-02-19 | 1989-04-11 | Isix, Inc. | Video system, method and apparatus |
US4847690A (en) * | 1987-02-19 | 1989-07-11 | Isix, Inc. | Interleaved video system, method and apparatus |
EP0291549A1 (de) * | 1987-05-19 | 1988-11-23 | Wolfgang Jellinghaus | Verfahren zur zeitgerechten Steuerung der Öffnungs- und Schliessungszeitpunkte mittels eines computergesteuerten Zeitcodes |
US4977455B1 (en) * | 1988-07-15 | 1993-04-13 | System and process for vcr scheduling | |
US4947244A (en) * | 1989-05-03 | 1990-08-07 | On Command Video Corporation | Video selection and distribution system |
US5029014A (en) * | 1989-10-26 | 1991-07-02 | James E. Lindstrom | Ad insertion system and method for broadcasting spot messages out of recorded sequence |
-
1989
- 1989-04-27 JP JP1108775A patent/JP2840755B2/ja not_active Expired - Lifetime
-
1990
- 1990-04-12 KR KR1019900005030A patent/KR0167771B1/ko not_active IP Right Cessation
- 1990-04-23 US US07/512,448 patent/US5182640A/en not_active Expired - Lifetime
- 1990-04-24 DE DE69027625T patent/DE69027625T2/de not_active Expired - Lifetime
- 1990-04-24 SG SG9608343A patent/SG92602A1/en unknown
- 1990-04-24 EP EP90107698A patent/EP0394939B1/de not_active Expired - Lifetime
- 1990-04-26 CA CA002015546A patent/CA2015546C/en not_active Expired - Lifetime
- 1990-04-26 DE DE69015871T patent/DE69015871T2/de not_active Expired - Lifetime
- 1990-04-26 EP EP90304553A patent/EP0395419B1/de not_active Expired - Lifetime
- 1990-04-26 AU AU53900/90A patent/AU638242B2/en not_active Expired
Also Published As
Publication number | Publication date |
---|---|
CA2015546A1 (en) | 1990-10-27 |
EP0395419A2 (de) | 1990-10-31 |
SG92602A1 (en) | 2002-11-19 |
JP2840755B2 (ja) | 1998-12-24 |
DE69015871D1 (de) | 1995-02-23 |
KR900017322A (ko) | 1990-11-16 |
US5182640A (en) | 1993-01-26 |
CA2015546C (en) | 2000-03-28 |
AU638242B2 (en) | 1993-06-24 |
DE69027625D1 (de) | 1996-08-08 |
EP0395419B1 (de) | 1995-01-11 |
EP0394939A2 (de) | 1990-10-31 |
EP0394939B1 (de) | 1996-07-03 |
DE69027625T2 (de) | 1997-02-20 |
AU5390090A (en) | 1990-11-15 |
KR0167771B1 (ko) | 1999-02-01 |
JPH02285873A (ja) | 1990-11-26 |
EP0395419A3 (de) | 1992-07-01 |
EP0394939A3 (de) | 1992-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69015871T2 (de) | Verfahren für die Montage einer Videoprogramm-Information. | |
DE2205893C2 (de) | Anlage zur automatischen Montage von Fernsehinformationen | |
DE2702780C2 (de) | Bandschnittsteuereinrichtung mit zwei Videomagnetbandgeräten | |
DE69327707T2 (de) | Videoverarbeitungssystem | |
DE69734222T2 (de) | Informationsaufzeichnungsträger, Aufzeichnungsgerät und Wiedergabegerät dafür | |
DE69623756T2 (de) | Kombiniertes editier-und aufzeichnungssystem für digitale,bewegte bilder | |
DE69125510T2 (de) | Offline Schnittsysteme | |
DE3051160C2 (de) | ||
DE69601319T2 (de) | Datenaufnahmemedium mit Wiedergabezeitinformation und Datenwiedergabesystem unter Verwendung dieser Information | |
DE69330173T2 (de) | Aufzeichnungs- und Wiedergabegerät | |
AT393058B (de) | Schnittsteuergeraet | |
DE69030549T2 (de) | Gerät zur digitalen Video-Überblendung | |
DE3012134C2 (de) | ||
DE19714265A1 (de) | System zum Editieren von auf Text bezogenen Videos | |
DE2440089A1 (de) | Verfahren zur farbburst-phasenanpassung und anordnungen zur durchfuehrung des verfahrens | |
DE69319811T2 (de) | Editiermethode und Editiergeräte | |
DE4220541C2 (de) | Verfahren für reservierte Aufzeichnung | |
DE3887104T2 (de) | Duales Video-Aufzeichnungs-/Wiedergabegerät. | |
DE3342520C2 (de) | ||
DE69120560T2 (de) | Einschluss von Pausenintervallen in Rundfunk-Videosignalen | |
DE3688629T2 (de) | System zur Ausführung einer sehr schnellen Videoanimierung. | |
DE69422974T2 (de) | System und methode zur wiedergabe von mehreren digitalen videoprogrammen | |
DE1449314B2 (de) | Verfahren zur synchronisation des laufs von aufzeichnungstraegern in aufzeichnungs- und wiedergabevorrichtungen waehrend der anlaufsphase sowie koppelanordnung zur durchfuehrung des verfahrens | |
DE69027390T2 (de) | Synchronisierungssignalgenerator für ein Bildsignalwiedergabegerät | |
DE3421197C2 (de) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |