DE69426894T2 - Digitales Videosignal - Google Patents
Digitales VideosignalInfo
- Publication number
- DE69426894T2 DE69426894T2 DE69426894T DE69426894T DE69426894T2 DE 69426894 T2 DE69426894 T2 DE 69426894T2 DE 69426894 T DE69426894 T DE 69426894T DE 69426894 T DE69426894 T DE 69426894T DE 69426894 T2 DE69426894 T2 DE 69426894T2
- Authority
- DE
- Germany
- Prior art keywords
- data
- stream
- digital signals
- video data
- recorded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
- H04N9/8227—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
- G11B27/105—Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
- G11B27/32—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
- G11B27/327—Table of contents
- G11B27/329—Table of contents on a disc [VTOC]
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
- H04N21/42646—Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/432—Content retrieval operation from a local storage medium, e.g. hard-disk
- H04N21/4325—Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/9201—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
- H04N5/9206—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/926—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/926—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
- H04N5/9261—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction
- H04N5/9262—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/926—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
- H04N5/9265—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal
- H04N5/9267—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/806—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
- H04N9/8063—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/18—Error detection or correction; Testing, e.g. of drop-outs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/20—Disc-shaped record carriers
- G11B2220/25—Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
- G11B2220/2537—Optical discs
- G11B2220/2562—DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
- G11B27/30—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
- G11B27/3027—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/60—Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
- H04N5/602—Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/78—Television signal recording using magnetic recording
- H04N5/781—Television signal recording using magnetic recording on disks or drums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/78—Television signal recording using magnetic recording
- H04N5/782—Television signal recording using magnetic recording on tape
- H04N5/783—Adaptations for reproducing at a rate different from the recording rate
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/84—Television signal recording using optical recording
- H04N5/85—Television signal recording using optical recording on discs or drums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
- H04N9/8045—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Television Signal Processing For Recording (AREA)
Description
- Die vorliegende Erfindung bezieht sich auf einen Strom von Digitalsignalen, und zwar auf einen auf einem Aufzeichnungsmedium wie einer magnetischen oder optischen Platte aufgezeichneten Strom.
- In den letzten Jahren sind magnetische Speicherplatten und optische Speicherplatten in verschiedenen Informationssystemen als Aufzeichnungsmedien zum Speichern einer großen Datenmenge verwendet worden. Auf einer derartigen Platte können nun dank der jüngsten Fortschritte in der Technik der schnellen Code-Komprimierung von Videodaten eine Anzahl von Programmen gespeichert werden. Es sind verschiedene Systeme der Komprimierung von Bewegtbilddaten bekannt. Ein Beispiel ist das in der ISO-Norm 11172 definierte MPEG-System.
- Um mehr Daten auf einer Platte aufzuzeichnen, ist es wünschenswert, nicht nur Signale aufzuzeichnen, die durch Kompressions-Codierung oder Codierung mit variabler Länge mittels Bewegtbild-Komprimierung erzeugt worden sind, sondern auch die Aufzeichnungsdichte des Datenaufzeichnungsbereichs einer Platte zu erhöhen. Es besteht ein Bedarf an Techniken des Datensuchens mit hoher Geschwindigkeit und des Reproduzierens bzw. Wiedergebens derselben von der Platte auf eine spezielle Weise. Wenn ein Videosignal durch Bewegtbildkomprimierung codiert wird, müssen das Videosignal und ein auf das Videosignal bezogenes Audiosignal synchronisiert sein.
- Wenn eine Platte mit Schmutz behaftet ist, ist ein Wiedergabegerät nicht in der Lage, die wichtige Information von der Platte zu lesen. Wenn einmal eine Informationstabelle zum Verwalten der auf der Plate aufgezeichneten Programme zerstört worden ist, kann das Gerät die wichtige Information nicht mehr von der Platte reproduzieren bzw. wiedergeben.
- Aufgabe der vorliegenden Erfindung ist die Bereitstellung eines Aufzeichnungsmediums, welches Daten verschiedener Typen (wie Hauptbilddaten/Videodaten, Überlagerungsbilddaten, Audivdaten) effizienter speichern kann.
- Ebenfalls offenbart ist ein Aufzeichnungsmedium (Platte), welches die Möglichkeit, daß wichtige zu benutzende Information in einem Wiedergabegerät vollständig zerstört wird, wenn die Platte beschädigt wird, minimiert.
- Gemäß der vorliegenden Erfindung ist ein Strom digitaler Signale vorgesehen, wie er in Anspruch 1 definiert ist.
- In einer bevorzugten Ausführungsform ist der Strom digitaler Signale auf einem Aufzeichnungsmedium, wie z. B. einer magnetischen oder optischen Platte, aufgezeichnet.
- Diese Erfindung ist aus der folgenden, detaillierten Beschreibung unter Bezugnahme auf die beigefügten Zeichnungen besser verständlich. In den Zeichnungen zeigen:
- Fig. 1A eine graphische Darstellung, die schematisch die gemäß einem ersten Beispiel erzeugten, codierten Daten wiedergibt,
- Fig. 1B eine graphische Darstellung, die schematisch ein durch Decodieren der codierten Daten gemäß Fig. 1A erhaltenes Ausgabebild zeigt,
- Fig. 10 eine graphische Darstellung zur Veranschaulichung des Formats komprimierter Signale, die in dem ersten Beispiel erzeugt werden,
- Fig. 2A eine graphische Darstellung, die in einem zweiten Beispiel erzeugte, codierte Daten wiedergibt,
- Fig. 2B eine graphische Darstellung, die schematisch ein durch Decodieren der codierten Daten gemäß Fig. 2A erhaltenes Ausgabebild zeigt,
- Fig. 2C eine graphische Darstellung zur Veranschaulichung des Formats von im zweiten Beispiel erzeugten, komprimierten Signalen,
- Fig. 3A eine graphische Darstellung, die schematisch die in einem dritten Beispiel erzeugten, codierten Daten wiedergibt,
- Fig. 3B eine graphische Darstellung, die schematisch ein durch Decodieren der codierten Daten gemäß Fig. 3A erhaltenes Ausgabebild zeigt,
- Fig. 3C eine graphische Darstellung zur Veranschaulichung des Formats von in dem dritten Beispiel erzeugten komprimierten Signalen,
- Fig. 4A eine graphische Darstellung des Management- bzw. Verwaltungsbereichs und des Datenbereichs einer Platte,
- Fig. 4B eine Darstellung der Dateneinheit-Zuordnungstabelle (DAT) auf der in Fig. 4A gezeigten Platte,
- Fig. 5A die im Managementbereich der Platte aufgezeichnete Managementtabelle,
- Fig. 5B eine Tabelle, welche den Inhalt von 16 Bytes im Programminformationsfeld (PIF) auf der Platte gemäß der vorliegenden Erfindung darstellt,
- Fig. 5C eine Tabelle, welche die Struktur der DAT zeigt,
- Fig. 6A eine graphische Darstellung der Adressenanordnung der in Fig. 5A gezeigten Managementtabelle, insbesondere der Adressenanordnung der DAT,
- Fig. 6B eine graphische Darstellung eines Beispiels einer Adressenanordnung, welche die Managementtabelle annehmen kann,
- Fig. 7 ein Blockschaltbild der Vorrichtung zur Bearbeitung komprimierter Videosignale,
- Fig. 8A eine graphische Darstellung des Formats codierter Videodaten,
- Fig. 8B eine graphische Darstellung des Formats codierter Audiodaten,
- Fig. 8C eine graphische Darstellung des Formats codierter Zusatzdaten,
- Fig. 9 ein Blockschaltbild eines Beispiels des im System zur Verarbeitung der in den Fig. 8A, 8B und 8C gezeigten Dateneinheiten eingegliederten Codierers,
- Fig. 10 ein Blockschaltbild eines Beispiels des im System zur Verarbeitung der in den Fig. 8A, 8B und 8C gezeigten Dateneinheiten eingegliederten Decoders,
- Fig. 11 ein Blockschaltbild eines weiteren Beispiels des im System zur Verarbeitung der in den Fig. 8A, 8B und 8C gezeigten Dateneinheiten eingegliederten Decoders,
- Fig. 12 ein Blockschaltbild zur Veranschaulichung eines Aufzeichnungs-/Wiedergabegeräts,
- Fig. 13 ein Blockschaltbild der Datenstring- Verarbeitungssektion des in Fig. 12 gezeigten Geräts,
- Fig. 14 eine Tabelle zur Darstellung der Struktur des Headers bzw. Kopfteils einer Dateneinheit,
- Fig. 15A eine perspektivische Ansicht einer Platte,
- Fig. 15B eine graphische Darstellung der auf der Platte gebildeten, spiralförmigen Spur,
- Fig. 16 eine graphische Darstellung des Inhalts der Dateneinheit DUT #0, die im Datenbereich der Platte aufgezeichnet ist,
- Fig. 17A die im Volumen-Identifizierfeld (VID) auf der Platte aufgezeichnete Tabelle sowie die Beziehung zwischen Beschreibungscodes und Sprachcodes,
- Fig. 17B die im PIF auf der Platte aufgezeichnete Tabelle,
- Fig. 17C eine Tabelle, welche die Bedeutung jedes Beschreibungscodes zeigt, und
- Fig. 18 ein Flußdiagramm zur Veranschaulichung der Funktionsweise des Datenstring-Verarbeitungsteils des in Fig. 12 gezeigten Geräts.
- Im folgenden wird die vorliegende Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
- Zunächst wird das in der vorliegenden Erfindung verwendete Bewegtbild-Kompressionsformät erklärt. Zur Codierung von Videodaten werden Bildgruppen (GOPs = groups of pictures) zur Bildung eines Datenpakets kombiniert, und Audiodaten (ungefähr 1,0 s lang) sowie Expansionsdaten werden beide für das Paket codiert. Die so codierten Daten werden den komprimierten Videodaten zur Bildung einer Dateneinheit hinzugefügt. Jede Bildgruppe (GOP) ist in demselben Programm festgelegt. Ein Sprachsynchronisier-Zeitcode ist als Header bzw. Kopfteil (d. h. der erste Teil der Dateneinheit) angeordnet, und Sub-Videodaten werden nächst dem Header angeordnet.
- In Fig. 1A ist ein Beispiel der codierten Daten dargestellt, und Fig. 1B zeigt das durch Decodieren der codierten Daten erhaltene Ausgabebild. In den Fig. 1A und 1B bedeutet I die in einem Frame (Einzelbild) codierten Videodaten, P die durch Vorwärts-Prädiktion (forward prediction) codierten Videodaten, und B die durch bidirektionale Prädiktion (bidirectional prediction) codierten Videodaten. In dieser Betriebsart werden die Komponenten I, P, B, P und B der Videodaten wiederholt in der erwähnten Reihenfolge codiert. Infolgedessen unterscheidet sich die Länge der codierten Daten von Frame zu Frame. Bei einem solchen Format erhält man bei der Wiedergabe nur von I ein Bild mit 6-facher Geschwindigkeit, und bei der Wiedergabe von I und P wird ein Bild mit doppelter Geschwindigkeit erzeugt. Die tatsächliche Vielfachgeschwindigkeit ist begrenzt durch die Geschwindigkeit, mit der die Daten von einer Platte ausgelesen werden. Dieses Format eignet sich für Hochgeschwindigkeits-Übertragungsraten, eine große Aufzeichnungskapazität und halb wahlfreien Zugriff (semirandom access). In diesem Beispiel gemäß Fig. 1C bilden sechs Frames (Einzelbilder) eine Bildgruppe (GOP) und fünf GOPs bilden ein Datenpaket. Es dauert eine Sekunde, um dieses Paket von der Platte zu reproduzieren. Die tatsächliche Länge der aufgezeichneten Signale auf der Platte sind von Paket zu Paket unterschiedlich, da die Signale durch Bewegtbild- Komprimiertechniken codiert sind.
- Daher besteht ein Datenpaket aus 30 Einzelbildern bzw. Frames ( = 5 GOPs · 6 frames/GOP). Jeder Satz von 30 Frames wird in 48 K Bytes ( = 4 ch · 12 K Bytes/s) aufgezeichnet. In diesem Fall werden zwei Kanäle gleichzeitig verwendet, und die erforderliche Mindestspeicherkapazität beträgt nur 24 K Bytes.
- Das Primärdatenelement und die Datenrate für jede auf der Platte aufzuzeichnende Dateneinheit sind wie folgt: Expansionsdaten = 128K Bits/s = 16 K Bytes/s Audiodaten = 384K Bits/s = 48K Bytes/s Bilddaten = 4096K Bits/s = 512K Bytes/s
- Die Expansionsdaten enthalten einen Header und Sub- Videodaten. Die Sub-Videodaten können z. B. als Untertiteldaten in einem Kinofilm verwendet werden. Der Header stellt individuelle Managementinformation in der Dateneinheit dar und enthält Bild-Sprach-Synchronisierdaten. Die Sub-Videodaten werden in Einheiten von GOPs fortgeschrieben, welche das entsprechende Hauptbild enthalten. Bild und Sprache bzw. Ton werden ebenfalls in Einheiten von GOPs synchronisiert, und die Synchronisierung wird ebenfalls in Einheiten von GOPs korrigiert.
- Für Untertiteldaten kann eine Anzahl von Kanälen für die Sub-Videodaten zur Verfügung gestellt werden, so daß zwei Arten von Überlagerungsbildern (sub-images) als englisches Szenarium bzw. Drehbuch und japanische Untertitel auf einem ausländischen Film ausgegeben werden können. Bei einer zugeteilten Rate von 64K Bits/s für die Sub-Videodaten und einer Aufzeichnungszeit für 1 Paket von 1,0 s beträgt die Pufferspeicherkapazität zum Zwischenspeichern bzw. Halten der Sub-Videodaten in etwa 64K Bits. Die für 2 Kanäle von Überlagerungsbildern erforderliche Pufferspeicherkapazität kann 32K Bits betragen.
- Wenn die Videodaten, die Audiodaten und die Expansionsdaten codiert worden sind, werden sie innerhalb der Dateneinheit vervollständigt und sind vollkommen unabhängig von anderen Dateneinheiten.
- Auf der Platte ist ein Managementbereich vorgesehen. Jede Dateneinheit wird in Übereinstimmung mit den im Managementbereich aufgezeichneten Daten gelesen. Da jede Dateneinheit unabhängig von allen anderen Dateneinheiten verarbeitet wird, ist ihre Aufbereitung und der Zugriff auf sie leicht.
- Im folgenden wird der Bezug zwischen dem Datenbereich und der zugeordneten Managementinformation beschrieben. Im tatsächlichen Layout wird für jede Bildgruppe ein Byte-Ausricht- bzw. Synchronisiervorgang durchgeführt, und für jede Dateneinheit wird immer ein Sektoren-Ausricht- bzw. Synchronisiervorgang durchgeführt, um eine Segmentierung der Dateneinheit zu erleichtern. Aufgrund des durchgeführten Sektorenausrichtvorgangs wird die tatsächliche Aufzeichnungskapazität der Platte verringert. Für den Fall, daß die Anzeigen-Bildfolgefrequenz 30 frame/s beträgt, jede GOP aus sechs Bildern (frames) und jede Dateneinheit aus fünf GOPs besteht, wird die Sektorenausrichtung für alle Daten durchgeführt, welche 1,0 s eines Programms entsprechen. Daher hat eine Platte, die ein 120-Minuten-Programm aufzeichnet, eine um 7200 Sektoren verminderte Aufzeichnungskapazität. Diese Verringerung beträgt 0,2% bei einer Platte, deren gesamte Aufzeichnungskapazität 346.752 Sektoren beträgt, von denen jeder 1K Byte Daten speichern kann.
- Bei einem Wiedergabevorgang wird das Bild decodiert, indem man mit dem ersten Frame (I-Bild) der GOP bzw. Bildgruppe anfängt. Die Sprache bzw. der Ton wird decodiert, indem man mit dem durch die Bild-Sprach-Synchronisierung spezifizierten Sprach-Frame beginnt. Sobald die Decodierung sowohl des spezifizierten Sprach-Frames als auch des Start- Frames der Bild-GOP abgeschlossen ist, wird mit dem gleichzeitigen Ausgeben des Bildes und des spezifizierten Sprachabtastwerts begonnen.
- Für Audiodaten werden ungefähr 1,0 s codierter Audiodaten in die Dateneinheit aufgenommen. Nachdem eine bestimmte Anzahl von Abtastwerten (samples) in einem Block zusammengefaßt sind, wobei benachbarte Blockenden in einem Bit verstaut sind, wird die Sprache bzw. der Ton in Einheiten dieser Anzahl von Abtastwerten codiert und ein Kopfteil bzw. Header wird der codierten Sprache hinzugefügt, um so einen codierten Sprach-Frame zu bilden.
- Die Sprach-Frame-Länge beträgt weniger als die Länge der 2048 Abtastwerte der Originalsprache und entspricht 24 ms - 36 ms der Zeitdauer der ursprünglichen Sprache. Die codierte Datenmenge des Sprach-Frames reicht von 288 Bytes bis zu 576 Bytes. Eine Frame-Identifizierung (frame ID) wird dem Header jedes Sprach-Frames in jedem Sprachkanal hinzugefügt. Die Frame-ID setzt sich zusammen aus 24 Bits, wovon 4 Bits einen Sprachkanal darstellen und 20 Bits eine Sprach-Frame-Nummer angeben. Die ungefähr 1,0 s Audiodaten sind für gewöhnlich genauso lang wie mehrere 10 Sprach-Frames, wenn auch die Länge mit der Anzahl von Abtastwerten in einem Block-und der Abtast-Frequenz variiert. Durch die Bildsynchronisierung wird die Frame-Nummer der codierten Sprache spezifiziert, zu der der decodierte, auszulesende Sprach-Abtastwert, der gleichzeitig mit dem Timing des Auslesens des Start-Frames der entsprechenden GOP ausgegeben wird, sowie die Sprach- Abtastwertnummer in dem Frame. Der Zeitcode besteht aus 32 Bits, von denen 20 Bits die Sprach-Frame-Nummer darstellen, und die restlichen 12 Bits eine Sprach-Abtastwert-Nummer spezifizieren. Dadurch kann der maximale Fehler bei der Sprach- und Bildsynchronisierung im gesamten System mit dem halben Sprach-Abtastperiode koinzidieren. Bei fs = 32 KHz beträgt der maximale Sprachsynchronisierfehler ungefähr 16 us.
- In den Fig. 2A bis 2C ist ein weiteres Beispiel eines Bewegtbild-Kompressionsformats dargestellt, und die Fig. 3A bis 3C zeigen noch ein Beispiel eines Bewegtbildformats. Nachstehend wird die im Managementbereich aufgezeichnete Managementinformation erklärt. Die Managementdaten werden in Form einer Tabelle aufgezeichnet.
- Bei den oben beschriebenen Beispielen besteht jede Dateneinheit aus zwei oder mehr GOPs. Stattdessen kann entsprechend der vorliegenden Erfindung jede Dateneinheit nur eine GOP (Bildgruppe) enthalten.
- Gemäß Fig. 4A enthält die Managementtabelle ein Volumen- bzw. Datenträger-Identifizierfeld (VID) auf der innersten Spur, ein Programminformationsfeld (PIF) um das VID herum, sowie eine das PIF umgebende Dateneinheit-Zuordnungstabelle (DAT). Das VID wird, beginnend mit dem ersten Byte im Managementtabellenbereich, geschrieben und gibt Information über verschiedene Elemente über die ganze Platte hinweg unter Verwendung von 256 Bytes an. So enthält diese Information z. B. Daten darüber, ob die Platte für allgemeine Aufzeichnung oder nur für Wiedergabe bestimmt ist. Im Programm- Informationsfeld (PIF) sind verschiedene Datenstücke zu jedem Programm aufgezeichnet. Z. B. werden 16 Bytes für jedes Programm verwendet.
- Fig. 5B zeigt ein Beispiel für den Inhalt der in dem PIF gespeicherten 16 Bytes.
- ATMB gibt die absolute Zeit des Startpunkts des laufenden Programms im Datenträger wieder. Im Falle der Zeitcodesuche wird jedes Datenelement der ATMB-Daten in der Reihenfolge der Wiedergabe der Programme geprüft, um die Nummer des Programms zu finden, in dem ein gewünschter Zeitcode vorhanden ist. Jede der (später beschriebenen) DATs (data unit number) in dem entsprechenden Programm wird geprüft. Sodann wird die Summe der Programmzeit (die später beschriebene PTMB) und die ATMB mit dem gewünschten Zeitcodewert verglichen, um die DAT herauszufinden, zu der der entsprechende Zeitcode gehört. Bei dieser Prozedur kann ein Suchlauf durchgeführt werden. Durch das Verfahren, das auf der absoluten Startzeit beruht, kann der Benutzer die absolute Startzeit von dem gewünschten Programm erfahren und kann deshalb ein spezifisches Datenelement von PIF-Daten erhalten, indem er nach der der absoluten Startzeit entsprechenden ATMB sucht.
- Durch PINF werden Programmattribute angegeben, die jedem Programm zugeordnet sind. Zu den Programmattributen gehören ein Kopiersperre-Zeichen (copy disable flag, CPNH), ein Programmtyp (PTYPE), ein Schreibattribut (PWRT), sowie die Anzahl der eine Dateneinheit bildenden GOPs (SGDU). Wenn das CPNH auf 1 gesetzt ist, bedeutet dies eine Kopiersperre und wenn es auf 0 gesetzt ist, bedeutet dies eine Kopierfreigabe. Das PTYPE-Attribut, das aus 3 Bits besteht, zeigt Programmarten an wie Heimvideo, Kino, Musik, Kara-OK, Computergraphik, interaktive Benutzung, Spiel, Computerdaten oder Programm. Wenn das PWRT einen Wert von 1 aufweist, bedeutet dies Schreib- bzw. Aufzeichnungsfreigabe.
- Das PIF enthält auch die Parameter, wie sie in Fig. 5B dargestellt sind, wobei AINF ein Sprachcodiersystem identifiziert, VINF die Identifizierung eines Bildcodiersystems bezeichnet, ATRT die Bildattribute darstellt (d. h. Daten zum Identifizieren des Seitenverhältnisses (aspect ratio) sowie eines Systems wie des PAL- oder NTSC-Systems), und HRES und VRES die Daten zur horizontalen Auflösung bzw. zur vertikalen Auflösung anzeigen.
- PNTB gibt einen Startzeiger an, der einen Wert aufweist, welcher die DAT-Adresse (data unit number) anzeigt, bei der die Dateneinheit am Programmstartpunkt gespeichert ist. Sobald die DAT-Adresse (data unit number) bestimmt worden ist, ist es möglich, die Position des Startsektors eines Programms im Datenbereich zu identifizeren.
- PGML zeigt die unmittelbar nach Beendigung des laufenden Programms zu verarbeitende Programmnummer an, wenn entsprechende Programme vorhanden sind. Die Reihenfolge, in der Programme produziert werden, koinzidiert nämlich nicht notwendigerweise mit der Reihenfolge der Programmnummern. Wenn das laufende Programm das letzte Programm ist, gibt es keine Verknüpfungszieladresse, und alle Bits des PGML stehen auf "1".
- Fig. 5C zeigt die Struktur des DAT. In dieser Tabelle gibt es Parameter wie eine Zonennummer (NZON), eine Sektorennummer (NSTC), und eine Spurnummer (NTRC) auf einer Platte, sowie eine Programmzeit (PTMB) und einen Verknüpfungsanzeiger (PNTL).
- NZON ist die Zonennummer, zu welcher der Aufzeichnungssektor am Beginn der Dateneinheit gehört. Die Platte ist in Radialrichtung vom innersten Umfang aus in Spureinheiten aufgeteilt, und die Zonennummern sind der Reihe nach zugeteilt. Im einzelnen hat gemäß Fig. 4A der Datenbereich eine Bezugsposition R1 auf der Platte und die Nummer beginnt mit 0 bei dieser Position. NSTG zeigt eine Sektornummer in einem Bereich an. Die Sektornummer ist nicht eine einer anderen Spur bzw. einer anderen Zone zugeordnete Seriennummer, sondern eine nur in der Spur oder dem Bereich komplette Nummer. NTRC gibt die Nummer der Spur an, in der die Zone und die Sektornummer (der Header der Dateneinheit) vorhanden sind. PTMB ist ein Merkzeichen zur Darstellung der Zeitpositionsdaten zu den Videodaten (1-Bild) beim Start der Dateneinheit. Die Positionsdaten geben eine Zeit (in Sekunden) an, die seit dem Programmstartzeitpunkt verstrichen ist. Die Zeitpositionsdaten werden bei der Suche nach den schon beschriebenen Zeitcodes verwendet. Ferner werden die Zeitpositionsdaten in das Wiedergabegerät aufgenommen, das sie als Startbezugsdaten verwendet, um die Programzeit, die absolute Zeit, die Restzeit etc. anzuzeigen.
- PNTL ist ein Merkzeichen zur Anzeige einer nachfolgenden Dateneinheit, die zeitlich unmittelbar auf die aktuelle DAT- Einheitsnummer folgt. Die Einheit entspricht der Dateneinheitsnummer. Wenn es keine Verknüpfungs(ziel)adresse am Programmende gibt, werden alle Bits auf 1 gesetzt ( = 0 · FFFF). Der effektive Wert für den Verknüpfungsanzeiger liegt zwischen 0 · 0000 und 0 · FFFF).
- Fig. 4B ist eine graphische Darstellung des Managementbereichs und des Datenbereichs. Die Blöcke im Datenbereich zeigen jeweils Programme an. Die DAT- Einheitsnummern sind fortlaufend in dieser Reihenfolge: 0 - Nmax. Die erste DAT-Einheitsnummer ist bestimmt durch Bezugnahme auf den PNTB in dem PIF. Wenn die DAT- Einheitsnummer gleich 1 ist, dann ist der nächste Verknüpfungsanzeiger gleich 0. Der Verknüpfungsanzeiger der Dateneinheitsnununer 0 ist Nmax-1. Der Verknüpfungsanzeiger der Dateneinheitsnummer Nmax-1 ist 2. Durch Überprüfen der Zonennummer, der Sektorennummer und der Spurnummer entsprechend der Änderung der DAT-Einheitsnummer, ist es möglich, Daten über die Reihenfolge der Wiedergabe, z. B. Spur 4 in Sektor 3 in Zone 1, Spur 7 im Sektar 2 in Zone 0, und Spur 10 im Sektor 30 in Zone 3 zu erhalten.
- Fig. 6A stellt die Adressenanordnung der in Fig. 5A gezeigten Managementtabelle dar, insbesondere die Adressenanordnung der DAT.
- Fig. 6B zeigt eine weitere Adressenanordnung, welche die Managementtabelle annehmen kann, und bei der unter dem VID-, der PIF und der DAT nicht benutzte Felder vorgesehen sind. In der Adressenanordnung gemäß Fig. 6B kommt es zu einem Adressenversatz, wenn die Datensuche von VID nach PIF geschaltet wird. Die Versatzdaten sind in den im VID aufgezeichneten Daten enthalten und werden erkannt, wenn eine Antriebssteuer-MPU ein Adressmanagementprogramm ausführt. Im folgenden wird die Aufzeichnungskapazität der Managementtabelle berechnet.
- Die Kapazität für die Aufzeichnung der Managementtabelle hängt ab von der Anzahl der Programme und der Anzahl der Dateneinheiten, die auf der Platte aufgezeichnet sind.
- Angenommen, es gibt 256 Programme und 7200 Dateneinheiten (1 s/Einheit, entsprechend 2 Stunden), dann belaufen sich die Daten für die Managementtabelle auf 61952 Bytes ( = 256 + (16 x 256) + (8 · 7200). Das heißt, daß in einem System, bei dem eine Dateneinheit ungefähr 1 s entspricht, eine Managementinformation für 2 Stunden Dauer in einem 63 KB- Speicher aufgezeichnet werden kann. Mit anderen Worten ist ein 63 KB-Speicher praktisch ausreichend zur Speicherung der gesamten Managementtabelle.
- Die physische Position des Startsektors der Managementtabelle ist normalerweise definiert durch: ZONE = 0, SPUR = 0 und SEKTOR = 0. Zum Datenschutz können mehrere Managementtabellen in verschiedenen physischen Regionen aufgezeichnet werden. Auf die Managementtabelle wird sehr häufig Bezug genommen. Es erfordert sehr viel Zeit, um auf die auf der Platte gespeicherte Tabelle zuzugreifen. Um die Zugriffszeit zu verringern, kann die Managementtabelle in dem in der Antriebssteuerung MPU eingegliederten Arbeits-RAM abgebildet (mapped) werden. Die Speicherkosten werden jedoch bei den (gesamten) Gerätekosten zu groß, wenn die Tabelle übermäßig groß ist und eine große Anzahl von Operationen durchgeführt werden müssen, um die Managementtabelle in die gewünschten Parameter zu verwandeln, wenn die Managementtabelle nicht in geeigneter Weise formuliert ist. Im Hinblick darauf ist es wünschenswert, das Gerätesystem entsprechend den Gerätekosten und dem Umfang der Tabelle auszulegen.
- Fig. 7 zeigt die Codiereinrichtung und die Decodiereinrichtung in einem Blockdiagramm zur Darstellung einer Vorrichtung zum Verarbeiten komprimierter Videosignale. Im Betrieb wird ein Ursprungssignal an einem Eingabe-Terminal bzw. -Anschluß 100, und damit an eine Signaltrenneinrichtung 101, eingegeben. Die Signaltrenneinrichtung 101 trennt das ursprüngliche Signal in Audiodaten, Videodaten, Expansionsdaten (z. B. Untertiteldaten), ein Synchronsignal und dgl. Die Audiodaten werden in eine Sprachdaten- Gruppiereinrichtung 102 eingegeben, die Videodaten in eine Bilddaten-Gruppiereinrichtung 103, die Expansionsdaten in eine Expansionsdaten-Gruppiereinrichtung 104 und das Synchronsignal an eine erste Systemsteuereinrichtung 110. Während sie in den Modus 1 gesetzt ist, steuert die erste Systemsteuereinrichtung 110 die Bilddaten-Gruppiereinrichtung 103 so, daß die Einrichtung 103 Gruppen von Videodaten bildet, von denen jede aus 6 Frames besteht, die Sprachdaten- Gruppiereinrichtung 102 so, daß die Einrichtung Gruppen von Audiodaten in Zeiteinheiten des Modus 1 bildet, und die Expansionsdaten-Gruppiereinrichtung 104 so, daß die Einrichtung 104 Gruppen von Expansionsdaten bildet, welche den Frames entsprechen. Die Gruppen von Videodaten werden in eine Bilddaten-Komprimiereinrichtung 106 eingelesen, welche die Videodaten in der in bezug auf die Fig. 1A, 1B und 1C erklärten Art und Weise codiert und komprimiert. Die Audiodatengruppen werden in die Audiodaten- Komprimiereinrichtung 105 eingelesen, welche die Audiodaten codiert und komprimiert. Die Expansionsdatengruppen werden in die Expansionsdaten-Komprimiereinrichtung 107 eingelesen, welche die Expansionsdaten codiert und komprimiert: Die von der Datenkomprimiereinrichtung 105, 106 und 107 ausgegebenen Daten werden in eine Formatiereinheit 108 eingegeben. Die Formatiereinheit 108 sammelt 5 GOPs (d. h. Gruppen codierter Bilddatenelemente) und bildet damit eine Dateneinheit der in Fig. 1A dargestellten Art. Die Dateneinheit besteht aus codierten Audiodaten, codierten Expansionsdaten und einem Header bzw. Kopfteil (d. h. Zusatzdaten). Jede Datenkomprimiereinrichtung wird so gesteuert, daß sie codierte Daten erzeugt, deren Menge ein ganzes Vielfaches der Höchstmenge an Daten ist, welche in einem Sektor eines Aufzeichnungsmediums aufgezeichnet werden können.
- Die von der Formatiereinheit 108 ausgelesenen Dateneinheiten werden auf einem Aufzeichnungsmedium aufgezeichnet oder einem Datenübertragungssystem zugeführt. Die Signale werden von dem Aufzeichnungsmedium ausgelesen oder von dem Datenübertragungssystem übertragen und dann einer Signaltrenneinrichtung 121 zugeführt. Die Signaltrenneinrichtung 121 entnimmt die codierten Audiodaten, die codierten Videodaten, die codierten Expansionsdaten sowie den Header von jeder Dateneinheit. Die codierten Audiodaten werden einer Sprach-Decodiereinrichtung 122 zugeführt, welche die Daten decodiert und dabei ein Audiosignal reproduziert. Die codierten Videodaten werden einer Bilddecodiereinrichtung 123 zugeführt und decodiert. Die codierten Expansionsdaten werden einer Expansionsdaten-decodiereinrichtung 124 zugeführt und decodiert. Die decodierten Videodaten und die decodierten Expansionsdaten werden einer Datensynthetisiereinrichtung 125 zugeführt, welche die Videodaten und die Expansionsdaten synthetisiert, wobei ein Videosignal reproduziert wird. Die in dem Header bzw. Kopfteil enthaltenen Daten werden einer zweiten Systemsteuereinrichtung 126 eingegeben und zur Erzeugung von Zeittaktsignalen und zur Erzielung einer Bild-Ton- Synchronisation sowie zum Einstellen des Modus verwendet.
- Das in Fig. 7 dargestellte Gerät ist gekennzeichnet durch spezifische Einrichtungen zum Erzielen einer Bild- Sprachsynchronisation.
- Im folgenden wird die Dateneinheit nochmals näher erläutert.
- Wie oben beschrieben, besteht ein Paket von Videodaten aus 30 Einzelbildern bzw. Frames ( = 5 GOPs · 6 Frames/GOP), und 30 Frames von Audiodaten, die einen Satz bilden, werden in 48K Bytes aufgezeichnet ( = 4 ch · 12 K Bytes/s), während die Vorrichtung in den Modus 1 gesetzt ist. Wenn zwei Kanäle gleichzeitig verwendet werden, beträgt die minimale erforderliche Speicherkapazität nur 24K Bytes.
- Die Fig. 8A, 8B und 80 zeigen jeweils das Format der codierten Videodaten, der codierten Audiodaten und der codierten Zusatzdaten. Die Audiodaten sind mit einer vorbestimmten Abtastfrequenz codiert worden, und eine vorgeschriebene Nummer von abgetasteten Datensegmenten bilden einen Datenblock. Zu dem Datenblock wird ein Sprach-Header hinzugefügt, wodurch der Datenblock und der Sprach-Header einen Frame bilden. Der Sprach-Header enthält eine Frame- Identifikation, welche den Frame identifiziert.
- Der Header bzw. Kopfteil der Dateneinheit enthält Zusatzdaten. Die Zusatzdaten umfassen Daten, welche den Bezug zwischen den codierten Videodaten und den codierten Audiodaten wiedergeben. Im einzelnen enthalten die codierten Videodaten eine Bild-Frame-Nummer gemäß Fig. 8A und die codierten Audiodaten enthalten eine Sprach-Frame-Nummer, wie sie Fig. 8B darstellt. Gemäß der Fig. 8A, ist der erste Frame der ersten GOP0 ein spezifiziertes Bild 1 (SP1), der erste Frame des zweiten GOP1 (ist) ein spezifiziertes Bild 2 (SP2) usw. Der erste Frame des letzten GOP4 ist ein spezifizieres Bild 5 (SP5). (Jedes dieser spezifizierten Bilder stellt komprimierte Intra-Frame-Daten dar.) Die Frames k-1, k+6, ... k+n der codierten Audiodaten entsprechen jeweils SP1, SP2, ... und SP5. Wie aus Fig. 8C ersichtlich ist, sind Daten, welche diese Beziehung zwischen den SP5 der codierten Videodaten einerseits und den Frames k-1, k+6,.." k+n der codierten Audiodaten andererseits zeigen, in den Zusatzdaten enthalten. Die Zusatzdaten enthalten auch Daten, welche die Abtastnummern der Frames k-1, k+6, ... k+n darstellen. Daher zeigen die Zusatzdaten an, daß SP1 zu dem Frame k-1 der Audiodaten gehört und die Abtastnummer #615 aufweist, daß SP2 zu dem Frame k+6 der Audiodaten gehört und die Abtastnummer #12 hat und daß SP5 zu dem Frame k+n der Audiodaten gehört und die Abtastnummer #920 hat.
- Die Einrichtung zum Erzeugen der Zusatzdaten wird im folgenden unter Bezugnahme auf Fig. 9 beschrieben.
- Die Fig. 9 stellt die Einrichtung zur Erzeugung der Zusatzdaten dar. Ein Ursprungs-Videosignal wird an einen Anschluß 201 geliefert. Das Videosignal wird durch die Quantisiereinrichtung 202 quantisiert und in einen Frame- Speicher 203 eingelesen. Die von dem Frame-Speicher 203 ausgelesenen Videosignale werden in eine Bildcodiereinrichtung 204 eingegeben. Die Bildcodiereinrichtung 204 codiert die Signale und erzeugt dabei Videodatenstücke, welche den Frames entsprechen. Die Videodaten werden einer Formatiereinheit (nicht dargestellt) zugeführt, welche Videodaten des in den Fig. 1A, 1B und 1C gezeigten Formats generiert. Mittlerweile wird dem Eingabeanschluß 205 ein Frame-Impuls für spezifizierte Bilder zugeführt, und von dort dem Frame-Speicher 203 und der Bildcodiereinrichtung 204, und dient als Schreib- Zeittaktsignal und als Lese-Zeittaktsignal für den Framespeicher 203 und auch als Zeittaktsignal für die Bildcodiereinrichtung 204. Ein Programmetartimpuls wird an ein Eingabeterminal 206 angelegt und von dort an einen 1/6- Frequenzteiler 207, sowie auch an einen Sprachframe- Impulszähler 214. Dieser Impuls stellt den 1/6-Frequenzteiler 207 zurück, der den Bild-Frameimpuls zählt und einen Impuls für einen Frame-eines spezifizierten Bildes der in Fig. 8A dargestellten Art erzeugt. Bei Empfang des Programm- Startimpulses startet der Sprach-Frameimpulszähler 214 mit dem Zählen der Sprach-Frameimpulse.
- Dabei wird ein Sprachabtastimpuls an den Eingabeanschluß 208 angelegt, und ein Ursprungs-Audiosignal wird an einen Eingabeanschluß 209 angelegt. Die Ursprungs- Audiosignale werden abgetastet und daraufhin durch eine Abtast/Quantisiereinrichtung 210 quantisiert. Das Ausgabesignal der Abtast/Quantisiereinrichtung 210 wird in eine Sprachcodiereinrichtung 211 eingelesen und in Audiodaten codiert. In einer Vorrichtung (nicht dargestellt), die mit dem Ausgang der Sprachcodiereinrichtung 211 verbunden ist, wird die durch den Sprach-Frameimpulszähler 214 erzeugte Sprach-Framenummer zum Header der Audiodatenausgabe von der Sprachcodiereinrichtung 211 hinzugefügt.
- Der an den Eingabeterminal 208 angelegte Sprachabtastimpuls wird in einen 1/N-Frequenzteiler 212 eingegeben und in N-Sprach-Frameimpulse umgewandelt, so daß jeder Frame von Audiodaten mit N Abtastimpulsen abgetastet werden kann. Die Sprach-Frameimpulse werden einer Sprachcodiereinrichtung 211 zugeführt, welche die Sprachdaten in Frameeinheiten codiert. Die Sprachframe-Impulse werden als Taktimpulse einem Sprach-Abtastimpulszähler 213 zugeführt. Jeder Sprachframe-Impuls stellt den Sprach-Abtastimpulszähler 213 zurück bzw. löscht ihn. Die Ausgabe des Sprach- Abtastimpulszählers 213, welche die Anzahl der aus einem Frame von Audiodaten entnommenen Abtastwerte darstellt, wird in ein Register 215 eingelesen. Die Sprachframenummer wird ebenfalls in das Register 215 eingelesen. Die Sprachframenummer ist durch Rückstellen des Sprachframe- Impulszählers 214, durch Verwendung eines Programmstartimpulses und durch Zählen der Sprachframe- Impulse generiert worden. Die Eingabe an das Register 215 besteht aus der Sprachframenummer und der Anzahl der Sprachabtastwerte. Diese Datenelemente werden durch einen Frameimpuls für ein spezifiziertes Bild aufgefangen bzw. festgehalten (latched) und daraufhin ausgegeben. Die Anzahl der Sprach-Abtastwerte wird durch einen Sprachframe-Impuls zurückgestellt. Da die Anzahl der Sprach-Abtastwerte durch die Frame-Impulse für spezifizierte Bilder festgehalten wird, während die Anzahl wächst, wird die festgehaltene Anzahl von Sprach-Abtastwerten als Sprachabtastwertnummer verwendet.
- Die zusätzliche Datenausgabe von dem Register 215 wird von der Formatiereinheit 108 verwendet, um eine Dateneinheit der in der Fig. 1A gezeigten Art zu erzeugen.
- Die Fig. 10 zeigt eine Einrichtung zum Wiedergeben der Zusatzdaten, wodurch eine Bild-Sprache-Synchronisierung erreicht wird.
- Die codierten Videodaten, die codierten Audiodaten und die Zusatzdaten werden Einheit für Einheit vom Aufzeichnungsmedium wiedergegeben (Fig. 7). Die Zusatzdaten bestimmen den Zeitraum, während dem die decodierten Videodaten und die decodierten Audiodaten ausgelesen werden sollen. Die von dem Aufzeichnungsmedium ausgelesenen, codierten Audiodaten werden Einheit für Einheit einem Sprachpuffer 302 über ein Eingabeterminal 301 zugeführt, wie Fig. 10 zeigt. Die von dem Aufzeichnungsmedium ausgelesenen, codierten Videodaten werden Einheit für Einheit einem Bildpuffer 312 über ein Eingabeterminal 311 eingegeben. Die Zusatzdaten werden durch ein Eingabeterminal 321 in ein Schieberegister 322 eingegeben.
- Die codierten Audiodaten werden auch einer Framenummer- Entnahmeeinrichtung 305 zugeführt. Die aus dem Sprachpuffer 302 ausgelesenen, codierten Audiodaten werden der Sprachdecodiereinrichtung 303 zugeführt und durch sie in Einheiten von Frames decodiert. Die decodierten Audiodaten · werden in einen Sprachblockpuffer 304 eingelesen. Die vom Bildpuffer 312 ausgegebenen codierten Videodaten werden in eine Bild-Decodiereinrichtung 313 eingelesen und durch diese in Einheiten von Frames decodiert. Die decodierten Videodaten werden in einen Bildframepuffer 314 eingelesen. Die Blöcke von decodierten Audiodaten werden dann der Reihe nach im Sprachblockpuffer 304 abgespeichert.
- Die von der Framenummer-Entnahmeeinrichtung 305 entnommene Sprachframenummer wird einer Vergleichseinrichtung 323 zugeführt, welche die Sprachframenummer mit der aus dem Header der codierten Audiodaten entnommenen Sprachframenummer vergleicht. Wenn die verglichenen Nummern identisch sind, erzeugt die Vergleichseinrichtung 323 einen Koinzidenzimpuls, der einer Gattereinrichtung 324 zugeführt wird. Daraufhin wird die in den Zusatzdaten enthaltene Abtastnummer durch die Gattereinrichtung 324 an den voreingestellten Eingang eines Adresszählers 325 ausgegeben.
- Die an den Adresszähler 325 gelieferte Abtastnummer bezeichnet die Stelle in dem Sprachblockpuffer 304, von der aus die decodierten Audiodaten ausgelesen werden sollen. Der Koinzidenzimpuls von der Vergleichseinrichtung 323 wird einer Generiereinrichtung 326 für Sprachabtastimpulse und einer Generiereinrichtung 327 für Bildframeimpulse zugeführt. Als Reaktion auf den Koinzidenzimpuls beginnen beide Impulsgeneriereinrichtungen 326 und 327 mit der Durchführung ihrer Funktionen, wobei die Audiodaten synchron mit den Videodaten ausgegeben werden, in Übereinstimmung mit der entsprechenden Abtastnummer, deren Verhältnis zu den Videodaten durch die Zusatzdaten bezeichnet ist.
- Wenn die von der Vergleichseinrichtung 323 verglichenen Nummern nicht identisch sind, generiert die Vergleichseinrichtung 323 einen Nicht-Kainzidenz-Impuls. Dann werden die Zusatzdaten in das Schieberegister 322 verschoben, bis die nächsten Synchronisierungsdaten in das Register 322 eingelesen werden. Wenn zum Beispiel die Vergleichseinrichtung 323 einen Nicht-Koinzidenz-Impuls während des Vorgangs generiert, bei dem SP1 = k + 1 ist, werden die Zusatzdaten in das Register 322 verschoben, bis die Synchronisierungsdaten SP2 ( = k + 6) in das Register 322 eingelesen werden. Die Framenummer k + 6, die in den Zusatzdaten enthalten ist, wird der Vergleichseinrichtung 323 zugeführt, welche diese Framenummer mit der in den codierten Audiodaten enthaltenen Framenummer vergleicht. Wenn die verglichenen Framenummern identisch sind, d. h. wenn die Einrichtung 323 während des Vorgangs, bei dem SP2 = k + 6 ist, einen Koinzidenzimpuls generiert, werden die der Bilddecodiereinrichtung 313 und dann dem Bildframepuffer 314 zugeführten Videodaten in decodierte Bilddaten von SP2 verarbeitet. Diese Synchronisierung wird durch eine Abgleich- bzw. Synchronisiereinrichtung 328 durchgeführt. In diesem Fall werden die Audiodaten in synchroner Weise mit den Bilddaten von SP2 und folgenden (Daten) ausgegeben.
- Die Synchronisier- bzw. Abgleicheinrichtung 328 erkennt auch die Bildframenummer durch Verwendung des Ausgangssignals der Bilddecodiereinrichtung 313.
- Bevor die Vergleichseinrichtung 323 nicht ein Koinzidensignal generiert, können weder die Videodaten noch die Audiodaten, oder aber nur die Videodaten ausgelesen werden. Sobald die Einrichtung 323 ein Koinzidenzsignal generiert hat, kann die Vergleichseinrichtung 323 angehalten werden, da die Sprache bzw. der Ton in einer Bildgruppe synchron mit dem Bild in derselben Bildgruppe ist. Die Vergleichseinrichtung kann periodisch betrieben werden, und zwar jedesmal auf ein spezifiziertes Bildsignal hin.
- Im Falle, daß die Sprachframenummer (zu) groß gefunden wird, wenn ein Nicht-Koinzidenzimpuls der Abgleicheinrichtung 328 zugeführt wird, geht der Vorgang auf die Bildframes von SP2 oder SP4 über. Trozdem kann eine Synchronisierung sichergestellt werden, bevor der Vorgang zu dem Bildframe von SP3 übergeht, da ein gewöhnlicher Sprachframe eine Länge von höchstenfalls 2048 Abtastwerten aufweist.
- Wie weiter oben beschrieben, wird das Timing bzw. der Zeittakt der Ausgabe von Videodaten vom Bild-Frame-Puffer 314 und das Timing der Ausgabe von Audiodaten vom Sprachblock- Puffer 304 zu dem Zweck der Synchronisierung eines jeden spezifizierten Bildframes und eines zugeordneten Sprach- Abtastwerts geregelt. Zum selben Zwecke können zusätzliche Einrichtungen verwendet werden, um die Zeit zum Speichern decodierter Daten in einen Pufferspeicher (nicht dargestellt) oder die Zeit zum Speichern codierter Daten in einen Pufferspeicher (nicht dargestellt) zu regeln bzw. einzustellen.
- Fig. 11 zeigt eine weitere Art einer Einrichtung zum Reproduzieren der Zusatzdaten, durch die eine Bild-Sprach- Synchronisierung erzielt wird.
- Wie Fig. 11 darstellt, werden codierte Videodaten einem Eingabeterminal 401 zugeführt und durch einen Bild-Decodier- /Frame-Puffer 402 decodiert. Ein internes Taktsignal wird an einen Eingabeterminal 403 gelegt und wird durch einen 1/M- Frequenzteiler 404 in Bild-Frame-Impulse frequenzgeteilt. Diese Bild-Frame-Impulse werden als Zeittaktsignale dem Bild- Decodier/Frame-Puffer 402 zugeführt. Sie werden auch einem 1/6-Frequenzteiler 405 zugeführt und in Frame-Impulse spezifischer Bilder frequenzgeteilt, welche mit den in Fig. 8A dargestellten, spezifizierten Bildsignalen synchron sind.
- Codierte Audiodaten werden über einen Eingabeterminal 406 in die Sprachdecodiereinrichtung 401 eingelesen und durch diese decodiert. Die decodierten Audiodaten werden in einen Puffer 408 für decodierte Sprachblöcke eingelesen. Ein internes Taktsignal wird über einen Eingabeterminal 411 an einen 1/N-Frequenzteiler 412 gelegt und in Sprach- Abtastimpulse frequenzgeteilt. Die Sprachabtastimpulse werden einer Sprachframe-Impulsgeneriereinrichtung 413 eingegeben, sowie auch einem Adresszähler 414 für decodierte Sprachabtastwerte. Die Impulsgeneriereinrichtung 413 erzeugt Sprachframe-Impulse, welche den Sprachframes entsprechen. Die Sprachframe-Impulse werden als Zeittaktsignale der Sprachdecodiereinrichtung 407 zugeführt, sowie dem Adresszähler 414 für decodierte Sprachabtastwerte.
- Der Adresszähler 414 für decodierte Sprachabtastwerte wird durch einen Sprachframe-Impuls zurückgesetzt und zählt Sprach-Abtastimpulse. Somit stellen die Ausgangsdaten des Adresszählers 414 eine Sprach-Abtastwertnummer dar. Die Sprach-Abtastwertnummer wird als Leseadresse für den Puffer 408 für decodierte Sprachblöcke verwendet und in ein Register 415 eingegeben. Das Register 415 hält die Sprach- Abtastwertnummer als Antwort auf einen Frameimpuls eines spezifizierten Bildes. Die so gehaltene (latched) Sprach- Abtastwertnummer wird in eine Vergleichseinrichtung 416 eingegeben. Die Vergleichseinrichtung 416 vergleicht die Sprach-Abtastwertnummer mit der in den vom Eingabeterminal 417 gelieferten Zusatzdaten enthaltenen Sprach- Abtastwertnummer.
- Wenn die verglichenen Sprach-Abtastwertnummern identisch sind, so heißt das, daß die Videodaten und die Audiodaten in einer vorgeschriebenen Beziehung synchron sind. Sind die verglichenen Sprach-Abtastwertnummern nicht identisch, so heißt das, daß der von den Zusatzdaten bezeichnete Sprachframe nicht synchron mit einem spezifizierten Bildsignal ist. Um den Sprachframe synchron mit dem spezifizierten Bildsignal zu machen, schickt die Vergleichseinrichtung 416 ein Teiler-Angleichsignal an den 1/N-Frequenzteiler 412, wodurch die Phase der Sprach- Abtastimpulse und die der Sprach-Frameimpulse gesteuert wird. Effektiv wird der Teiler (N) des 1/N-Frequenzteilers um 1-2 erhöht oder verringert. Solange der Unterschied zwischen den zwei von der Vergleichseinrichtung 416 verglichenen Sprachabtastwertnummern in einen vorgegebenen Bereich fällt, werden die Videodaten und die Audiodaten synchron zueinander gehalten.
- Statt den Teiler des 1/N-Frequenzteilers 412 anzugleichen, kann der Teiler M des 1/M-Frequenzteilers 404 angeglichen werden, um die Videodaten und die Audiodaten synchron zu gestalten. Alternativ dazu können die Teiler beider Frequenzteiler 404 und 412 zum selben Zweck angeglichen werden. Unabhängig davon, ob entweder der Teiler (M) oder der Teiler (N) oder beide angeglichen werden, können die Videodaten und die Audiodaten synchronisiert werden, bevor sie übermäßig asynchron werden, obwohl die Frequenz des Codiertaktsignals sich von der Frequenz des Decodiertaktsignals, wenn auch nur leicht, unterscheidet. Wie vorstehend beschrieben, ist es mit der vorliegenden Erfindung möglich, Daten wirksam aufzuzeichnen, Daten leicht zu handhaben bzw. zu verwalten, Programme in einer bestimmten Weise zu reproduzieren bzw. wiederzugeben und sie mit hoher Geschwindigkeit zu suchen.
- Die vorliegende Erfindung ist nicht auf das vorstehend beschriebene Beispiel beschränkt.
- Die Fig. 12 zeigt ein Aufzeichnungs-/Wiedergabegerät. Im folgenden wird das Wiedergabesystem dieses Geräts beschrieben.
- Eine Platte 10 ist auf einem Plattenteller 501 plaziert, der durch einen Motor 502 gedreht wird. Im Wiedergabemodus liest ein Abgleichteil 503 die auf der Platte 10 aufgezeichneten Daten. Das Abgreifteil 503 wird unter der Steuerung einer Antriebssektion 504 zu der gewünschten Spur auf der Platte 10 hinbewegt. Ein Ausgangssignal des Abgreifteils 103 wird einer Modulations- und Demodulationssektion 601 zugeführt, welche das gelieferte Signal demoduliert. Die demodulierten Daten werden einer Fehlerkorrektur-Datenverarbeitungssektion 602 zugeführt, welche Fehler korrigiert und das resultierende Signal einer Datenstring-Verarbeitungssektion 603 zuführt. Die Datenstring-Verarbeitungssektion 603 entnimmt daraus Videodaten, Untertitel und Schriftzeichendaten sowie Audiodaten. Auf der Platte 10 werden die Untertitel- und Schriftzeichendaten sowie die Audiodaten so gespeichert, daß sie den Videodaten entsprechen, wie später erläutert wird. Hier können verschiedene Sprachen für den Untertitel und für Schriftzeichen und Audiodaten ausgewählt werden. Die Auswahl wird unter der Steuerung der Systemsteuersektion 604 ausgeführt. Der Benutzer macht die Eingabe von einer Bedienungssektion 605 aus in die Systemsteuersektion 604.
- Angenommen, es ist die Information über einen Kinofilm auf der Platte 10 gespeichert, so ist eine Vielzahl von Szenen gespeichert, die der Benutzer auswählen kann. Um es dem Benutzer zu ermöglichen, irgendeine beliebige der Szenen auszuwählen, bilden die Datenketten-Verarbeitungssektion 603 die Systemsteuersektion 604 und die Bedienungssektion 605 in dem Wiedergabegerät entsprechend der Benutzerbetätigung der Bedienungssektion 605 eine Datenstring-Steuereinrichtung und eine Szenenauswahleinrichtung.
- Die an der Datenstring-Verarbeitungssektion 603 abgetrennten Videodaten werden einer Video- Verarbeitungssektion 606 zugeführt, welche entsprechend der Art der Wiedergabeeinheit einen Decodiervorgang durchführt. Zum Beispiel werden die Videodaten in eine geeignete Form für einen NTSC-, PAL-, SECAM- oder Breitwand-Bildschirm umgewandelt. Das an der Video-Verarbeitungssektion 606 decodierte Videosignal wird einer Additionseinheit 608 zugeführt, welche es mit den Untertitel- und Schriftzeichendaten addiert und das Additionsergebnis einem Ausgabeterminal 609 zuführt.
- Die an der Datenstring-Verarbeitungssektion 603 getrennten Audiodaten werden einer Audio-Verarbeitungssektion 611 zugeführt, welche sie demoduliert und das demodulierte Signal an einen Ausgabeterminal 612 sendet.
- Die als Decodiersektion funktionierende Audio- Verarbeitungssektion, welche zusätzlich zur Audio- Verarbeitungssektion 611 eine Audio-Verarbeitungssektion 613 umfaßt, kann auch ein Sprachsignal in einer anderen Sprache reproduzieren und dieses reproduzierte Signal an einen Ausgabeterminal 614 liefern.
- Fig. 13 stellt die Datenstring-Verarbeitungssektion 603 (Fig. 12) detaillierter dar.
- Die Datenstring-Verarbeitungssektion 603 ist dazu bestimmt, den Header bzw. Kopfteil (auch als "Sub-Code" bekannt) jeder Dateneinheit zu analysieren, die in der Dateneinheit enthaltenen Datenpakete zu trennen und die Pakete den entsprechenden Decodiereinrichtungen zuzuführen.
- In der Fig. 14 sind verschiedene Datentypen dargestellt, die im Header jeder Dateneinheit enthalten sind. Der DUT- Header enthält die Programmnummer, die Programmzeit, die Dateneinheitsgröße, die Startposition der Videodaten, die Startposition der Audiodaten, Bild-Sprach-Synchronisierdaten, die Startposition der Sub-Videodaten und dgl. Die Programmnummer (d. h. die dem Programm zugeteilte Nummer) und die Programmzeit (d. h. die zur Verarbeitung der Dateneinheit des Programms erforderliche Zeit) sind 2-Byte-Datenelemente. Die Größe der Dateneinheit wird durch die Nummer der Bytes, welche sie bildet, dargestellt. Die Startposition der Videodaten wird durch die Ordinalzahl des ersten Bytes der Videodaten, gezählt vom Startbyte der Dateneinheit, angezeigt. Die Bild-Sprach-Synchronisierdaten bestehen aus der Framenummer und der Abtastwertnummer der Audiodaten, die einem spezifizierten Bildframe entsprechen. Die Startposition der Subvideodaten wird durch die Ordinalzahl des ersten Bytes der Subvideodaten, gezählt vom Startbyte der Dateneinheit, angezeigt. Drei identische Sätze, von denen jeder aus der Dateneinheitsgröße, der Startposition der Videodaten, der Startposition der Audiodaten und den Bild-Sprach- Synchronisierdaten besteht, werden so aufgezeichnet, daß für den Fall, daß einer oder zwei Sätze nicht gelesen werden können oder die Platte beschädigt worden ist, der .verbleibende Satz oder die verbleibenden Sätze von der Platte ausgelesen werden können. In Fig. 14 zeigt das Symbol "x 3" an, daß diese Sicherheitsmaßnahme getroffen worden ist.
- Gemäß Fig. 13 umfaßt die Datenstring- Verarbeitungssektian 603 eine DUT-Header-Analysiersektion 701 und einen Daten-Cache-Speicher 702. Die Sektion 701 analysiert den DUT-Header. Die Dateneinheit wird im Daten- Cache-Speicher 702 abgespeichert. Die Sektion 701 kann bestimmen, welche Art von Daten an welcher Adresse im Daten- Cache-Speicher 702 gespeichert wird. Sie kann daher eine Leseadresse für die Videodaten setzen, so daß die Videodaten (in Wirklichkeit eine GOP = Bildgruppe) aus dem Speicher 702 getrennt von den anderen Bestandteilen der Dateneinheit ausgelesen werden können. Die codierten Audiodaten werden aus dem Speicher 702 ebenfalls getrennt von den anderen Bestandteilen der Dateneinheit ausgelesen. Um die Audiodaten zu lesen, ist es nötig, dem Daten-Cache-Speicher 702 kanalzuordnende Adreßdaten aus der Systemsteuersektion 604 zuzuführen, da eine Vielzahl von Kanälen vorgesehen sind. Die codierten Expansionsdaten werden aus dem Daten-Cache-Speicher 702 in ähnlicher Weise ausgelesen.
- Wie schon erläutert, können bei diesem Beispiel Daten wirksam aufgezeichnet und leicht gehandhabt werden, und Programme auf eine bestimmte Weise reproduziert bzw. wiedergegeben und mit hoher Geschwindigkeit gesucht werden, und zwar deshalb, weil jede Dateneinheit aus einem Kopfteil- bzw. Header-Abschnitt, einem Expansionsdatenabschnitt, einem Abschnitt codierter Audiodaten und einem Abschnitt codierter Videodaten besteht, und der Header-Abschnitt die Dateneinheitsgröße, die Startposition der Videodaten, die Startposition der Audiodaten, die Startposition der Expansionsdaten, Bild-Sprach-Synchronisierdaten und dgl. enthält. Die DUT-Header-Analysiersektion 701 analysiert den Header-Abschnitt und bestimmt, welche Art von Daten an welcher Adresse im Daten-Cache-Speicher 702 gespeichert werden, womit sie eine Leseadresse für die Videodaten setzt, so daß alle codierten Daten vom Speicher 702 der Decodiereinrichtung, getrennt von den anderen Bestandteilen der Dateneinheit, zugeführt werden können.
- Bezüglich der Platte und insbesondere der Managementinformation sind Sicherheitsmaßnahmen getroffen worden, wie nachstehend erläutert wird.
- Gemäß Fig. 15A weist der Informationsbereich der Platte 10 z. B. einen Managementbereich auf der Innenseite und einen Datenbereich außerhalb des Managementbereichs auf. Im Managementbereich wird, wie später erläutert, die zum Zugriff auf die Daten im Datenbereich nötige Managementinformation aufgezeichnet. Im Datenbereich werden Informationen, die einen Header, Sub-Videodaten, Audiodaten und Videodaten umfassen, aufgezeichnet.
- Gemäß Fig. 15B werden z. B. im Managementbereich die identischen Inhalte von Managementinformation in den Sektionen (P1 bis P2) der innersten zweieinhalb Spuren und in der Sektion (P2 bis P3) der nächsten zweieinhalb Spuren aufgezeichnet. Das heißt, die Startpositionen der Managementinformation mit identischem Inhalt werden auf radialen Linien mit verschiedenen Winkeln auf der Platte 10 gesetzt. In diesem Beispiel beträgt der Winkel, den zwei radiale Linien bilden, 180º.
- Es werden zwei Sätze von Managementinformation auf der Platte 10 aufgezeichnet. Wenn nun einer von ihnen auf grund von Verschmutzung oder Verunreinigungen nicht von der Platte ausgelesen werden kann, so kann der andere Satz · Managementinformation benutzt werden. Dies verhindert, daß wichtige Information beim Zugriff auf den Datenbereich verloren geht. Die zwei Sätze Managementinformation werden an verschiedenen Positionen auf der Platte aufgezeichnet.
- Daher ist die Wahrscheinlichkeit sehr gering, daß, selbst wenn die Platte verkratzt oder mit Fremdstoffen verunreinigt wird, im Verhältnis zum Plattenzentrum einander direkt gegenüberliegende Stellen beschädigt oder mit Fremdstoffen verschmutzt werden, wie es durch einen schattierten Abschnitt dargestellt ist. Dementsprechend ist es aus Sicherheitsgründen wichtig, daß Managementinformation in verschiedenen Winkelpositionen auf der Platte aufgezeichnet wird.
- Wenn die Managementinformation nicht gelesen werden kann, wirkt sich dies besonders gravierend auf die Wiedergabe von Daten von der Platte aus. Es ist somit wichtig, daß mindestens mehr als ein Satz derselben Managementinformation, wie vorstehend beschrieben, auf der Plätte aufgezeichnet ist. Solange nämlich die Managementinformation gelesen werden kann, kann auf die Daten auf der Platte zugegriffen werden, selbst wenn ein Teil des Datenbereichs beschädigt ist. Da ein Datenbereich unbenutzte Abschnitte enthalten kann, trägt die Aufzeichnung mindestens eines Satzes von Managementinformation dazu bei, die Zuverlässigkeit der Platte 10 zu verbessern.
- Wenn die Menge aller auf der Platte 10 aufgezeichneten Daten geringer ist als die gesamte Speicherkapazität der Platte, oder wenn alle Stücke aufgezeichneter Daten wichtig sind, kann mehr als ein Satz von Managementinformation im Datenbereich aufgezeichnet werden. Auch in diesem Fall wird die Startposition jedes Informationselements auf eine andere Radiallinie gesetzt. In dem beschriebenen Beispiel unterscheiden sich die Startpositionen der Aufzeichnung voneinander um einen Winkel von 180º. Die Winkeldifferenz ist nicht hierauf beschränkt, z. B. kann sie 90º oder ein anderes Gradmaß betragen. Während in diesem Beispiel zwei Sätze derselben Daten aufgezeichnet werden, können auch drei oder vier Sätze derselben Daten gespeichert werden.
- Im folgenden wird beschrieben, welche Arten von Daten im Datenbereich aufgezeichnet werden.
- Fig. 16 ist eine vergrößerte Ansicht des Inhalts der Dateneinheit DUT #0 im Datenbereich. In der Dateneinheit DUT #0 befindet sich ein Subcode (SUB-CODE) am Start, gefolgt von einem Unterbild (SUB-PICTURE,), Audiodaten (AUDIO) und Videodaten (VIDEO) in dieser Reihenfolge. Der Subcode (SUB- CODE) enthält die Attribute der Dateneinheit DUT #0 und Steuerdaten zu der Dateneinheit. Das Unterbild oder Überlagerungsbild (SUB-PICTURE) enthält z. B. Untertiteldaten (für Videokino) oder Schriftzeichendaten (für Kara-OK-Video und Unterrichtsvideo). Die Untertiteldaten und die Schriftzeichendaten werden alle mit PICTURE #0 bis #7 versehen, von denen alle oder einige sich in der Sprache unterscheiden, und der Rest enthält keine Signale. Die Audiodaten (AUDIO) werden in bis zu 8 verschiedenen Sprachen aufgezeichnet, von AUDIO #0 bis #7 (jede Wiedergabe dauert ungefähr 1 s). Jedes Audiodatenstück wird in Frames aufgezeichnet, wobei jeder Frame #0, #1 usw. aus Header bzw. Kopfteil (HEADERs) und Daten (DATA) besteht. Die Videodaten (VIDEO) enthalten z. B. 30 Bild-Frames (ungefähr 1 s Wiedergabe). Die Video-Information (VIDEO) wird mit hochwirksamen Bildcodier- und Komprimiertechniken aufgezeichnet. Die Anzahl der Frames ist nicht durch Normen begrenzt.
- Wie beschrieben, werden verschiedene Sprachen auf der Platte aufgezeichnet, und mindestens zwei Decodiereinrichtungen für Sprachwiedergabe sind dem Aufzeichnungsgerät eingegliedert. Somit können mindestens zwei der Sprachen in dem Gerät kombiniert werden. Für teure Modelle können mehr Videodecoder, mehr Sprachdecoder und mehr Untertitel- und Schriftzeichendaten-Decoder verwendet werden.
- Im folgenden ist ein Beispiel der im Managementbereich aufgezeichneten Managementinformation dargestellt. Die Managementinformation wird in Form einer Tabelle gespeichert.
- Gemäß Fig. 17A wird eine Tabelle von Sprachcodes in der VID aufgezeichnet, und zeigt an, welche Sprache in welchem Datenbereich aufgezeichnet ist. Der Sprachcode entspricht Beschreibungscodes 0, 1, ..., 8. Bei diesem Beispiel einer Platte entspricht der Beschreibungscode O Nicht-Sprache oder einem Hintergrundton und Musik (B & M) und die Beschreibungscodes 1, 2, 3 und 4 entsprechen jeweils Englisch, Japanisch, Französisch und Deutsch. Die Entsprechung zwischen jedem Beschreibungscode und jedem Sprachcode wird bekannt, wenn das VID beim Starten des Aufzeichnungsgeräts gelesen wird.
- Andererseits werden Bit-Datenstrings bzw. -ketten in der PIF-Tabelle definiert. Im einzelnen entsprechen die Beschreibungscodes den Datenstring-Nummern #0 bis #7 auf der Platte (Fig. 17B). Wenn eine Datenstring-Nummer ausgewählt wird, wird ein Beschreibungscode bestimmt, und der dem Beschreibungscode entsprechende Sprachcode wird ebenfalls bestimmt.
- Deshalb zeigt das Aufzeichnungsgerät, wenn es die Daten in der PIF-Tabelle liest, den ersten Menü-Bildschirm in Übereinstimmung mit den Datenstringnummern #0 bis #7 an (eine Bildschirmanzeige durch ein Schlüsselanzeigesignal). Diese Bildschirmanzeige wird z. B. durchgeführt, indem man einen Sprachcode einer Konversionstabelle zuführt, um die dem Sprachcode entsprechenden Bildschirmanzeigedaten zu erzeugen. Damit ein Sprachcode geliefert wird, den der Benutzer verstehen kann, braucht der Benutzer nur durch Betätigen der Bedienungssektion die entsprechende Datenstringnummer auszuwählen und einzugeben.
- Wenn der Benutzer z. B. die Datenstringnummer #0 auswählt, wird der Beschreibungscode 1 angezeigt. Zu diesem Zeitpunkt wird D1 (d. h. Englisch) als Sprache ausgewählt. Wenn der Benutzer die Datenstringnummer #2 auswählt, wird D2 (Japanisch) als Sprache ausgewählt.
- Nachdem der Benutzer eine Sprache ausgewählt hat, wird ein Herstellerkommentar in der ausgewählten Sprache auf dem Bildschirm gezeigt. Die Datenadresse, bei der Kommentarinformation aufgezeichnet ist, ist z. B. in der VID- Tabelle aufgezeichnet. Die Kommentardaten werden in der Sprache angezeigt, die der Benutzer verstehen kann. Zum Beispiel wird sie auf dem zweiten Menü-Bildschirm in der Sprache angezeigt, die der Benutzer auf dem ersten Menü- Bildschirm ausgewählt hat. Wenn der Benutzer auf dem ersten Menü-Bildschirm #2 ausgewählt hat, wird der Kommentar in Japanisch angezeigt. Die Kommentare umfassen eine Begrüßung des Herstellers, das Produktionsdatum, die Zielsetzung des Produkts und die Programmzeit, z. B. im Falle von Kinofilmen. Wenn der Benutzer die angezeigten Kommentare sieht, kann er einen Ausgabemodus für Sprache und Untertitel wählen, indem er die in der Bedienungssektion vorgesehenen Sprach- und Untertitel-Wahlknöpfe drückt. Wenn der Benutzer den Sprach- Wahlknopf drückt, erscheint ein Cursor auf dem Bildschirm. Jedesmal, wenn der Sprach-Wahlknopf gedrückt wird, bewegt sich der Cursor in der Sprachspalte von einem Element zum anderen, von Nichtsprache zu Japanisch, Englisch, Französisch, Deutsch usw. Nach Ablauf einer vorbestimmten Zeitspanne, nachdem der Cursor zu dem gewünschten Element bewegt worden ist, wird das erwünschte Element ausgewählt, sofern nicht der Wahlknopf während dieser vorbestimmten Zeit gedrückt wird. Der Untertitel-Wahlknopf wird ähnlich bedient, um den Untertitel in der gewünschten Sprache auszuwählen. Wenn weder der Sprach-Wahlknopf noch der Untertitel- Wahlknopf in der vorbestimmten Zeit betätigt worden ist, wird der Wiedergabemodus in der auf dem ersten Menü-Bildschirm ausgewählten Sprache ausgeführt. Der Sprachausgabemodus und der Untertitel-Anzeigemodus können während des Betriebs des Wiedergabegeräts geändert werden.
- Wenn eines der Programme ausgewählt wird, d. h. wenn ein Datenstring ausgewählt wird, steuert die Systemsteuersektion des Wiedergabegeräts die Abgreif-Antriebssektion. Die Abgreif-Antriebssektion bewegt das Abgreifteil, welches das ausgewählte Programm von der Platte ausliest.
- Wie aus der vorangehenden Beschreibung ersichtlich ist, ist die Managementinformation äußerst wichtig beim Zugriff auf die Platte. Wenn die Managementinformation nicht gelesen werden könnte, hätte dies gravierende Folgen für die Wiedergabe der Daten von der Platte.
- Fig. 18 ist ein Flußdiagramm zur Erläuterung, wie die Datenstring-Verarbeitungssektion 603 die ihr über die Fehlerkorrektur-Datenverarbeitungssektion 602 zugeführten Daten verarbeitet. Die Sektion 603 empfängt die von der Sektion 602 gesendeten Daten und bestimmt, ob diese Daten Fehler enthalten oder nicht.
- Im einzelnen wird die erste Managementinformation von der Platte gelesen (Schritte S11 und S12). Dann bestimmt die Datenstring-Verarbeitungssektion 603, ob die Information Fehler enthält oder nicht (Schritt S13). Wenn nicht (NO), wird die Information als Managementtabelle in dem Arbeitsspeicher gespeichert, der in die Systemsteuersektion 604 eingegliedert ist (Schritt S20). Wenn ja (YES), dann bestimmt die Sektion 603 ob die Fehler korrigiert werden können oder nicht, z. B. durch Zählen der Anzahl der Fehler (Schritt S14). Wenn im Schritt S14 YES erscheint, werden die Fehler korrigiert (Schritt S19). Die so korrigierte Information wird als Managementtabelle in dem Arbeitsspeicher abgespeichert. Wenn in Schritt S14 NO erfolgt, wird die zweite Managementinformation von der Platte ausgelesen (Schritt 15). Als nächstes bestimmt die Datenstring- Verarbeitungssektion 603, ob die Information Fehler enthält oder nicht (Schritt S16). Falls in Schritt 16 NO erfolgt, wird die Information als Managementtabelle in dem in der Systemsteuersektion 604 eingegliederten Arbeitsspeicher abgespeichert (Schritt S20). Wenn in Schritt S16 YES erfolgt, bestimmt der Abschnitt 603, ob die Fehler korrigiert werden können oder nicht, z. B. durch Zählen der Fehleranzahl (Schritt S17). Wenn in Schritt S17 YES erfolgt, werden die Fehler korrigiert (Schritt S19). Die so korrigierten Daten werden als Managementtabelle im Arbeitsspeicher abgespeichert. Wenn in Schritt S17 NO erfolgt, kommt es zu einer Warnanzeige (Schritt 18).
- Gemäß dem vorstehend beschriebenen Beispiel wird bestimmt, ob die erste Managementinformation gültig oder ungültig ist. Wenn die erste Managementinformation ungültig ist, wird die zweite Managementinformation von der Platte ausgelesen. Stattdessen kann sowohl die erste Managementinformation als auch die zweite Managementinformation von der Platte ausgelesen und gleichzeitig auf Fehler geprüft werden. In diesem Fall wird, wenn in einem Teil eines der Managementinformationselemente Fehler gefunden werden, dieser Teil automatisch durch den entsprechenden Teil der anderen Managementinformation ersetzt, wodurch Fehler beseitigt werden, und die fehlerfreie Managementinformation wird im Arbeitsspeicher abgespeichert.
- Wie oben beschrieben wurde, können sowohl das Wiedergabegerät als auch die Platte die Möglichkeit, daß wichtige, im Gerät verwendete Information vollständig zerstört wird, wenn die Platte beschädigt wird, auf ein Minimum reduzieren.
Claims (9)
1. Ein Strom digitaler Signale, die auf einem
Aufzeichnungsmedium, das einen Datenbereich und einen
Managementbereich voneinander getrennt aufweist,
aufzuzeichnen sind, wobei die Signale durch eine Wiedergabe-
bzw. Reproduktionsvorrichtung wiedergebbar bzw.
reproduzierbar sind und der Strom digitaler Signale umfaßt:
einen ersten Strom digitaler Signale, der in dem
Datenbereich des Aufzeichnungsmediums aufzuzeichnen ist und
darstellt:
Gruppen von Videodaten, die Bildgruppen bzw. GOPs
(groups, of pictures) von Hauptbildern, die durch eine
Bewegtbild-Kompressionstechnik codiert sind, umfassen,
Gruppen von Sub-Videodaten, die in Einheiten von
GOPs eines entsprechenden Hauptbildes der Videodaten
aktualisiert werden und zum Hinzufügen zu entsprechenden GOPs
der Videodaten, die dem Hauptbild entsprechen, vorgesehen
sind, um bei der Reproduktion bzw. Wiedergabe dem Hauptbild
überlagert zu werden, wobei die Gruppen von Videodaten und
Sub-Videodaten unter Verwendung getrennter Codierer codiert
wurden und voneinander getrennt sind,
einen zweiten Strom digitaler Signale, der im
Managementbereich des Aufzeichnungsmediums aufzuzeichnen ist
und darstellt:
Steuerdaten (PIF) mit ein Bildcodiersystem und ein
TV-System (PAL,NTSC) identifizierenden Parametern, die zum
Decodieren der Gruppen von Videodaten der Hauptbilder in dem
ersten Strom digitaler Signale erforderlich sind.
2. Strom von Digitalsignalen nach Anspruch 1, wobei die
codierten Sub-Videodaten durch Komprimieren und Codieren
verschiedener Sprachdaten erhaltene Daten aufweisen.
3. Strom von Digitalsignalen nach Anspruch 2, wobei die
verschiedenen Sprachdaten Untertitel aufweisen, die Filmen zu
überlagern sind.
4. Strom von Digitalsignalen nach Anspruch 1, 2 oder 3,
wobei der erste Strom digitaler Signale, der im Datenbereich
des Aufzeichnungsmediums aufzuzeichnen ist, ferner darstellt:
Gruppen codierter Audiodaten (AUDIO), die von den
codierten Videodaten getrennt sind, und die von den
Videodaten getrennt komprimierte und codierte Daten sind.
5. Strom von Digitalsignalen nach Anspruch 4, wobei der
erste Strom digitaler Signale codierte Audiodaten darstellt,
die einer Mehrzahl von Kanälen entsprechen.
6. Strom von Digitalsignalen nach Anspruch 5, wobei die
einer Mehrzahl von Kanälen entsprechenden codierten
Audiodaten durch Komprimieren und Codieren verschiedener
Sprach-Audiodaten erhaltene Daten aufweisen.
7. Strom von Digitalsignalen nach Anspruch 6, wobei die
verschiedenen Sprach-Audiodaten einem durch die Videodaten
dargestellten Film entsprechende Audiodaten aufweisen.
8. Strom von Digitalsignalen nach Anspruch 4, 5, 6 oder 7,
wobei in dem ersten Strom digitaler Signale, der in dem
Datenbereich des Aufzeichnungsmediums aufzuzeichnen ist,
jeweils eine Gruppe von Videodaten, eine Gruppe von Sub-
Videodaten und eine Gruppe von Audiodaten angeordnet ist, um
eine Dateneinheit zu bilden, die einer vorbestimmten
Präsentationszeit entspricht.
9. Aufzeichnungsmedium mit einer magnetischen Platte oder
einer optischen Platte, die einen Datenbereich und einen
Managementbereich getrennt voneinander aufweisen und den
Strom digitaler Signale gemäß einem der Ansprüche 1 bis 8
darauf aufgezeichnet enthält.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22991093A JP2868981B2 (ja) | 1993-09-16 | 1993-09-16 | 圧縮信号生成装置及び方法及び再生装置及び方法 |
JP5271639A JPH07130102A (ja) | 1993-10-29 | 1993-10-29 | ディスク構造 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69426894D1 DE69426894D1 (de) | 2001-04-19 |
DE69426894T2 true DE69426894T2 (de) | 2001-07-26 |
Family
ID=26529060
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69426894T Expired - Lifetime DE69426894T2 (de) | 1993-09-16 | 1994-08-30 | Digitales Videosignal |
DE69414275T Expired - Lifetime DE69414275T2 (de) | 1993-09-16 | 1994-08-30 | Vorrichtung zur Synchronisierung von komprimierten Video- un Audiosignalen |
DE69408237T Expired - Lifetime DE69408237T3 (de) | 1993-09-16 | 1994-08-30 | Vorrichtung zur Komprimierung/Dekomprimierung von Videosignalen in einer Videoplattenaufzeichnungs-/wiedergabegerät |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69414275T Expired - Lifetime DE69414275T2 (de) | 1993-09-16 | 1994-08-30 | Vorrichtung zur Synchronisierung von komprimierten Video- un Audiosignalen |
DE69408237T Expired - Lifetime DE69408237T3 (de) | 1993-09-16 | 1994-08-30 | Vorrichtung zur Komprimierung/Dekomprimierung von Videosignalen in einer Videoplattenaufzeichnungs-/wiedergabegerät |
Country Status (4)
Country | Link |
---|---|
US (1) | US5715356A (de) |
EP (3) | EP0644692B2 (de) |
KR (1) | KR0186063B1 (de) |
DE (3) | DE69426894T2 (de) |
Families Citing this family (112)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
HK1010464A1 (en) * | 1993-10-29 | 1999-06-17 | Kabushiki Kaisha Toshiba | Recording medium which can cope with various languages and reproduction apparatus |
US5463565A (en) * | 1993-10-29 | 1995-10-31 | Time Warner Entertainment Co., L.P. | Data block format for software carrier and player therefor |
US5576843A (en) * | 1993-10-29 | 1996-11-19 | Time Warner Entertainment Co., L.P. | System and method for controlling play of multiple dialog audio tracks of a software carrier |
JP3485958B2 (ja) * | 1994-04-08 | 2004-01-13 | 株式会社東芝 | 記録媒体再生装置及び記録媒体再生方法 |
JP2677775B2 (ja) * | 1994-04-14 | 1997-11-17 | 株式会社東芝 | 再生装置 |
GB2294173B (en) * | 1994-10-11 | 1998-12-09 | Mitsubishi Electric Corp | Disk media, and method of and device for recording and playing back information on or from a disk media |
US5920842A (en) * | 1994-10-12 | 1999-07-06 | Pixel Instruments | Signal synchronization |
US5778142A (en) * | 1994-11-24 | 1998-07-07 | Kabushiki Kaisha Toshiba | Large capacity recording medium, method and apparatus for reproducing data from a large-capacity recording medium, and method and apparatus for recording data on a large-capacity recording medium |
US6009202A (en) * | 1994-12-28 | 1999-12-28 | Kabushiki Kaisha Toshiba | Image information encoding/decoding system |
US5721720A (en) * | 1994-12-28 | 1998-02-24 | Kabushiki Kaisha Toshiba | Optical recording medium recording pixel data as a compressed unit data block |
CA2168327C (en) * | 1995-01-30 | 2000-04-11 | Shinichi Kikuchi | A recording medium on which a data containing navigation data is recorded, a method and apparatus for reproducing a data according to navigationdata, a method and apparatus for recording a data containing navigation data on a recording medium. |
JP3089974B2 (ja) * | 1995-02-13 | 2000-09-18 | 日本ビクター株式会社 | 信号記録方法及び映像信号処理装置 |
US5930450A (en) * | 1995-02-28 | 1999-07-27 | Kabushiki Kaisha Toshiba | Recording medium, apparatus and method of recording data on the same, and apparatus and method of reproducing data from the recording medium |
CA2173812C (en) * | 1995-04-11 | 2000-02-08 | Shinichi Kikuchi | Recording medium, recording apparatus and recording method for recording data into recording medium, and reproducing apparatus and reproduction method for reproducing data from recording medium |
CA2173929C (en) * | 1995-04-14 | 2001-04-03 | Kazuhiko Taira | Method, apparatus and recording medium for reproducing information |
AU698969B2 (en) * | 1995-04-14 | 1998-11-12 | Kabushiki Kaisha Toshiba | Recording medium, device and method for recording data on the medium, and device and method for reproducing data from the medium |
US6009234A (en) | 1995-04-14 | 1999-12-28 | Kabushiki Kaisha Toshiba | Method of reproducing information |
US6009433A (en) * | 1995-04-14 | 1999-12-28 | Kabushiki Kaisha Toshiba | Information storage and information transmission media with parental control |
US5813010A (en) * | 1995-04-14 | 1998-09-22 | Kabushiki Kaisha Toshiba | Information storage and information transmission media with parental control |
US5612900A (en) * | 1995-05-08 | 1997-03-18 | Kabushiki Kaisha Toshiba | Video encoding method and system which encodes using a rate-quantizer model |
WO1996038843A1 (fr) * | 1995-05-31 | 1996-12-05 | Sony Corporation | Procedes et dispositifs de codage/decodage de signaux audio |
JP3701051B2 (ja) * | 1995-07-04 | 2005-09-28 | パイオニア株式会社 | 情報記録装置及び情報再生装置 |
JP4018166B2 (ja) * | 1995-07-06 | 2007-12-05 | パイオニア株式会社 | 媒体記録方法、装置及び媒体再生方法、装置 |
US6324334B1 (en) * | 1995-07-07 | 2001-11-27 | Yoshihiro Morioka | Recording and reproducing apparatus for recording and reproducing hybrid data including text data |
JP3577794B2 (ja) * | 1995-07-18 | 2004-10-13 | ソニー株式会社 | データ復号化装置 |
JP3484834B2 (ja) * | 1995-07-28 | 2004-01-06 | ソニー株式会社 | データ符号化/復号化方法および装置 |
JP2766466B2 (ja) * | 1995-08-02 | 1998-06-18 | 株式会社東芝 | オーディオ方式、その再生方法、並びにその記録媒体及びその記録媒体への記録方法 |
US20020044757A1 (en) * | 1995-08-04 | 2002-04-18 | Sony Corporation | Information carrier, device for reading and device for providing the information carrier and method of transmitting picture information |
JP3493822B2 (ja) | 1995-08-04 | 2004-02-03 | ソニー株式会社 | データ記録方法及び装置、並びに、データ再生方法及び装置 |
EP0788094A4 (de) * | 1995-08-21 | 1998-06-24 | Matsushita Electric Ind Co Ltd | Multimedia optische platte, mit welcher durch interaktive steuerung vollständig unerwarteten szenen erzeugt werden können, deren wiedergabegerät und wiedergabeverfahren |
EP0935251B1 (de) * | 1995-08-21 | 2007-01-03 | Matsushita Electric Industrial Co., Ltd. | Verfahren zur Wiedergabe einer optischen Multimedia-Platte die einem Titel-Entwickler das Koordinieren der Verwendung besonderer Wiedergabefunktionen erlaubt |
KR100302480B1 (ko) | 1995-08-21 | 2001-11-22 | 마츠시타 덴끼 산교 가부시키가이샤 | 영상내용의신선함을오래유지할수있는멀티미디어광디스크및그재생장치와재생방법 |
TW303570B (de) * | 1995-09-29 | 1997-04-21 | Matsushita Electric Ind Co Ltd | |
TW436777B (en) * | 1995-09-29 | 2001-05-28 | Matsushita Electric Ind Co Ltd | A method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween |
TW329515B (en) * | 1995-10-24 | 1998-04-11 | Matsushita Electric Ind Co Ltd | Recording medium and reproduction apparatus |
JP3816571B2 (ja) * | 1996-03-15 | 2006-08-30 | パイオニア株式会社 | 情報記録装置及び情報記録方法並びに情報再生装置及び情報再生方法 |
JP3748936B2 (ja) * | 1996-03-18 | 2006-02-22 | パイオニア株式会社 | 情報記録装置及び方法並びに情報再生装置及び方法 |
JP3719758B2 (ja) * | 1996-03-19 | 2005-11-24 | パイオニア株式会社 | 情報記録装置及び方法並びに情報再生装置及び方法 |
US6757483B1 (en) | 1996-03-19 | 2004-06-29 | Pioneer Electronic Corporation | Information recording medium with aggregate attribute information recorded in video manager, apparatus for recording the same and apparatus for reproducing the same |
JP3698805B2 (ja) * | 1996-03-25 | 2005-09-21 | パイオニア株式会社 | 情報記録装置及び方法、情報処理装置及び方法並びに情報再生装置及び方法 |
CN1755820B (zh) * | 1996-04-05 | 2011-05-18 | 松下电器产业株式会社 | 再生设备 |
US6798981B1 (en) | 1996-04-05 | 2004-09-28 | Matsushita Electric Industrial Co., Ltd. | Multimedia optical disc for storing audio data and sub-picture data in a plurality of channels as well as moving picture data and apparatus and method for reproducing the multimedia optical disc |
EP0935249B1 (de) | 1996-04-12 | 2006-05-24 | Matsushita Electric Industrial Co., Ltd. | Optische Multimedia-Platte die sowohl Videotitel mit AV-Funktionen sowie Videotitel ohne solche Funktionen speichert, die augenblicklich unterscheiden kann zwischen Arten von Titeln und Wiedergabegerät und Wiedergabeverfahren für solch eine Platte |
US6212208B1 (en) * | 1996-11-11 | 2001-04-03 | Matsushita Electric Industrial Co., Ltd. | Method for coding and multiplexing multimedia data, apparatus for coding and multiplexing multimedia data, record media containing program for coding and multiplexing multimedia data |
JP3512098B2 (ja) | 1996-12-13 | 2004-03-29 | ソニー株式会社 | 情報記録装置および方法、並びに情報再生装置および方法 |
US6021440A (en) * | 1997-05-08 | 2000-02-01 | International Business Machines Corporation | Method and apparatus for coalescing and packetizing data |
WO1999031657A2 (en) | 1997-12-15 | 1999-06-24 | Matsushita Electric Industrial Co., Ltd. | Optical disc, optical disc recording apparatus, and optical disc recording method for facilitating dubbing, storage medium for storing optical disc recording program for facilitating dubbing, optical disc reproducing apparatus, and optical disc reproducing method |
US7272298B1 (en) * | 1998-05-06 | 2007-09-18 | Burst.Com, Inc. | System and method for time-shifted program viewing |
DE19822975A1 (de) * | 1998-05-25 | 1999-12-02 | Thomson Brandt Gmbh | Verfahren und Vorrichtung zum Aufnehmen und Wiedergeben von Video- und/oder Audiosignalen |
KR100327211B1 (ko) * | 1998-05-29 | 2002-05-09 | 윤종용 | 부영상부호화방법및장치 |
US6341198B1 (en) * | 1998-06-26 | 2002-01-22 | Lsi Logic Corporation | System for byte packing multiple data channels in an MPEG/DVD system |
US6233389B1 (en) * | 1998-07-30 | 2001-05-15 | Tivo, Inc. | Multimedia time warping system |
US8380041B2 (en) * | 1998-07-30 | 2013-02-19 | Tivo Inc. | Transportable digital video recorder system |
US7558472B2 (en) | 2000-08-22 | 2009-07-07 | Tivo Inc. | Multimedia signal processing system |
US8577205B2 (en) * | 1998-07-30 | 2013-11-05 | Tivo Inc. | Digital video recording system |
EP0982950A3 (de) * | 1998-08-24 | 2004-09-29 | Sony Corporation | Elektronische Videokamera mit MPEG Kodierer |
US6016166A (en) * | 1998-08-31 | 2000-01-18 | Lucent Technologies Inc. | Method and apparatus for adaptive synchronization of digital video and audio playback in a multimedia playback system |
JP3359581B2 (ja) * | 1998-11-25 | 2002-12-24 | パイオニア株式会社 | 情報再生装置 |
DE19855038A1 (de) * | 1998-11-28 | 2000-05-31 | Thomson Brandt Gmbh | Verfahren zur Bildcodierung und -decodierung sowie Verfahren zum Aufbau einer Teilbilddateneinheit für ein elektronisches Gerät und elektronisches Gerät |
DE19859845A1 (de) | 1998-12-23 | 2000-06-29 | Thomson Brandt Gmbh | Wiedergabegerät für Informationsblöcke enthaltende Aufzeichnungsträger |
CA2364301C (en) | 1999-02-17 | 2010-09-14 | Matsushita Electric Industrial Co., Ltd. | Information recording medium, apparatus and method for performing after-recording on a recording medium |
US6138089A (en) * | 1999-03-10 | 2000-10-24 | Infolio, Inc. | Apparatus system and method for speech compression and decompression |
EP1059756A1 (de) * | 1999-06-09 | 2000-12-13 | Lucent Technologies Inc. | Sprachübertragung über Paketvermittlungsnetzwerke |
CN100579193C (zh) * | 1999-07-09 | 2010-01-06 | 松下电器产业株式会社 | 记录器、重放器、记录方法和重放方法 |
US6374041B1 (en) | 2000-07-07 | 2002-04-16 | Matsushita Electric Industrial Co., Ltd. | Optical disc, a recorder, a player, a recording method, and a reproducing method that are all used for the optical disc |
US6587638B1 (en) * | 1999-08-02 | 2003-07-01 | Hitachi, Ltd. | Recording/ reproducing apparatus and input/ output device |
EP1085767B1 (de) * | 1999-09-20 | 2011-08-10 | Panasonic Corporation | Eine Kodier-/Aufnahme-Vorrichtung, die die Kodierung von Videodaten und die Bemusterung von einem Tonsignal unterbricht, als Antwort auf einen Aufnahmepauseauftrag, um die ununterbrochene Wiedergabe von vor und nach der Aufnahmepause aufgenommemen Daten zu ermöglichen |
EP1214842B1 (de) | 1999-09-20 | 2010-11-17 | TiVo, Inc. | Untertitel-etikettiersystem |
KR100722455B1 (ko) * | 1999-11-16 | 2007-05-28 | 소니 가부시끼 가이샤 | 기록매체, 데이터 기록방법과 장치, 데이터 재생방법과장치 및 복사제어방법 |
TW526666B (en) * | 2000-03-29 | 2003-04-01 | Matsushita Electric Ind Co Ltd | Reproducing method for compression coded data and device for the same |
CN1159909C (zh) * | 2000-04-21 | 2004-07-28 | 松下电器产业株式会社 | 数字存储媒体的特殊再现方法 |
EP1148739B1 (de) * | 2000-04-21 | 2015-01-21 | Panasonic Corporation | Videobearbeitungsverfahren und Videobearbeitungsgerät |
JP2002016925A (ja) * | 2000-04-27 | 2002-01-18 | Canon Inc | 符号化装置及び符号化方法 |
US20070230921A1 (en) * | 2001-04-05 | 2007-10-04 | Barton James M | Multimedia time warping system |
US7336680B2 (en) * | 2001-09-18 | 2008-02-26 | Scientific-Atlanta, Inc. | Multi-carrier frequency-division multiplexing (FDM) architecture for high speed digital service |
US7729379B2 (en) * | 2001-09-18 | 2010-06-01 | Scientific-Atlanta, Inc. | Mapping of bit streams into MPEG frames |
JP4078198B2 (ja) * | 2002-01-31 | 2008-04-23 | 松下電器産業株式会社 | 情報記録媒体および欠陥管理領域の位置決定方法 |
JP4045940B2 (ja) * | 2002-04-05 | 2008-02-13 | ソニー株式会社 | 記録制御装置および記録制御方法、プログラム、並びに記録媒体 |
US20040006635A1 (en) * | 2002-04-19 | 2004-01-08 | Oesterreicher Richard T. | Hybrid streaming platform |
US20040006636A1 (en) * | 2002-04-19 | 2004-01-08 | Oesterreicher Richard T. | Optimized digital media delivery engine |
US7899924B2 (en) * | 2002-04-19 | 2011-03-01 | Oesterreicher Richard T | Flexible streaming hardware |
US7590145B2 (en) * | 2002-09-17 | 2009-09-15 | Scientific-Atlanta, Inc. | Multiplexing octets from a data flow over MPEG packets |
US8737810B2 (en) | 2002-11-15 | 2014-05-27 | Thomson Licensing | Method and apparatus for cropping of subtitle elements |
KR101034969B1 (ko) | 2002-11-15 | 2011-05-17 | 톰슨 라이센싱 | 자막 작성 장치 |
KR100677106B1 (ko) * | 2002-12-10 | 2007-02-01 | 삼성전자주식회사 | 정보저장매체 및 그 기록/재생방법 |
US7519274B2 (en) | 2003-12-08 | 2009-04-14 | Divx, Inc. | File format for multiple track digital data |
US8472792B2 (en) | 2003-12-08 | 2013-06-25 | Divx, Llc | Multimedia distribution system |
US9715898B2 (en) * | 2003-12-16 | 2017-07-25 | Core Wireless Licensing S.A.R.L. | Method and device for compressed-domain video editing |
US7587131B1 (en) | 2004-05-28 | 2009-09-08 | Magnum Semiconductor, Inc. | Audio clocking in video applications |
US20060146780A1 (en) * | 2004-07-23 | 2006-07-06 | Jaques Paves | Trickmodes and speed transitions |
JP4897698B2 (ja) | 2004-11-19 | 2012-03-14 | ティヴォ インク | 以前に放送されたコンテンツを安全に転送する方法および装置 |
KR100638138B1 (ko) * | 2005-05-24 | 2006-10-24 | 주식회사 픽스트리 | 비디오/오디오 부호화 및 다중화 기능을 가진 하드웨어장치 및 그 작동 방법 |
EP1900221B1 (de) | 2005-07-07 | 2012-10-10 | TiVo Inc. | System und verfahren zum abrufen von digitalen inhalten |
WO2007043824A1 (en) * | 2005-10-13 | 2007-04-19 | Lg Electronics Inc. | Method and apparatus for encoding/decoding |
US20090160862A1 (en) * | 2005-10-13 | 2009-06-25 | Tae Hyeon Kim | Method and Apparatus for Encoding/Decoding |
US7712005B2 (en) * | 2005-10-21 | 2010-05-04 | Marvell World Trade Ltd. | Encoding and error correction system for enhanced performance of legacy communications networks |
US8761568B2 (en) | 2005-12-20 | 2014-06-24 | Vestel Elektronik Sanayi Ve Ticaret A.S. | Method and apparatus for synchronizing subtitles with a video |
JP4948147B2 (ja) * | 2006-12-15 | 2012-06-06 | 富士通株式会社 | 複合コンテンツファイルの編集方法および装置 |
JP5513400B2 (ja) | 2007-11-16 | 2014-06-04 | ソニック アイピー, インコーポレイテッド | マルチメディアファイルのための階層的で簡略なインデックス構造体 |
US8165451B2 (en) * | 2007-11-20 | 2012-04-24 | Echostar Technologies L.L.C. | Methods and apparatus for displaying information regarding interstitials of a video stream |
US8136140B2 (en) | 2007-11-20 | 2012-03-13 | Dish Network L.L.C. | Methods and apparatus for generating metadata utilized to filter content from a video stream using text data |
US8165450B2 (en) | 2007-11-19 | 2012-04-24 | Echostar Technologies L.L.C. | Methods and apparatus for filtering content in a video stream using text data |
US8606085B2 (en) * | 2008-03-20 | 2013-12-10 | Dish Network L.L.C. | Method and apparatus for replacement of audio data in recorded audio/video stream |
US8156520B2 (en) * | 2008-05-30 | 2012-04-10 | EchoStar Technologies, L.L.C. | Methods and apparatus for presenting substitute content in an audio/video stream using text data |
US8588579B2 (en) * | 2008-12-24 | 2013-11-19 | Echostar Technologies L.L.C. | Methods and apparatus for filtering and inserting content into a presentation stream using signature data |
US8510771B2 (en) * | 2008-12-24 | 2013-08-13 | Echostar Technologies L.L.C. | Methods and apparatus for filtering content from a presentation stream using signature data |
US8407735B2 (en) * | 2008-12-24 | 2013-03-26 | Echostar Technologies L.L.C. | Methods and apparatus for identifying segments of content in a presentation stream using signature data |
US8437617B2 (en) * | 2009-06-17 | 2013-05-07 | Echostar Technologies L.L.C. | Method and apparatus for modifying the presentation of content |
US8934758B2 (en) | 2010-02-09 | 2015-01-13 | Echostar Global B.V. | Methods and apparatus for presenting supplemental content in association with recorded content |
US20110197224A1 (en) * | 2010-02-09 | 2011-08-11 | Echostar Global B.V. | Methods and Apparatus For Selecting Advertisements For Output By A Television Receiver Based on Social Network Profile Data |
CN105187733B (zh) * | 2014-06-06 | 2019-03-01 | 腾讯科技(北京)有限公司 | 视频处理方法、装置及终端 |
US11172269B2 (en) | 2020-03-04 | 2021-11-09 | Dish Network L.L.C. | Automated commercial content shifting in a video streaming system |
Family Cites Families (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3757225A (en) * | 1972-03-16 | 1973-09-04 | Telebeam Corp | Communication system |
JPS5971105A (ja) * | 1982-10-15 | 1984-04-21 | Victor Co Of Japan Ltd | アドレス信号発生回路 |
JPS59194583A (ja) * | 1983-04-19 | 1984-11-05 | Victor Co Of Japan Ltd | 画像表示装置 |
US4680647A (en) * | 1983-09-26 | 1987-07-14 | Pioneer Electronic Corporation | Method for recording and reproducing video format signal |
JPH0828054B2 (ja) * | 1983-11-30 | 1996-03-21 | ソニー株式会社 | デイスク状記録媒体 |
US4777537A (en) * | 1985-10-21 | 1988-10-11 | Sony Corporation | Signal recording apparatus and method |
JPS62117482A (ja) * | 1985-11-18 | 1987-05-28 | Pioneer Electronic Corp | ビデオデイスク並びにその記録及び再生装置 |
US4947221A (en) † | 1985-11-29 | 1990-08-07 | General Electric Company | Memory cell for a dense EPROM |
NL8601182A (nl) * | 1986-05-12 | 1987-12-01 | Philips Nv | Werkwijze en inrichting voor het opnemen en/of weergeven van een beeldsignaal en een bijbehorend audiosignaal in respektievelijk van een registratiedrager, en een registratiedrager verkregen volgens de werkwijze. |
US4843484A (en) * | 1986-09-12 | 1989-06-27 | Pioneer Electronic Corporation | Information recording disc with composite index codes and its playback method |
JP2537041B2 (ja) * | 1986-11-05 | 1996-09-25 | キヤノン株式会社 | 記録装置 |
DE3718567A1 (de) * | 1987-06-03 | 1988-12-15 | Bosch Gmbh Robert | Verfahren und anordnung zu wiedergabe von auf magnetband gespeicherten videodaten |
JP2590899B2 (ja) * | 1987-07-24 | 1997-03-12 | 松下電器産業株式会社 | 文字図形情報表示装置 |
US5225904A (en) * | 1987-10-05 | 1993-07-06 | Intel Corporation | Adaptive digital video compression system |
US4870613A (en) * | 1988-01-11 | 1989-09-26 | Cincinnati Milacron Inc. | Method for interactively changing video disks |
JPH07118798B2 (ja) * | 1988-02-29 | 1995-12-18 | パイオニア株式会社 | 画像情報の記録方法及び再生方法 |
US5065252A (en) * | 1988-02-29 | 1991-11-12 | Pioneer Electronic Corporation | Method and apparatus for recording and reproducing picture information enabling the mixing of images of a video format signal and graphic codes recorded on a single recording medium |
JPH01221070A (ja) * | 1988-02-29 | 1989-09-04 | Casio Comput Co Ltd | 画像情報処理装置 |
JP2938077B2 (ja) * | 1988-03-11 | 1999-08-23 | パイオニア株式会社 | 画像信号の記録方法及び画像の再生方法 |
US5016113A (en) * | 1988-04-04 | 1991-05-14 | Pioneer Electronic Corporation | Apparatus for reproducing and processing picture information including graphic codes from a recording medium |
JP2683021B2 (ja) * | 1988-04-04 | 1997-11-26 | パイオニア株式会社 | 画像情報再生処理装置 |
JPH01273275A (ja) * | 1988-04-25 | 1989-11-01 | Pioneer Electron Corp | 画像情報の記録再生方式 |
JPH01273268A (ja) * | 1988-04-25 | 1989-11-01 | Pioneer Electron Corp | 情報記録再生方法 |
US5282186A (en) * | 1988-04-25 | 1994-01-25 | Pioneer Electronic Corporation | Method and apparatus for recording and reproducing picture information and recording medium |
JPH01273270A (ja) * | 1988-04-25 | 1989-11-01 | Pioneer Electron Corp | 記録媒体の演奏装置における演奏方式及び情報記録再生方式 |
US5280572A (en) * | 1988-06-24 | 1994-01-18 | Time Warner Interactive Group Inc. | Method and apparatus for storing text data in subcode packs |
US5132807A (en) * | 1988-07-28 | 1992-07-21 | Canon Kabushiki Kaisha | Recording apparatus for recording main information with additional information |
US4992886A (en) * | 1988-12-20 | 1991-02-12 | Wnm Ventures, Inc. | Method and apparatus for encoding data within the subcode channel of a compact disc or laser disc |
US5218454A (en) * | 1989-03-28 | 1993-06-08 | Canon Kabushiki Kaisha | Apparatus for improved recording of signals having video and audio components |
US4947244A (en) * | 1989-05-03 | 1990-08-07 | On Command Video Corporation | Video selection and distribution system |
JP2531795B2 (ja) * | 1989-06-29 | 1996-09-04 | パイオニア株式会社 | 画像情報再生装置 |
JP2789723B2 (ja) * | 1989-10-20 | 1998-08-20 | ソニー株式会社 | 画像検索装置 |
US5233438A (en) * | 1990-03-02 | 1993-08-03 | Brother Kogyo Kabushiki Kaisha | Entertainment apparatus for producing orchestral music accompaniment and a selected background video |
US5274463A (en) * | 1990-03-27 | 1993-12-28 | Sony Corporation | Still picture storing and sequencing apparatus |
JPH03288360A (ja) * | 1990-04-04 | 1991-12-18 | Pioneer Electron Corp | 複合ディスク演奏方法 |
JP2969782B2 (ja) * | 1990-05-09 | 1999-11-02 | ソニー株式会社 | 符号化データ編集方法及び符号化データ編集装置 |
JPH0447876A (ja) * | 1990-06-15 | 1992-02-18 | Aiwa Co Ltd | ディジタル信号の記録再生方式 |
JP2965330B2 (ja) * | 1990-07-06 | 1999-10-18 | パイオニア株式会社 | 情報再生装置 |
JPH0467470A (ja) * | 1990-07-06 | 1992-03-03 | Pioneer Electron Corp | 情報記憶装置及び情報再生装置 |
EP0469804B1 (de) * | 1990-07-30 | 1997-06-04 | Sony Corporation | Videosignalaufzeichnungs- und/oder Wiedergabegerät |
US5138440A (en) * | 1990-10-29 | 1992-08-11 | General Instrument Corporation | Method and apparatus for communicating a plurality of asynchronous signals over a digital communication path |
WO1992022983A2 (en) * | 1991-06-11 | 1992-12-23 | Browne H Lee | Large capacity, random access, multi-source recorder player |
US5715224A (en) * | 1991-07-05 | 1998-02-03 | Sony Corporation | Recording medium with synthesis method default value and reproducing device |
JP3158556B2 (ja) * | 1991-09-27 | 2001-04-23 | ソニー株式会社 | ディスク記録装置及びディスク再生装置 |
JPH05250809A (ja) * | 1992-03-03 | 1993-09-28 | Pioneer Video Corp | 記録媒体及びその記録情報再生システム |
JPH05250813A (ja) * | 1992-03-04 | 1993-09-28 | Pioneer Video Corp | 記録媒体及びその情報記録再生システム |
JP2785220B2 (ja) * | 1992-09-22 | 1998-08-13 | ソニー株式会社 | データ符号化装置および方法、並びにデータ復号化装置および方法 |
EP0615382B1 (de) * | 1993-03-10 | 2001-01-17 | Matsushita Electric Industrial Co., Ltd. | Aufnahmegerät für digitale Signale |
EP0618526A3 (de) * | 1993-03-31 | 1995-09-27 | Us West Advanced Tech Inc | Verfahren und Vorrichtung für ein hierarchisches, ansteuerbares Videomilieu. |
JP3598524B2 (ja) * | 1993-08-16 | 2004-12-08 | ソニー株式会社 | 画像記録装置及び方法 |
US5400077A (en) * | 1993-10-29 | 1995-03-21 | Time Warner Entertainment Co., L.P. | System for generating multiple aspect ratio video signals from motion picture disk recorded in a single aspect ratio |
-
1994
- 1994-08-30 EP EP94113521A patent/EP0644692B2/de not_active Expired - Lifetime
- 1994-08-30 EP EP97107570A patent/EP0790739B1/de not_active Expired - Lifetime
- 1994-08-30 DE DE69426894T patent/DE69426894T2/de not_active Expired - Lifetime
- 1994-08-30 DE DE69414275T patent/DE69414275T2/de not_active Expired - Lifetime
- 1994-08-30 DE DE69408237T patent/DE69408237T3/de not_active Expired - Lifetime
- 1994-08-30 EP EP97107571A patent/EP0790743B1/de not_active Expired - Lifetime
- 1994-09-15 KR KR1019940023357A patent/KR0186063B1/ko not_active Expired - Lifetime
- 1994-09-16 US US08/307,147 patent/US5715356A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP0790743B1 (de) | 1998-10-28 |
KR0186063B1 (ko) | 1999-04-15 |
EP0790739B1 (de) | 2001-03-14 |
EP0790743A2 (de) | 1997-08-20 |
DE69408237D1 (de) | 1998-03-05 |
DE69426894D1 (de) | 2001-04-19 |
DE69408237T2 (de) | 1998-08-27 |
EP0790743A3 (de) | 1997-11-19 |
EP0644692B1 (de) | 1998-01-28 |
DE69414275T2 (de) | 1999-05-06 |
EP0790739A3 (de) | 1997-10-22 |
EP0644692A2 (de) | 1995-03-22 |
EP0790739A2 (de) | 1997-08-20 |
DE69414275D1 (de) | 1998-12-03 |
DE69408237T3 (de) | 2004-07-01 |
EP0644692B2 (de) | 2003-10-01 |
EP0644692A3 (de) | 1996-07-03 |
US5715356A (en) | 1998-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69426894T2 (de) | Digitales Videosignal | |
DE69704034T2 (de) | Datenaufzeichnungsmedium, Aufzeichnungsgerät und Wiedergabegerät | |
DE69127506T2 (de) | Verfahren zum Übertragen einer Bildfolge einer "Bewegt-Bild-Video-Szene" sowie ein Medium zu dieser Übertragung | |
DE69701436T2 (de) | Optische multimedia-scheibe, wiedergabevorrichtung und -verfahren zur überlagerung eines untergeordneten bildes auf ein hauptbild in einer ausgeglichenen weise, unabhängig von der schirmposition des hauptbildes | |
DE69715704T2 (de) | Informationsaufzeichnungsmedium, Gerät zur Aufzeichnung auf demgleichen und Gerät zur Wiedergabe aus demgleichen | |
DE69620073T2 (de) | Datenkodier/-dekodierverfahren und -gerät und Aufzeichnungsmedium für kodierte Daten | |
DE69615767T2 (de) | Kodierung und Dekodierung von Daten, sowie Suchen nach Daten | |
DE69615111T2 (de) | Gerät und Verfahren zur Kodierung von digitalen Videodaten | |
DE69625647T2 (de) | Datenaufzeichnungsgerät und Datenwiedergabegerät | |
DE69924765T2 (de) | Vorrichtung zur Erzeugung von Daten zur Wiederfindung von Videodaten und Vorrichtung zur Wiederfindung von Videodaten | |
DE19539400C2 (de) | Scheibenmedium und Verfahren sowie Vorrichtung zum Aufzeichnen auf ein sowie Wiedergeben von Informationen von einem Scheibenmedium | |
DE69734222T2 (de) | Informationsaufzeichnungsträger, Aufzeichnungsgerät und Wiedergabegerät dafür | |
DE69319353T3 (de) | Aufzeichnungsmedium, wiedergabeverfahren und wiedergabegerät für mehrfachszenen | |
DE69523361T2 (de) | Verfahren und Vorrichtung zur Aufnahme/Wiedergabe von Fernsehdaten in Dateneinheiten als Dateneinheit, die einer vorbestimmten Anzahl von Bilder entspricht | |
DE69507270T2 (de) | Verfahren und Gerät zur Wiedergabe von Daten von einem Aufzeichnungsmedium grosser Kapazität | |
DE69722701T2 (de) | Informationsaufzeichnungsmedium und Gerät zur Wiedergabe desgleichen | |
DE69318038T2 (de) | Aufzeichnungsmedium, das verschiedene sprachen verarbeiten kann und wiedergabevorrichtung | |
DE60210611T2 (de) | Effizientes übertragen und abspielen digitaler information | |
DE69833162T2 (de) | Informationsspeichermedium und Wiedergabegerät dafür | |
DE60002732T2 (de) | Digitales videoverarbeitungs- und speichersystem für video-, audio- und zusatzdaten | |
DE69128772T2 (de) | System mit einem aufzeichnungsträger und einer wiedergabevorrichtung | |
DE69718538T2 (de) | Informationsaufzeichnungsmedium, Gerät zur Aufzeichnung auf demgleichen und Gerät zur Wiedergabe aus demgleichen | |
DE69627766T2 (de) | Datenaufzeichnungsverfahren, -gerät und -medien sowie Datenwiedergabeverfahren und -gerät | |
DE69632664T2 (de) | Dekodierung von Informationsseiten, die Titelinformation und Seitendaten umfassen | |
DE69736846T2 (de) | Informationswiedergabevorrichtung und -verfahren, Informationsaufzeichnungsvorrichtung und -verfahren, und Informationsaufzeichnungsmedium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |