[go: up one dir, main page]

DE69426894T2 - Digitales Videosignal - Google Patents

Digitales Videosignal

Info

Publication number
DE69426894T2
DE69426894T2 DE69426894T DE69426894T DE69426894T2 DE 69426894 T2 DE69426894 T2 DE 69426894T2 DE 69426894 T DE69426894 T DE 69426894T DE 69426894 T DE69426894 T DE 69426894T DE 69426894 T2 DE69426894 T2 DE 69426894T2
Authority
DE
Germany
Prior art keywords
data
stream
digital signals
video data
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69426894T
Other languages
English (en)
Other versions
DE69426894D1 (de
Inventor
Koichi Hirayama
Yuichi Miyano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26529060&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69426894(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from JP22991093A external-priority patent/JP2868981B2/ja
Priority claimed from JP5271639A external-priority patent/JPH07130102A/ja
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of DE69426894D1 publication Critical patent/DE69426894D1/de
Application granted granted Critical
Publication of DE69426894T2 publication Critical patent/DE69426894T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9206Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9261Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction
    • H04N5/9262Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9265Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal
    • H04N5/9267Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/18Error detection or correction; Testing, e.g. of drop-outs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/602Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8045Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf einen Strom von Digitalsignalen, und zwar auf einen auf einem Aufzeichnungsmedium wie einer magnetischen oder optischen Platte aufgezeichneten Strom.
  • In den letzten Jahren sind magnetische Speicherplatten und optische Speicherplatten in verschiedenen Informationssystemen als Aufzeichnungsmedien zum Speichern einer großen Datenmenge verwendet worden. Auf einer derartigen Platte können nun dank der jüngsten Fortschritte in der Technik der schnellen Code-Komprimierung von Videodaten eine Anzahl von Programmen gespeichert werden. Es sind verschiedene Systeme der Komprimierung von Bewegtbilddaten bekannt. Ein Beispiel ist das in der ISO-Norm 11172 definierte MPEG-System.
  • Um mehr Daten auf einer Platte aufzuzeichnen, ist es wünschenswert, nicht nur Signale aufzuzeichnen, die durch Kompressions-Codierung oder Codierung mit variabler Länge mittels Bewegtbild-Komprimierung erzeugt worden sind, sondern auch die Aufzeichnungsdichte des Datenaufzeichnungsbereichs einer Platte zu erhöhen. Es besteht ein Bedarf an Techniken des Datensuchens mit hoher Geschwindigkeit und des Reproduzierens bzw. Wiedergebens derselben von der Platte auf eine spezielle Weise. Wenn ein Videosignal durch Bewegtbildkomprimierung codiert wird, müssen das Videosignal und ein auf das Videosignal bezogenes Audiosignal synchronisiert sein.
  • Wenn eine Platte mit Schmutz behaftet ist, ist ein Wiedergabegerät nicht in der Lage, die wichtige Information von der Platte zu lesen. Wenn einmal eine Informationstabelle zum Verwalten der auf der Plate aufgezeichneten Programme zerstört worden ist, kann das Gerät die wichtige Information nicht mehr von der Platte reproduzieren bzw. wiedergeben.
  • Aufgabe der vorliegenden Erfindung ist die Bereitstellung eines Aufzeichnungsmediums, welches Daten verschiedener Typen (wie Hauptbilddaten/Videodaten, Überlagerungsbilddaten, Audivdaten) effizienter speichern kann.
  • Ebenfalls offenbart ist ein Aufzeichnungsmedium (Platte), welches die Möglichkeit, daß wichtige zu benutzende Information in einem Wiedergabegerät vollständig zerstört wird, wenn die Platte beschädigt wird, minimiert.
  • Gemäß der vorliegenden Erfindung ist ein Strom digitaler Signale vorgesehen, wie er in Anspruch 1 definiert ist.
  • In einer bevorzugten Ausführungsform ist der Strom digitaler Signale auf einem Aufzeichnungsmedium, wie z. B. einer magnetischen oder optischen Platte, aufgezeichnet.
  • Diese Erfindung ist aus der folgenden, detaillierten Beschreibung unter Bezugnahme auf die beigefügten Zeichnungen besser verständlich. In den Zeichnungen zeigen:
  • Fig. 1A eine graphische Darstellung, die schematisch die gemäß einem ersten Beispiel erzeugten, codierten Daten wiedergibt,
  • Fig. 1B eine graphische Darstellung, die schematisch ein durch Decodieren der codierten Daten gemäß Fig. 1A erhaltenes Ausgabebild zeigt,
  • Fig. 10 eine graphische Darstellung zur Veranschaulichung des Formats komprimierter Signale, die in dem ersten Beispiel erzeugt werden,
  • Fig. 2A eine graphische Darstellung, die in einem zweiten Beispiel erzeugte, codierte Daten wiedergibt,
  • Fig. 2B eine graphische Darstellung, die schematisch ein durch Decodieren der codierten Daten gemäß Fig. 2A erhaltenes Ausgabebild zeigt,
  • Fig. 2C eine graphische Darstellung zur Veranschaulichung des Formats von im zweiten Beispiel erzeugten, komprimierten Signalen,
  • Fig. 3A eine graphische Darstellung, die schematisch die in einem dritten Beispiel erzeugten, codierten Daten wiedergibt,
  • Fig. 3B eine graphische Darstellung, die schematisch ein durch Decodieren der codierten Daten gemäß Fig. 3A erhaltenes Ausgabebild zeigt,
  • Fig. 3C eine graphische Darstellung zur Veranschaulichung des Formats von in dem dritten Beispiel erzeugten komprimierten Signalen,
  • Fig. 4A eine graphische Darstellung des Management- bzw. Verwaltungsbereichs und des Datenbereichs einer Platte,
  • Fig. 4B eine Darstellung der Dateneinheit-Zuordnungstabelle (DAT) auf der in Fig. 4A gezeigten Platte,
  • Fig. 5A die im Managementbereich der Platte aufgezeichnete Managementtabelle,
  • Fig. 5B eine Tabelle, welche den Inhalt von 16 Bytes im Programminformationsfeld (PIF) auf der Platte gemäß der vorliegenden Erfindung darstellt,
  • Fig. 5C eine Tabelle, welche die Struktur der DAT zeigt,
  • Fig. 6A eine graphische Darstellung der Adressenanordnung der in Fig. 5A gezeigten Managementtabelle, insbesondere der Adressenanordnung der DAT,
  • Fig. 6B eine graphische Darstellung eines Beispiels einer Adressenanordnung, welche die Managementtabelle annehmen kann,
  • Fig. 7 ein Blockschaltbild der Vorrichtung zur Bearbeitung komprimierter Videosignale,
  • Fig. 8A eine graphische Darstellung des Formats codierter Videodaten,
  • Fig. 8B eine graphische Darstellung des Formats codierter Audiodaten,
  • Fig. 8C eine graphische Darstellung des Formats codierter Zusatzdaten,
  • Fig. 9 ein Blockschaltbild eines Beispiels des im System zur Verarbeitung der in den Fig. 8A, 8B und 8C gezeigten Dateneinheiten eingegliederten Codierers,
  • Fig. 10 ein Blockschaltbild eines Beispiels des im System zur Verarbeitung der in den Fig. 8A, 8B und 8C gezeigten Dateneinheiten eingegliederten Decoders,
  • Fig. 11 ein Blockschaltbild eines weiteren Beispiels des im System zur Verarbeitung der in den Fig. 8A, 8B und 8C gezeigten Dateneinheiten eingegliederten Decoders,
  • Fig. 12 ein Blockschaltbild zur Veranschaulichung eines Aufzeichnungs-/Wiedergabegeräts,
  • Fig. 13 ein Blockschaltbild der Datenstring- Verarbeitungssektion des in Fig. 12 gezeigten Geräts,
  • Fig. 14 eine Tabelle zur Darstellung der Struktur des Headers bzw. Kopfteils einer Dateneinheit,
  • Fig. 15A eine perspektivische Ansicht einer Platte,
  • Fig. 15B eine graphische Darstellung der auf der Platte gebildeten, spiralförmigen Spur,
  • Fig. 16 eine graphische Darstellung des Inhalts der Dateneinheit DUT #0, die im Datenbereich der Platte aufgezeichnet ist,
  • Fig. 17A die im Volumen-Identifizierfeld (VID) auf der Platte aufgezeichnete Tabelle sowie die Beziehung zwischen Beschreibungscodes und Sprachcodes,
  • Fig. 17B die im PIF auf der Platte aufgezeichnete Tabelle,
  • Fig. 17C eine Tabelle, welche die Bedeutung jedes Beschreibungscodes zeigt, und
  • Fig. 18 ein Flußdiagramm zur Veranschaulichung der Funktionsweise des Datenstring-Verarbeitungsteils des in Fig. 12 gezeigten Geräts.
  • Im folgenden wird die vorliegende Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • Zunächst wird das in der vorliegenden Erfindung verwendete Bewegtbild-Kompressionsformät erklärt. Zur Codierung von Videodaten werden Bildgruppen (GOPs = groups of pictures) zur Bildung eines Datenpakets kombiniert, und Audiodaten (ungefähr 1,0 s lang) sowie Expansionsdaten werden beide für das Paket codiert. Die so codierten Daten werden den komprimierten Videodaten zur Bildung einer Dateneinheit hinzugefügt. Jede Bildgruppe (GOP) ist in demselben Programm festgelegt. Ein Sprachsynchronisier-Zeitcode ist als Header bzw. Kopfteil (d. h. der erste Teil der Dateneinheit) angeordnet, und Sub-Videodaten werden nächst dem Header angeordnet.
  • In Fig. 1A ist ein Beispiel der codierten Daten dargestellt, und Fig. 1B zeigt das durch Decodieren der codierten Daten erhaltene Ausgabebild. In den Fig. 1A und 1B bedeutet I die in einem Frame (Einzelbild) codierten Videodaten, P die durch Vorwärts-Prädiktion (forward prediction) codierten Videodaten, und B die durch bidirektionale Prädiktion (bidirectional prediction) codierten Videodaten. In dieser Betriebsart werden die Komponenten I, P, B, P und B der Videodaten wiederholt in der erwähnten Reihenfolge codiert. Infolgedessen unterscheidet sich die Länge der codierten Daten von Frame zu Frame. Bei einem solchen Format erhält man bei der Wiedergabe nur von I ein Bild mit 6-facher Geschwindigkeit, und bei der Wiedergabe von I und P wird ein Bild mit doppelter Geschwindigkeit erzeugt. Die tatsächliche Vielfachgeschwindigkeit ist begrenzt durch die Geschwindigkeit, mit der die Daten von einer Platte ausgelesen werden. Dieses Format eignet sich für Hochgeschwindigkeits-Übertragungsraten, eine große Aufzeichnungskapazität und halb wahlfreien Zugriff (semirandom access). In diesem Beispiel gemäß Fig. 1C bilden sechs Frames (Einzelbilder) eine Bildgruppe (GOP) und fünf GOPs bilden ein Datenpaket. Es dauert eine Sekunde, um dieses Paket von der Platte zu reproduzieren. Die tatsächliche Länge der aufgezeichneten Signale auf der Platte sind von Paket zu Paket unterschiedlich, da die Signale durch Bewegtbild- Komprimiertechniken codiert sind.
  • Daher besteht ein Datenpaket aus 30 Einzelbildern bzw. Frames ( = 5 GOPs · 6 frames/GOP). Jeder Satz von 30 Frames wird in 48 K Bytes ( = 4 ch · 12 K Bytes/s) aufgezeichnet. In diesem Fall werden zwei Kanäle gleichzeitig verwendet, und die erforderliche Mindestspeicherkapazität beträgt nur 24 K Bytes.
  • Das Primärdatenelement und die Datenrate für jede auf der Platte aufzuzeichnende Dateneinheit sind wie folgt: Expansionsdaten = 128K Bits/s = 16 K Bytes/s Audiodaten = 384K Bits/s = 48K Bytes/s Bilddaten = 4096K Bits/s = 512K Bytes/s
  • Die Expansionsdaten enthalten einen Header und Sub- Videodaten. Die Sub-Videodaten können z. B. als Untertiteldaten in einem Kinofilm verwendet werden. Der Header stellt individuelle Managementinformation in der Dateneinheit dar und enthält Bild-Sprach-Synchronisierdaten. Die Sub-Videodaten werden in Einheiten von GOPs fortgeschrieben, welche das entsprechende Hauptbild enthalten. Bild und Sprache bzw. Ton werden ebenfalls in Einheiten von GOPs synchronisiert, und die Synchronisierung wird ebenfalls in Einheiten von GOPs korrigiert.
  • Für Untertiteldaten kann eine Anzahl von Kanälen für die Sub-Videodaten zur Verfügung gestellt werden, so daß zwei Arten von Überlagerungsbildern (sub-images) als englisches Szenarium bzw. Drehbuch und japanische Untertitel auf einem ausländischen Film ausgegeben werden können. Bei einer zugeteilten Rate von 64K Bits/s für die Sub-Videodaten und einer Aufzeichnungszeit für 1 Paket von 1,0 s beträgt die Pufferspeicherkapazität zum Zwischenspeichern bzw. Halten der Sub-Videodaten in etwa 64K Bits. Die für 2 Kanäle von Überlagerungsbildern erforderliche Pufferspeicherkapazität kann 32K Bits betragen.
  • Wenn die Videodaten, die Audiodaten und die Expansionsdaten codiert worden sind, werden sie innerhalb der Dateneinheit vervollständigt und sind vollkommen unabhängig von anderen Dateneinheiten.
  • Auf der Platte ist ein Managementbereich vorgesehen. Jede Dateneinheit wird in Übereinstimmung mit den im Managementbereich aufgezeichneten Daten gelesen. Da jede Dateneinheit unabhängig von allen anderen Dateneinheiten verarbeitet wird, ist ihre Aufbereitung und der Zugriff auf sie leicht.
  • Im folgenden wird der Bezug zwischen dem Datenbereich und der zugeordneten Managementinformation beschrieben. Im tatsächlichen Layout wird für jede Bildgruppe ein Byte-Ausricht- bzw. Synchronisiervorgang durchgeführt, und für jede Dateneinheit wird immer ein Sektoren-Ausricht- bzw. Synchronisiervorgang durchgeführt, um eine Segmentierung der Dateneinheit zu erleichtern. Aufgrund des durchgeführten Sektorenausrichtvorgangs wird die tatsächliche Aufzeichnungskapazität der Platte verringert. Für den Fall, daß die Anzeigen-Bildfolgefrequenz 30 frame/s beträgt, jede GOP aus sechs Bildern (frames) und jede Dateneinheit aus fünf GOPs besteht, wird die Sektorenausrichtung für alle Daten durchgeführt, welche 1,0 s eines Programms entsprechen. Daher hat eine Platte, die ein 120-Minuten-Programm aufzeichnet, eine um 7200 Sektoren verminderte Aufzeichnungskapazität. Diese Verringerung beträgt 0,2% bei einer Platte, deren gesamte Aufzeichnungskapazität 346.752 Sektoren beträgt, von denen jeder 1K Byte Daten speichern kann.
  • Bei einem Wiedergabevorgang wird das Bild decodiert, indem man mit dem ersten Frame (I-Bild) der GOP bzw. Bildgruppe anfängt. Die Sprache bzw. der Ton wird decodiert, indem man mit dem durch die Bild-Sprach-Synchronisierung spezifizierten Sprach-Frame beginnt. Sobald die Decodierung sowohl des spezifizierten Sprach-Frames als auch des Start- Frames der Bild-GOP abgeschlossen ist, wird mit dem gleichzeitigen Ausgeben des Bildes und des spezifizierten Sprachabtastwerts begonnen.
  • Für Audiodaten werden ungefähr 1,0 s codierter Audiodaten in die Dateneinheit aufgenommen. Nachdem eine bestimmte Anzahl von Abtastwerten (samples) in einem Block zusammengefaßt sind, wobei benachbarte Blockenden in einem Bit verstaut sind, wird die Sprache bzw. der Ton in Einheiten dieser Anzahl von Abtastwerten codiert und ein Kopfteil bzw. Header wird der codierten Sprache hinzugefügt, um so einen codierten Sprach-Frame zu bilden.
  • Die Sprach-Frame-Länge beträgt weniger als die Länge der 2048 Abtastwerte der Originalsprache und entspricht 24 ms - 36 ms der Zeitdauer der ursprünglichen Sprache. Die codierte Datenmenge des Sprach-Frames reicht von 288 Bytes bis zu 576 Bytes. Eine Frame-Identifizierung (frame ID) wird dem Header jedes Sprach-Frames in jedem Sprachkanal hinzugefügt. Die Frame-ID setzt sich zusammen aus 24 Bits, wovon 4 Bits einen Sprachkanal darstellen und 20 Bits eine Sprach-Frame-Nummer angeben. Die ungefähr 1,0 s Audiodaten sind für gewöhnlich genauso lang wie mehrere 10 Sprach-Frames, wenn auch die Länge mit der Anzahl von Abtastwerten in einem Block-und der Abtast-Frequenz variiert. Durch die Bildsynchronisierung wird die Frame-Nummer der codierten Sprache spezifiziert, zu der der decodierte, auszulesende Sprach-Abtastwert, der gleichzeitig mit dem Timing des Auslesens des Start-Frames der entsprechenden GOP ausgegeben wird, sowie die Sprach- Abtastwertnummer in dem Frame. Der Zeitcode besteht aus 32 Bits, von denen 20 Bits die Sprach-Frame-Nummer darstellen, und die restlichen 12 Bits eine Sprach-Abtastwert-Nummer spezifizieren. Dadurch kann der maximale Fehler bei der Sprach- und Bildsynchronisierung im gesamten System mit dem halben Sprach-Abtastperiode koinzidieren. Bei fs = 32 KHz beträgt der maximale Sprachsynchronisierfehler ungefähr 16 us.
  • In den Fig. 2A bis 2C ist ein weiteres Beispiel eines Bewegtbild-Kompressionsformats dargestellt, und die Fig. 3A bis 3C zeigen noch ein Beispiel eines Bewegtbildformats. Nachstehend wird die im Managementbereich aufgezeichnete Managementinformation erklärt. Die Managementdaten werden in Form einer Tabelle aufgezeichnet.
  • Bei den oben beschriebenen Beispielen besteht jede Dateneinheit aus zwei oder mehr GOPs. Stattdessen kann entsprechend der vorliegenden Erfindung jede Dateneinheit nur eine GOP (Bildgruppe) enthalten.
  • Gemäß Fig. 4A enthält die Managementtabelle ein Volumen- bzw. Datenträger-Identifizierfeld (VID) auf der innersten Spur, ein Programminformationsfeld (PIF) um das VID herum, sowie eine das PIF umgebende Dateneinheit-Zuordnungstabelle (DAT). Das VID wird, beginnend mit dem ersten Byte im Managementtabellenbereich, geschrieben und gibt Information über verschiedene Elemente über die ganze Platte hinweg unter Verwendung von 256 Bytes an. So enthält diese Information z. B. Daten darüber, ob die Platte für allgemeine Aufzeichnung oder nur für Wiedergabe bestimmt ist. Im Programm- Informationsfeld (PIF) sind verschiedene Datenstücke zu jedem Programm aufgezeichnet. Z. B. werden 16 Bytes für jedes Programm verwendet.
  • Fig. 5B zeigt ein Beispiel für den Inhalt der in dem PIF gespeicherten 16 Bytes.
  • ATMB gibt die absolute Zeit des Startpunkts des laufenden Programms im Datenträger wieder. Im Falle der Zeitcodesuche wird jedes Datenelement der ATMB-Daten in der Reihenfolge der Wiedergabe der Programme geprüft, um die Nummer des Programms zu finden, in dem ein gewünschter Zeitcode vorhanden ist. Jede der (später beschriebenen) DATs (data unit number) in dem entsprechenden Programm wird geprüft. Sodann wird die Summe der Programmzeit (die später beschriebene PTMB) und die ATMB mit dem gewünschten Zeitcodewert verglichen, um die DAT herauszufinden, zu der der entsprechende Zeitcode gehört. Bei dieser Prozedur kann ein Suchlauf durchgeführt werden. Durch das Verfahren, das auf der absoluten Startzeit beruht, kann der Benutzer die absolute Startzeit von dem gewünschten Programm erfahren und kann deshalb ein spezifisches Datenelement von PIF-Daten erhalten, indem er nach der der absoluten Startzeit entsprechenden ATMB sucht.
  • Durch PINF werden Programmattribute angegeben, die jedem Programm zugeordnet sind. Zu den Programmattributen gehören ein Kopiersperre-Zeichen (copy disable flag, CPNH), ein Programmtyp (PTYPE), ein Schreibattribut (PWRT), sowie die Anzahl der eine Dateneinheit bildenden GOPs (SGDU). Wenn das CPNH auf 1 gesetzt ist, bedeutet dies eine Kopiersperre und wenn es auf 0 gesetzt ist, bedeutet dies eine Kopierfreigabe. Das PTYPE-Attribut, das aus 3 Bits besteht, zeigt Programmarten an wie Heimvideo, Kino, Musik, Kara-OK, Computergraphik, interaktive Benutzung, Spiel, Computerdaten oder Programm. Wenn das PWRT einen Wert von 1 aufweist, bedeutet dies Schreib- bzw. Aufzeichnungsfreigabe.
  • Das PIF enthält auch die Parameter, wie sie in Fig. 5B dargestellt sind, wobei AINF ein Sprachcodiersystem identifiziert, VINF die Identifizierung eines Bildcodiersystems bezeichnet, ATRT die Bildattribute darstellt (d. h. Daten zum Identifizieren des Seitenverhältnisses (aspect ratio) sowie eines Systems wie des PAL- oder NTSC-Systems), und HRES und VRES die Daten zur horizontalen Auflösung bzw. zur vertikalen Auflösung anzeigen.
  • PNTB gibt einen Startzeiger an, der einen Wert aufweist, welcher die DAT-Adresse (data unit number) anzeigt, bei der die Dateneinheit am Programmstartpunkt gespeichert ist. Sobald die DAT-Adresse (data unit number) bestimmt worden ist, ist es möglich, die Position des Startsektors eines Programms im Datenbereich zu identifizeren.
  • PGML zeigt die unmittelbar nach Beendigung des laufenden Programms zu verarbeitende Programmnummer an, wenn entsprechende Programme vorhanden sind. Die Reihenfolge, in der Programme produziert werden, koinzidiert nämlich nicht notwendigerweise mit der Reihenfolge der Programmnummern. Wenn das laufende Programm das letzte Programm ist, gibt es keine Verknüpfungszieladresse, und alle Bits des PGML stehen auf "1".
  • Fig. 5C zeigt die Struktur des DAT. In dieser Tabelle gibt es Parameter wie eine Zonennummer (NZON), eine Sektorennummer (NSTC), und eine Spurnummer (NTRC) auf einer Platte, sowie eine Programmzeit (PTMB) und einen Verknüpfungsanzeiger (PNTL).
  • NZON ist die Zonennummer, zu welcher der Aufzeichnungssektor am Beginn der Dateneinheit gehört. Die Platte ist in Radialrichtung vom innersten Umfang aus in Spureinheiten aufgeteilt, und die Zonennummern sind der Reihe nach zugeteilt. Im einzelnen hat gemäß Fig. 4A der Datenbereich eine Bezugsposition R1 auf der Platte und die Nummer beginnt mit 0 bei dieser Position. NSTG zeigt eine Sektornummer in einem Bereich an. Die Sektornummer ist nicht eine einer anderen Spur bzw. einer anderen Zone zugeordnete Seriennummer, sondern eine nur in der Spur oder dem Bereich komplette Nummer. NTRC gibt die Nummer der Spur an, in der die Zone und die Sektornummer (der Header der Dateneinheit) vorhanden sind. PTMB ist ein Merkzeichen zur Darstellung der Zeitpositionsdaten zu den Videodaten (1-Bild) beim Start der Dateneinheit. Die Positionsdaten geben eine Zeit (in Sekunden) an, die seit dem Programmstartzeitpunkt verstrichen ist. Die Zeitpositionsdaten werden bei der Suche nach den schon beschriebenen Zeitcodes verwendet. Ferner werden die Zeitpositionsdaten in das Wiedergabegerät aufgenommen, das sie als Startbezugsdaten verwendet, um die Programzeit, die absolute Zeit, die Restzeit etc. anzuzeigen.
  • PNTL ist ein Merkzeichen zur Anzeige einer nachfolgenden Dateneinheit, die zeitlich unmittelbar auf die aktuelle DAT- Einheitsnummer folgt. Die Einheit entspricht der Dateneinheitsnummer. Wenn es keine Verknüpfungs(ziel)adresse am Programmende gibt, werden alle Bits auf 1 gesetzt ( = 0 · FFFF). Der effektive Wert für den Verknüpfungsanzeiger liegt zwischen 0 · 0000 und 0 · FFFF).
  • Fig. 4B ist eine graphische Darstellung des Managementbereichs und des Datenbereichs. Die Blöcke im Datenbereich zeigen jeweils Programme an. Die DAT- Einheitsnummern sind fortlaufend in dieser Reihenfolge: 0 - Nmax. Die erste DAT-Einheitsnummer ist bestimmt durch Bezugnahme auf den PNTB in dem PIF. Wenn die DAT- Einheitsnummer gleich 1 ist, dann ist der nächste Verknüpfungsanzeiger gleich 0. Der Verknüpfungsanzeiger der Dateneinheitsnununer 0 ist Nmax-1. Der Verknüpfungsanzeiger der Dateneinheitsnummer Nmax-1 ist 2. Durch Überprüfen der Zonennummer, der Sektorennummer und der Spurnummer entsprechend der Änderung der DAT-Einheitsnummer, ist es möglich, Daten über die Reihenfolge der Wiedergabe, z. B. Spur 4 in Sektor 3 in Zone 1, Spur 7 im Sektar 2 in Zone 0, und Spur 10 im Sektor 30 in Zone 3 zu erhalten.
  • Fig. 6A stellt die Adressenanordnung der in Fig. 5A gezeigten Managementtabelle dar, insbesondere die Adressenanordnung der DAT.
  • Fig. 6B zeigt eine weitere Adressenanordnung, welche die Managementtabelle annehmen kann, und bei der unter dem VID-, der PIF und der DAT nicht benutzte Felder vorgesehen sind. In der Adressenanordnung gemäß Fig. 6B kommt es zu einem Adressenversatz, wenn die Datensuche von VID nach PIF geschaltet wird. Die Versatzdaten sind in den im VID aufgezeichneten Daten enthalten und werden erkannt, wenn eine Antriebssteuer-MPU ein Adressmanagementprogramm ausführt. Im folgenden wird die Aufzeichnungskapazität der Managementtabelle berechnet.
  • Die Kapazität für die Aufzeichnung der Managementtabelle hängt ab von der Anzahl der Programme und der Anzahl der Dateneinheiten, die auf der Platte aufgezeichnet sind.
  • Angenommen, es gibt 256 Programme und 7200 Dateneinheiten (1 s/Einheit, entsprechend 2 Stunden), dann belaufen sich die Daten für die Managementtabelle auf 61952 Bytes ( = 256 + (16 x 256) + (8 · 7200). Das heißt, daß in einem System, bei dem eine Dateneinheit ungefähr 1 s entspricht, eine Managementinformation für 2 Stunden Dauer in einem 63 KB- Speicher aufgezeichnet werden kann. Mit anderen Worten ist ein 63 KB-Speicher praktisch ausreichend zur Speicherung der gesamten Managementtabelle.
  • Die physische Position des Startsektors der Managementtabelle ist normalerweise definiert durch: ZONE = 0, SPUR = 0 und SEKTOR = 0. Zum Datenschutz können mehrere Managementtabellen in verschiedenen physischen Regionen aufgezeichnet werden. Auf die Managementtabelle wird sehr häufig Bezug genommen. Es erfordert sehr viel Zeit, um auf die auf der Platte gespeicherte Tabelle zuzugreifen. Um die Zugriffszeit zu verringern, kann die Managementtabelle in dem in der Antriebssteuerung MPU eingegliederten Arbeits-RAM abgebildet (mapped) werden. Die Speicherkosten werden jedoch bei den (gesamten) Gerätekosten zu groß, wenn die Tabelle übermäßig groß ist und eine große Anzahl von Operationen durchgeführt werden müssen, um die Managementtabelle in die gewünschten Parameter zu verwandeln, wenn die Managementtabelle nicht in geeigneter Weise formuliert ist. Im Hinblick darauf ist es wünschenswert, das Gerätesystem entsprechend den Gerätekosten und dem Umfang der Tabelle auszulegen.
  • Fig. 7 zeigt die Codiereinrichtung und die Decodiereinrichtung in einem Blockdiagramm zur Darstellung einer Vorrichtung zum Verarbeiten komprimierter Videosignale. Im Betrieb wird ein Ursprungssignal an einem Eingabe-Terminal bzw. -Anschluß 100, und damit an eine Signaltrenneinrichtung 101, eingegeben. Die Signaltrenneinrichtung 101 trennt das ursprüngliche Signal in Audiodaten, Videodaten, Expansionsdaten (z. B. Untertiteldaten), ein Synchronsignal und dgl. Die Audiodaten werden in eine Sprachdaten- Gruppiereinrichtung 102 eingegeben, die Videodaten in eine Bilddaten-Gruppiereinrichtung 103, die Expansionsdaten in eine Expansionsdaten-Gruppiereinrichtung 104 und das Synchronsignal an eine erste Systemsteuereinrichtung 110. Während sie in den Modus 1 gesetzt ist, steuert die erste Systemsteuereinrichtung 110 die Bilddaten-Gruppiereinrichtung 103 so, daß die Einrichtung 103 Gruppen von Videodaten bildet, von denen jede aus 6 Frames besteht, die Sprachdaten- Gruppiereinrichtung 102 so, daß die Einrichtung Gruppen von Audiodaten in Zeiteinheiten des Modus 1 bildet, und die Expansionsdaten-Gruppiereinrichtung 104 so, daß die Einrichtung 104 Gruppen von Expansionsdaten bildet, welche den Frames entsprechen. Die Gruppen von Videodaten werden in eine Bilddaten-Komprimiereinrichtung 106 eingelesen, welche die Videodaten in der in bezug auf die Fig. 1A, 1B und 1C erklärten Art und Weise codiert und komprimiert. Die Audiodatengruppen werden in die Audiodaten- Komprimiereinrichtung 105 eingelesen, welche die Audiodaten codiert und komprimiert. Die Expansionsdatengruppen werden in die Expansionsdaten-Komprimiereinrichtung 107 eingelesen, welche die Expansionsdaten codiert und komprimiert: Die von der Datenkomprimiereinrichtung 105, 106 und 107 ausgegebenen Daten werden in eine Formatiereinheit 108 eingegeben. Die Formatiereinheit 108 sammelt 5 GOPs (d. h. Gruppen codierter Bilddatenelemente) und bildet damit eine Dateneinheit der in Fig. 1A dargestellten Art. Die Dateneinheit besteht aus codierten Audiodaten, codierten Expansionsdaten und einem Header bzw. Kopfteil (d. h. Zusatzdaten). Jede Datenkomprimiereinrichtung wird so gesteuert, daß sie codierte Daten erzeugt, deren Menge ein ganzes Vielfaches der Höchstmenge an Daten ist, welche in einem Sektor eines Aufzeichnungsmediums aufgezeichnet werden können.
  • Die von der Formatiereinheit 108 ausgelesenen Dateneinheiten werden auf einem Aufzeichnungsmedium aufgezeichnet oder einem Datenübertragungssystem zugeführt. Die Signale werden von dem Aufzeichnungsmedium ausgelesen oder von dem Datenübertragungssystem übertragen und dann einer Signaltrenneinrichtung 121 zugeführt. Die Signaltrenneinrichtung 121 entnimmt die codierten Audiodaten, die codierten Videodaten, die codierten Expansionsdaten sowie den Header von jeder Dateneinheit. Die codierten Audiodaten werden einer Sprach-Decodiereinrichtung 122 zugeführt, welche die Daten decodiert und dabei ein Audiosignal reproduziert. Die codierten Videodaten werden einer Bilddecodiereinrichtung 123 zugeführt und decodiert. Die codierten Expansionsdaten werden einer Expansionsdaten-decodiereinrichtung 124 zugeführt und decodiert. Die decodierten Videodaten und die decodierten Expansionsdaten werden einer Datensynthetisiereinrichtung 125 zugeführt, welche die Videodaten und die Expansionsdaten synthetisiert, wobei ein Videosignal reproduziert wird. Die in dem Header bzw. Kopfteil enthaltenen Daten werden einer zweiten Systemsteuereinrichtung 126 eingegeben und zur Erzeugung von Zeittaktsignalen und zur Erzielung einer Bild-Ton- Synchronisation sowie zum Einstellen des Modus verwendet.
  • Das in Fig. 7 dargestellte Gerät ist gekennzeichnet durch spezifische Einrichtungen zum Erzielen einer Bild- Sprachsynchronisation.
  • Im folgenden wird die Dateneinheit nochmals näher erläutert.
  • Wie oben beschrieben, besteht ein Paket von Videodaten aus 30 Einzelbildern bzw. Frames ( = 5 GOPs · 6 Frames/GOP), und 30 Frames von Audiodaten, die einen Satz bilden, werden in 48K Bytes aufgezeichnet ( = 4 ch · 12 K Bytes/s), während die Vorrichtung in den Modus 1 gesetzt ist. Wenn zwei Kanäle gleichzeitig verwendet werden, beträgt die minimale erforderliche Speicherkapazität nur 24K Bytes.
  • Die Fig. 8A, 8B und 80 zeigen jeweils das Format der codierten Videodaten, der codierten Audiodaten und der codierten Zusatzdaten. Die Audiodaten sind mit einer vorbestimmten Abtastfrequenz codiert worden, und eine vorgeschriebene Nummer von abgetasteten Datensegmenten bilden einen Datenblock. Zu dem Datenblock wird ein Sprach-Header hinzugefügt, wodurch der Datenblock und der Sprach-Header einen Frame bilden. Der Sprach-Header enthält eine Frame- Identifikation, welche den Frame identifiziert.
  • Der Header bzw. Kopfteil der Dateneinheit enthält Zusatzdaten. Die Zusatzdaten umfassen Daten, welche den Bezug zwischen den codierten Videodaten und den codierten Audiodaten wiedergeben. Im einzelnen enthalten die codierten Videodaten eine Bild-Frame-Nummer gemäß Fig. 8A und die codierten Audiodaten enthalten eine Sprach-Frame-Nummer, wie sie Fig. 8B darstellt. Gemäß der Fig. 8A, ist der erste Frame der ersten GOP0 ein spezifiziertes Bild 1 (SP1), der erste Frame des zweiten GOP1 (ist) ein spezifiziertes Bild 2 (SP2) usw. Der erste Frame des letzten GOP4 ist ein spezifizieres Bild 5 (SP5). (Jedes dieser spezifizierten Bilder stellt komprimierte Intra-Frame-Daten dar.) Die Frames k-1, k+6, ... k+n der codierten Audiodaten entsprechen jeweils SP1, SP2, ... und SP5. Wie aus Fig. 8C ersichtlich ist, sind Daten, welche diese Beziehung zwischen den SP5 der codierten Videodaten einerseits und den Frames k-1, k+6,.." k+n der codierten Audiodaten andererseits zeigen, in den Zusatzdaten enthalten. Die Zusatzdaten enthalten auch Daten, welche die Abtastnummern der Frames k-1, k+6, ... k+n darstellen. Daher zeigen die Zusatzdaten an, daß SP1 zu dem Frame k-1 der Audiodaten gehört und die Abtastnummer #615 aufweist, daß SP2 zu dem Frame k+6 der Audiodaten gehört und die Abtastnummer #12 hat und daß SP5 zu dem Frame k+n der Audiodaten gehört und die Abtastnummer #920 hat.
  • Die Einrichtung zum Erzeugen der Zusatzdaten wird im folgenden unter Bezugnahme auf Fig. 9 beschrieben.
  • Die Fig. 9 stellt die Einrichtung zur Erzeugung der Zusatzdaten dar. Ein Ursprungs-Videosignal wird an einen Anschluß 201 geliefert. Das Videosignal wird durch die Quantisiereinrichtung 202 quantisiert und in einen Frame- Speicher 203 eingelesen. Die von dem Frame-Speicher 203 ausgelesenen Videosignale werden in eine Bildcodiereinrichtung 204 eingegeben. Die Bildcodiereinrichtung 204 codiert die Signale und erzeugt dabei Videodatenstücke, welche den Frames entsprechen. Die Videodaten werden einer Formatiereinheit (nicht dargestellt) zugeführt, welche Videodaten des in den Fig. 1A, 1B und 1C gezeigten Formats generiert. Mittlerweile wird dem Eingabeanschluß 205 ein Frame-Impuls für spezifizierte Bilder zugeführt, und von dort dem Frame-Speicher 203 und der Bildcodiereinrichtung 204, und dient als Schreib- Zeittaktsignal und als Lese-Zeittaktsignal für den Framespeicher 203 und auch als Zeittaktsignal für die Bildcodiereinrichtung 204. Ein Programmetartimpuls wird an ein Eingabeterminal 206 angelegt und von dort an einen 1/6- Frequenzteiler 207, sowie auch an einen Sprachframe- Impulszähler 214. Dieser Impuls stellt den 1/6-Frequenzteiler 207 zurück, der den Bild-Frameimpuls zählt und einen Impuls für einen Frame-eines spezifizierten Bildes der in Fig. 8A dargestellten Art erzeugt. Bei Empfang des Programm- Startimpulses startet der Sprach-Frameimpulszähler 214 mit dem Zählen der Sprach-Frameimpulse.
  • Dabei wird ein Sprachabtastimpuls an den Eingabeanschluß 208 angelegt, und ein Ursprungs-Audiosignal wird an einen Eingabeanschluß 209 angelegt. Die Ursprungs- Audiosignale werden abgetastet und daraufhin durch eine Abtast/Quantisiereinrichtung 210 quantisiert. Das Ausgabesignal der Abtast/Quantisiereinrichtung 210 wird in eine Sprachcodiereinrichtung 211 eingelesen und in Audiodaten codiert. In einer Vorrichtung (nicht dargestellt), die mit dem Ausgang der Sprachcodiereinrichtung 211 verbunden ist, wird die durch den Sprach-Frameimpulszähler 214 erzeugte Sprach-Framenummer zum Header der Audiodatenausgabe von der Sprachcodiereinrichtung 211 hinzugefügt.
  • Der an den Eingabeterminal 208 angelegte Sprachabtastimpuls wird in einen 1/N-Frequenzteiler 212 eingegeben und in N-Sprach-Frameimpulse umgewandelt, so daß jeder Frame von Audiodaten mit N Abtastimpulsen abgetastet werden kann. Die Sprach-Frameimpulse werden einer Sprachcodiereinrichtung 211 zugeführt, welche die Sprachdaten in Frameeinheiten codiert. Die Sprachframe-Impulse werden als Taktimpulse einem Sprach-Abtastimpulszähler 213 zugeführt. Jeder Sprachframe-Impuls stellt den Sprach-Abtastimpulszähler 213 zurück bzw. löscht ihn. Die Ausgabe des Sprach- Abtastimpulszählers 213, welche die Anzahl der aus einem Frame von Audiodaten entnommenen Abtastwerte darstellt, wird in ein Register 215 eingelesen. Die Sprachframenummer wird ebenfalls in das Register 215 eingelesen. Die Sprachframenummer ist durch Rückstellen des Sprachframe- Impulszählers 214, durch Verwendung eines Programmstartimpulses und durch Zählen der Sprachframe- Impulse generiert worden. Die Eingabe an das Register 215 besteht aus der Sprachframenummer und der Anzahl der Sprachabtastwerte. Diese Datenelemente werden durch einen Frameimpuls für ein spezifiziertes Bild aufgefangen bzw. festgehalten (latched) und daraufhin ausgegeben. Die Anzahl der Sprach-Abtastwerte wird durch einen Sprachframe-Impuls zurückgestellt. Da die Anzahl der Sprach-Abtastwerte durch die Frame-Impulse für spezifizierte Bilder festgehalten wird, während die Anzahl wächst, wird die festgehaltene Anzahl von Sprach-Abtastwerten als Sprachabtastwertnummer verwendet.
  • Die zusätzliche Datenausgabe von dem Register 215 wird von der Formatiereinheit 108 verwendet, um eine Dateneinheit der in der Fig. 1A gezeigten Art zu erzeugen.
  • Die Fig. 10 zeigt eine Einrichtung zum Wiedergeben der Zusatzdaten, wodurch eine Bild-Sprache-Synchronisierung erreicht wird.
  • Die codierten Videodaten, die codierten Audiodaten und die Zusatzdaten werden Einheit für Einheit vom Aufzeichnungsmedium wiedergegeben (Fig. 7). Die Zusatzdaten bestimmen den Zeitraum, während dem die decodierten Videodaten und die decodierten Audiodaten ausgelesen werden sollen. Die von dem Aufzeichnungsmedium ausgelesenen, codierten Audiodaten werden Einheit für Einheit einem Sprachpuffer 302 über ein Eingabeterminal 301 zugeführt, wie Fig. 10 zeigt. Die von dem Aufzeichnungsmedium ausgelesenen, codierten Videodaten werden Einheit für Einheit einem Bildpuffer 312 über ein Eingabeterminal 311 eingegeben. Die Zusatzdaten werden durch ein Eingabeterminal 321 in ein Schieberegister 322 eingegeben.
  • Die codierten Audiodaten werden auch einer Framenummer- Entnahmeeinrichtung 305 zugeführt. Die aus dem Sprachpuffer 302 ausgelesenen, codierten Audiodaten werden der Sprachdecodiereinrichtung 303 zugeführt und durch sie in Einheiten von Frames decodiert. Die decodierten Audiodaten · werden in einen Sprachblockpuffer 304 eingelesen. Die vom Bildpuffer 312 ausgegebenen codierten Videodaten werden in eine Bild-Decodiereinrichtung 313 eingelesen und durch diese in Einheiten von Frames decodiert. Die decodierten Videodaten werden in einen Bildframepuffer 314 eingelesen. Die Blöcke von decodierten Audiodaten werden dann der Reihe nach im Sprachblockpuffer 304 abgespeichert.
  • Die von der Framenummer-Entnahmeeinrichtung 305 entnommene Sprachframenummer wird einer Vergleichseinrichtung 323 zugeführt, welche die Sprachframenummer mit der aus dem Header der codierten Audiodaten entnommenen Sprachframenummer vergleicht. Wenn die verglichenen Nummern identisch sind, erzeugt die Vergleichseinrichtung 323 einen Koinzidenzimpuls, der einer Gattereinrichtung 324 zugeführt wird. Daraufhin wird die in den Zusatzdaten enthaltene Abtastnummer durch die Gattereinrichtung 324 an den voreingestellten Eingang eines Adresszählers 325 ausgegeben.
  • Die an den Adresszähler 325 gelieferte Abtastnummer bezeichnet die Stelle in dem Sprachblockpuffer 304, von der aus die decodierten Audiodaten ausgelesen werden sollen. Der Koinzidenzimpuls von der Vergleichseinrichtung 323 wird einer Generiereinrichtung 326 für Sprachabtastimpulse und einer Generiereinrichtung 327 für Bildframeimpulse zugeführt. Als Reaktion auf den Koinzidenzimpuls beginnen beide Impulsgeneriereinrichtungen 326 und 327 mit der Durchführung ihrer Funktionen, wobei die Audiodaten synchron mit den Videodaten ausgegeben werden, in Übereinstimmung mit der entsprechenden Abtastnummer, deren Verhältnis zu den Videodaten durch die Zusatzdaten bezeichnet ist.
  • Wenn die von der Vergleichseinrichtung 323 verglichenen Nummern nicht identisch sind, generiert die Vergleichseinrichtung 323 einen Nicht-Kainzidenz-Impuls. Dann werden die Zusatzdaten in das Schieberegister 322 verschoben, bis die nächsten Synchronisierungsdaten in das Register 322 eingelesen werden. Wenn zum Beispiel die Vergleichseinrichtung 323 einen Nicht-Koinzidenz-Impuls während des Vorgangs generiert, bei dem SP1 = k + 1 ist, werden die Zusatzdaten in das Register 322 verschoben, bis die Synchronisierungsdaten SP2 ( = k + 6) in das Register 322 eingelesen werden. Die Framenummer k + 6, die in den Zusatzdaten enthalten ist, wird der Vergleichseinrichtung 323 zugeführt, welche diese Framenummer mit der in den codierten Audiodaten enthaltenen Framenummer vergleicht. Wenn die verglichenen Framenummern identisch sind, d. h. wenn die Einrichtung 323 während des Vorgangs, bei dem SP2 = k + 6 ist, einen Koinzidenzimpuls generiert, werden die der Bilddecodiereinrichtung 313 und dann dem Bildframepuffer 314 zugeführten Videodaten in decodierte Bilddaten von SP2 verarbeitet. Diese Synchronisierung wird durch eine Abgleich- bzw. Synchronisiereinrichtung 328 durchgeführt. In diesem Fall werden die Audiodaten in synchroner Weise mit den Bilddaten von SP2 und folgenden (Daten) ausgegeben.
  • Die Synchronisier- bzw. Abgleicheinrichtung 328 erkennt auch die Bildframenummer durch Verwendung des Ausgangssignals der Bilddecodiereinrichtung 313.
  • Bevor die Vergleichseinrichtung 323 nicht ein Koinzidensignal generiert, können weder die Videodaten noch die Audiodaten, oder aber nur die Videodaten ausgelesen werden. Sobald die Einrichtung 323 ein Koinzidenzsignal generiert hat, kann die Vergleichseinrichtung 323 angehalten werden, da die Sprache bzw. der Ton in einer Bildgruppe synchron mit dem Bild in derselben Bildgruppe ist. Die Vergleichseinrichtung kann periodisch betrieben werden, und zwar jedesmal auf ein spezifiziertes Bildsignal hin.
  • Im Falle, daß die Sprachframenummer (zu) groß gefunden wird, wenn ein Nicht-Koinzidenzimpuls der Abgleicheinrichtung 328 zugeführt wird, geht der Vorgang auf die Bildframes von SP2 oder SP4 über. Trozdem kann eine Synchronisierung sichergestellt werden, bevor der Vorgang zu dem Bildframe von SP3 übergeht, da ein gewöhnlicher Sprachframe eine Länge von höchstenfalls 2048 Abtastwerten aufweist.
  • Wie weiter oben beschrieben, wird das Timing bzw. der Zeittakt der Ausgabe von Videodaten vom Bild-Frame-Puffer 314 und das Timing der Ausgabe von Audiodaten vom Sprachblock- Puffer 304 zu dem Zweck der Synchronisierung eines jeden spezifizierten Bildframes und eines zugeordneten Sprach- Abtastwerts geregelt. Zum selben Zwecke können zusätzliche Einrichtungen verwendet werden, um die Zeit zum Speichern decodierter Daten in einen Pufferspeicher (nicht dargestellt) oder die Zeit zum Speichern codierter Daten in einen Pufferspeicher (nicht dargestellt) zu regeln bzw. einzustellen.
  • Fig. 11 zeigt eine weitere Art einer Einrichtung zum Reproduzieren der Zusatzdaten, durch die eine Bild-Sprach- Synchronisierung erzielt wird.
  • Wie Fig. 11 darstellt, werden codierte Videodaten einem Eingabeterminal 401 zugeführt und durch einen Bild-Decodier- /Frame-Puffer 402 decodiert. Ein internes Taktsignal wird an einen Eingabeterminal 403 gelegt und wird durch einen 1/M- Frequenzteiler 404 in Bild-Frame-Impulse frequenzgeteilt. Diese Bild-Frame-Impulse werden als Zeittaktsignale dem Bild- Decodier/Frame-Puffer 402 zugeführt. Sie werden auch einem 1/6-Frequenzteiler 405 zugeführt und in Frame-Impulse spezifischer Bilder frequenzgeteilt, welche mit den in Fig. 8A dargestellten, spezifizierten Bildsignalen synchron sind.
  • Codierte Audiodaten werden über einen Eingabeterminal 406 in die Sprachdecodiereinrichtung 401 eingelesen und durch diese decodiert. Die decodierten Audiodaten werden in einen Puffer 408 für decodierte Sprachblöcke eingelesen. Ein internes Taktsignal wird über einen Eingabeterminal 411 an einen 1/N-Frequenzteiler 412 gelegt und in Sprach- Abtastimpulse frequenzgeteilt. Die Sprachabtastimpulse werden einer Sprachframe-Impulsgeneriereinrichtung 413 eingegeben, sowie auch einem Adresszähler 414 für decodierte Sprachabtastwerte. Die Impulsgeneriereinrichtung 413 erzeugt Sprachframe-Impulse, welche den Sprachframes entsprechen. Die Sprachframe-Impulse werden als Zeittaktsignale der Sprachdecodiereinrichtung 407 zugeführt, sowie dem Adresszähler 414 für decodierte Sprachabtastwerte.
  • Der Adresszähler 414 für decodierte Sprachabtastwerte wird durch einen Sprachframe-Impuls zurückgesetzt und zählt Sprach-Abtastimpulse. Somit stellen die Ausgangsdaten des Adresszählers 414 eine Sprach-Abtastwertnummer dar. Die Sprach-Abtastwertnummer wird als Leseadresse für den Puffer 408 für decodierte Sprachblöcke verwendet und in ein Register 415 eingegeben. Das Register 415 hält die Sprach- Abtastwertnummer als Antwort auf einen Frameimpuls eines spezifizierten Bildes. Die so gehaltene (latched) Sprach- Abtastwertnummer wird in eine Vergleichseinrichtung 416 eingegeben. Die Vergleichseinrichtung 416 vergleicht die Sprach-Abtastwertnummer mit der in den vom Eingabeterminal 417 gelieferten Zusatzdaten enthaltenen Sprach- Abtastwertnummer.
  • Wenn die verglichenen Sprach-Abtastwertnummern identisch sind, so heißt das, daß die Videodaten und die Audiodaten in einer vorgeschriebenen Beziehung synchron sind. Sind die verglichenen Sprach-Abtastwertnummern nicht identisch, so heißt das, daß der von den Zusatzdaten bezeichnete Sprachframe nicht synchron mit einem spezifizierten Bildsignal ist. Um den Sprachframe synchron mit dem spezifizierten Bildsignal zu machen, schickt die Vergleichseinrichtung 416 ein Teiler-Angleichsignal an den 1/N-Frequenzteiler 412, wodurch die Phase der Sprach- Abtastimpulse und die der Sprach-Frameimpulse gesteuert wird. Effektiv wird der Teiler (N) des 1/N-Frequenzteilers um 1-2 erhöht oder verringert. Solange der Unterschied zwischen den zwei von der Vergleichseinrichtung 416 verglichenen Sprachabtastwertnummern in einen vorgegebenen Bereich fällt, werden die Videodaten und die Audiodaten synchron zueinander gehalten.
  • Statt den Teiler des 1/N-Frequenzteilers 412 anzugleichen, kann der Teiler M des 1/M-Frequenzteilers 404 angeglichen werden, um die Videodaten und die Audiodaten synchron zu gestalten. Alternativ dazu können die Teiler beider Frequenzteiler 404 und 412 zum selben Zweck angeglichen werden. Unabhängig davon, ob entweder der Teiler (M) oder der Teiler (N) oder beide angeglichen werden, können die Videodaten und die Audiodaten synchronisiert werden, bevor sie übermäßig asynchron werden, obwohl die Frequenz des Codiertaktsignals sich von der Frequenz des Decodiertaktsignals, wenn auch nur leicht, unterscheidet. Wie vorstehend beschrieben, ist es mit der vorliegenden Erfindung möglich, Daten wirksam aufzuzeichnen, Daten leicht zu handhaben bzw. zu verwalten, Programme in einer bestimmten Weise zu reproduzieren bzw. wiederzugeben und sie mit hoher Geschwindigkeit zu suchen.
  • Die vorliegende Erfindung ist nicht auf das vorstehend beschriebene Beispiel beschränkt.
  • Die Fig. 12 zeigt ein Aufzeichnungs-/Wiedergabegerät. Im folgenden wird das Wiedergabesystem dieses Geräts beschrieben.
  • Eine Platte 10 ist auf einem Plattenteller 501 plaziert, der durch einen Motor 502 gedreht wird. Im Wiedergabemodus liest ein Abgleichteil 503 die auf der Platte 10 aufgezeichneten Daten. Das Abgreifteil 503 wird unter der Steuerung einer Antriebssektion 504 zu der gewünschten Spur auf der Platte 10 hinbewegt. Ein Ausgangssignal des Abgreifteils 103 wird einer Modulations- und Demodulationssektion 601 zugeführt, welche das gelieferte Signal demoduliert. Die demodulierten Daten werden einer Fehlerkorrektur-Datenverarbeitungssektion 602 zugeführt, welche Fehler korrigiert und das resultierende Signal einer Datenstring-Verarbeitungssektion 603 zuführt. Die Datenstring-Verarbeitungssektion 603 entnimmt daraus Videodaten, Untertitel und Schriftzeichendaten sowie Audiodaten. Auf der Platte 10 werden die Untertitel- und Schriftzeichendaten sowie die Audiodaten so gespeichert, daß sie den Videodaten entsprechen, wie später erläutert wird. Hier können verschiedene Sprachen für den Untertitel und für Schriftzeichen und Audiodaten ausgewählt werden. Die Auswahl wird unter der Steuerung der Systemsteuersektion 604 ausgeführt. Der Benutzer macht die Eingabe von einer Bedienungssektion 605 aus in die Systemsteuersektion 604.
  • Angenommen, es ist die Information über einen Kinofilm auf der Platte 10 gespeichert, so ist eine Vielzahl von Szenen gespeichert, die der Benutzer auswählen kann. Um es dem Benutzer zu ermöglichen, irgendeine beliebige der Szenen auszuwählen, bilden die Datenketten-Verarbeitungssektion 603 die Systemsteuersektion 604 und die Bedienungssektion 605 in dem Wiedergabegerät entsprechend der Benutzerbetätigung der Bedienungssektion 605 eine Datenstring-Steuereinrichtung und eine Szenenauswahleinrichtung.
  • Die an der Datenstring-Verarbeitungssektion 603 abgetrennten Videodaten werden einer Video- Verarbeitungssektion 606 zugeführt, welche entsprechend der Art der Wiedergabeeinheit einen Decodiervorgang durchführt. Zum Beispiel werden die Videodaten in eine geeignete Form für einen NTSC-, PAL-, SECAM- oder Breitwand-Bildschirm umgewandelt. Das an der Video-Verarbeitungssektion 606 decodierte Videosignal wird einer Additionseinheit 608 zugeführt, welche es mit den Untertitel- und Schriftzeichendaten addiert und das Additionsergebnis einem Ausgabeterminal 609 zuführt.
  • Die an der Datenstring-Verarbeitungssektion 603 getrennten Audiodaten werden einer Audio-Verarbeitungssektion 611 zugeführt, welche sie demoduliert und das demodulierte Signal an einen Ausgabeterminal 612 sendet.
  • Die als Decodiersektion funktionierende Audio- Verarbeitungssektion, welche zusätzlich zur Audio- Verarbeitungssektion 611 eine Audio-Verarbeitungssektion 613 umfaßt, kann auch ein Sprachsignal in einer anderen Sprache reproduzieren und dieses reproduzierte Signal an einen Ausgabeterminal 614 liefern.
  • Fig. 13 stellt die Datenstring-Verarbeitungssektion 603 (Fig. 12) detaillierter dar.
  • Die Datenstring-Verarbeitungssektion 603 ist dazu bestimmt, den Header bzw. Kopfteil (auch als "Sub-Code" bekannt) jeder Dateneinheit zu analysieren, die in der Dateneinheit enthaltenen Datenpakete zu trennen und die Pakete den entsprechenden Decodiereinrichtungen zuzuführen.
  • In der Fig. 14 sind verschiedene Datentypen dargestellt, die im Header jeder Dateneinheit enthalten sind. Der DUT- Header enthält die Programmnummer, die Programmzeit, die Dateneinheitsgröße, die Startposition der Videodaten, die Startposition der Audiodaten, Bild-Sprach-Synchronisierdaten, die Startposition der Sub-Videodaten und dgl. Die Programmnummer (d. h. die dem Programm zugeteilte Nummer) und die Programmzeit (d. h. die zur Verarbeitung der Dateneinheit des Programms erforderliche Zeit) sind 2-Byte-Datenelemente. Die Größe der Dateneinheit wird durch die Nummer der Bytes, welche sie bildet, dargestellt. Die Startposition der Videodaten wird durch die Ordinalzahl des ersten Bytes der Videodaten, gezählt vom Startbyte der Dateneinheit, angezeigt. Die Bild-Sprach-Synchronisierdaten bestehen aus der Framenummer und der Abtastwertnummer der Audiodaten, die einem spezifizierten Bildframe entsprechen. Die Startposition der Subvideodaten wird durch die Ordinalzahl des ersten Bytes der Subvideodaten, gezählt vom Startbyte der Dateneinheit, angezeigt. Drei identische Sätze, von denen jeder aus der Dateneinheitsgröße, der Startposition der Videodaten, der Startposition der Audiodaten und den Bild-Sprach- Synchronisierdaten besteht, werden so aufgezeichnet, daß für den Fall, daß einer oder zwei Sätze nicht gelesen werden können oder die Platte beschädigt worden ist, der .verbleibende Satz oder die verbleibenden Sätze von der Platte ausgelesen werden können. In Fig. 14 zeigt das Symbol "x 3" an, daß diese Sicherheitsmaßnahme getroffen worden ist.
  • Gemäß Fig. 13 umfaßt die Datenstring- Verarbeitungssektian 603 eine DUT-Header-Analysiersektion 701 und einen Daten-Cache-Speicher 702. Die Sektion 701 analysiert den DUT-Header. Die Dateneinheit wird im Daten- Cache-Speicher 702 abgespeichert. Die Sektion 701 kann bestimmen, welche Art von Daten an welcher Adresse im Daten- Cache-Speicher 702 gespeichert wird. Sie kann daher eine Leseadresse für die Videodaten setzen, so daß die Videodaten (in Wirklichkeit eine GOP = Bildgruppe) aus dem Speicher 702 getrennt von den anderen Bestandteilen der Dateneinheit ausgelesen werden können. Die codierten Audiodaten werden aus dem Speicher 702 ebenfalls getrennt von den anderen Bestandteilen der Dateneinheit ausgelesen. Um die Audiodaten zu lesen, ist es nötig, dem Daten-Cache-Speicher 702 kanalzuordnende Adreßdaten aus der Systemsteuersektion 604 zuzuführen, da eine Vielzahl von Kanälen vorgesehen sind. Die codierten Expansionsdaten werden aus dem Daten-Cache-Speicher 702 in ähnlicher Weise ausgelesen.
  • Wie schon erläutert, können bei diesem Beispiel Daten wirksam aufgezeichnet und leicht gehandhabt werden, und Programme auf eine bestimmte Weise reproduziert bzw. wiedergegeben und mit hoher Geschwindigkeit gesucht werden, und zwar deshalb, weil jede Dateneinheit aus einem Kopfteil- bzw. Header-Abschnitt, einem Expansionsdatenabschnitt, einem Abschnitt codierter Audiodaten und einem Abschnitt codierter Videodaten besteht, und der Header-Abschnitt die Dateneinheitsgröße, die Startposition der Videodaten, die Startposition der Audiodaten, die Startposition der Expansionsdaten, Bild-Sprach-Synchronisierdaten und dgl. enthält. Die DUT-Header-Analysiersektion 701 analysiert den Header-Abschnitt und bestimmt, welche Art von Daten an welcher Adresse im Daten-Cache-Speicher 702 gespeichert werden, womit sie eine Leseadresse für die Videodaten setzt, so daß alle codierten Daten vom Speicher 702 der Decodiereinrichtung, getrennt von den anderen Bestandteilen der Dateneinheit, zugeführt werden können.
  • Bezüglich der Platte und insbesondere der Managementinformation sind Sicherheitsmaßnahmen getroffen worden, wie nachstehend erläutert wird.
  • Gemäß Fig. 15A weist der Informationsbereich der Platte 10 z. B. einen Managementbereich auf der Innenseite und einen Datenbereich außerhalb des Managementbereichs auf. Im Managementbereich wird, wie später erläutert, die zum Zugriff auf die Daten im Datenbereich nötige Managementinformation aufgezeichnet. Im Datenbereich werden Informationen, die einen Header, Sub-Videodaten, Audiodaten und Videodaten umfassen, aufgezeichnet.
  • Gemäß Fig. 15B werden z. B. im Managementbereich die identischen Inhalte von Managementinformation in den Sektionen (P1 bis P2) der innersten zweieinhalb Spuren und in der Sektion (P2 bis P3) der nächsten zweieinhalb Spuren aufgezeichnet. Das heißt, die Startpositionen der Managementinformation mit identischem Inhalt werden auf radialen Linien mit verschiedenen Winkeln auf der Platte 10 gesetzt. In diesem Beispiel beträgt der Winkel, den zwei radiale Linien bilden, 180º.
  • Es werden zwei Sätze von Managementinformation auf der Platte 10 aufgezeichnet. Wenn nun einer von ihnen auf grund von Verschmutzung oder Verunreinigungen nicht von der Platte ausgelesen werden kann, so kann der andere Satz · Managementinformation benutzt werden. Dies verhindert, daß wichtige Information beim Zugriff auf den Datenbereich verloren geht. Die zwei Sätze Managementinformation werden an verschiedenen Positionen auf der Platte aufgezeichnet.
  • Daher ist die Wahrscheinlichkeit sehr gering, daß, selbst wenn die Platte verkratzt oder mit Fremdstoffen verunreinigt wird, im Verhältnis zum Plattenzentrum einander direkt gegenüberliegende Stellen beschädigt oder mit Fremdstoffen verschmutzt werden, wie es durch einen schattierten Abschnitt dargestellt ist. Dementsprechend ist es aus Sicherheitsgründen wichtig, daß Managementinformation in verschiedenen Winkelpositionen auf der Platte aufgezeichnet wird.
  • Wenn die Managementinformation nicht gelesen werden kann, wirkt sich dies besonders gravierend auf die Wiedergabe von Daten von der Platte aus. Es ist somit wichtig, daß mindestens mehr als ein Satz derselben Managementinformation, wie vorstehend beschrieben, auf der Plätte aufgezeichnet ist. Solange nämlich die Managementinformation gelesen werden kann, kann auf die Daten auf der Platte zugegriffen werden, selbst wenn ein Teil des Datenbereichs beschädigt ist. Da ein Datenbereich unbenutzte Abschnitte enthalten kann, trägt die Aufzeichnung mindestens eines Satzes von Managementinformation dazu bei, die Zuverlässigkeit der Platte 10 zu verbessern.
  • Wenn die Menge aller auf der Platte 10 aufgezeichneten Daten geringer ist als die gesamte Speicherkapazität der Platte, oder wenn alle Stücke aufgezeichneter Daten wichtig sind, kann mehr als ein Satz von Managementinformation im Datenbereich aufgezeichnet werden. Auch in diesem Fall wird die Startposition jedes Informationselements auf eine andere Radiallinie gesetzt. In dem beschriebenen Beispiel unterscheiden sich die Startpositionen der Aufzeichnung voneinander um einen Winkel von 180º. Die Winkeldifferenz ist nicht hierauf beschränkt, z. B. kann sie 90º oder ein anderes Gradmaß betragen. Während in diesem Beispiel zwei Sätze derselben Daten aufgezeichnet werden, können auch drei oder vier Sätze derselben Daten gespeichert werden.
  • Im folgenden wird beschrieben, welche Arten von Daten im Datenbereich aufgezeichnet werden.
  • Fig. 16 ist eine vergrößerte Ansicht des Inhalts der Dateneinheit DUT #0 im Datenbereich. In der Dateneinheit DUT #0 befindet sich ein Subcode (SUB-CODE) am Start, gefolgt von einem Unterbild (SUB-PICTURE,), Audiodaten (AUDIO) und Videodaten (VIDEO) in dieser Reihenfolge. Der Subcode (SUB- CODE) enthält die Attribute der Dateneinheit DUT #0 und Steuerdaten zu der Dateneinheit. Das Unterbild oder Überlagerungsbild (SUB-PICTURE) enthält z. B. Untertiteldaten (für Videokino) oder Schriftzeichendaten (für Kara-OK-Video und Unterrichtsvideo). Die Untertiteldaten und die Schriftzeichendaten werden alle mit PICTURE #0 bis #7 versehen, von denen alle oder einige sich in der Sprache unterscheiden, und der Rest enthält keine Signale. Die Audiodaten (AUDIO) werden in bis zu 8 verschiedenen Sprachen aufgezeichnet, von AUDIO #0 bis #7 (jede Wiedergabe dauert ungefähr 1 s). Jedes Audiodatenstück wird in Frames aufgezeichnet, wobei jeder Frame #0, #1 usw. aus Header bzw. Kopfteil (HEADERs) und Daten (DATA) besteht. Die Videodaten (VIDEO) enthalten z. B. 30 Bild-Frames (ungefähr 1 s Wiedergabe). Die Video-Information (VIDEO) wird mit hochwirksamen Bildcodier- und Komprimiertechniken aufgezeichnet. Die Anzahl der Frames ist nicht durch Normen begrenzt.
  • Wie beschrieben, werden verschiedene Sprachen auf der Platte aufgezeichnet, und mindestens zwei Decodiereinrichtungen für Sprachwiedergabe sind dem Aufzeichnungsgerät eingegliedert. Somit können mindestens zwei der Sprachen in dem Gerät kombiniert werden. Für teure Modelle können mehr Videodecoder, mehr Sprachdecoder und mehr Untertitel- und Schriftzeichendaten-Decoder verwendet werden.
  • Im folgenden ist ein Beispiel der im Managementbereich aufgezeichneten Managementinformation dargestellt. Die Managementinformation wird in Form einer Tabelle gespeichert.
  • Gemäß Fig. 17A wird eine Tabelle von Sprachcodes in der VID aufgezeichnet, und zeigt an, welche Sprache in welchem Datenbereich aufgezeichnet ist. Der Sprachcode entspricht Beschreibungscodes 0, 1, ..., 8. Bei diesem Beispiel einer Platte entspricht der Beschreibungscode O Nicht-Sprache oder einem Hintergrundton und Musik (B & M) und die Beschreibungscodes 1, 2, 3 und 4 entsprechen jeweils Englisch, Japanisch, Französisch und Deutsch. Die Entsprechung zwischen jedem Beschreibungscode und jedem Sprachcode wird bekannt, wenn das VID beim Starten des Aufzeichnungsgeräts gelesen wird.
  • Andererseits werden Bit-Datenstrings bzw. -ketten in der PIF-Tabelle definiert. Im einzelnen entsprechen die Beschreibungscodes den Datenstring-Nummern #0 bis #7 auf der Platte (Fig. 17B). Wenn eine Datenstring-Nummer ausgewählt wird, wird ein Beschreibungscode bestimmt, und der dem Beschreibungscode entsprechende Sprachcode wird ebenfalls bestimmt.
  • Deshalb zeigt das Aufzeichnungsgerät, wenn es die Daten in der PIF-Tabelle liest, den ersten Menü-Bildschirm in Übereinstimmung mit den Datenstringnummern #0 bis #7 an (eine Bildschirmanzeige durch ein Schlüsselanzeigesignal). Diese Bildschirmanzeige wird z. B. durchgeführt, indem man einen Sprachcode einer Konversionstabelle zuführt, um die dem Sprachcode entsprechenden Bildschirmanzeigedaten zu erzeugen. Damit ein Sprachcode geliefert wird, den der Benutzer verstehen kann, braucht der Benutzer nur durch Betätigen der Bedienungssektion die entsprechende Datenstringnummer auszuwählen und einzugeben.
  • Wenn der Benutzer z. B. die Datenstringnummer #0 auswählt, wird der Beschreibungscode 1 angezeigt. Zu diesem Zeitpunkt wird D1 (d. h. Englisch) als Sprache ausgewählt. Wenn der Benutzer die Datenstringnummer #2 auswählt, wird D2 (Japanisch) als Sprache ausgewählt.
  • Nachdem der Benutzer eine Sprache ausgewählt hat, wird ein Herstellerkommentar in der ausgewählten Sprache auf dem Bildschirm gezeigt. Die Datenadresse, bei der Kommentarinformation aufgezeichnet ist, ist z. B. in der VID- Tabelle aufgezeichnet. Die Kommentardaten werden in der Sprache angezeigt, die der Benutzer verstehen kann. Zum Beispiel wird sie auf dem zweiten Menü-Bildschirm in der Sprache angezeigt, die der Benutzer auf dem ersten Menü- Bildschirm ausgewählt hat. Wenn der Benutzer auf dem ersten Menü-Bildschirm #2 ausgewählt hat, wird der Kommentar in Japanisch angezeigt. Die Kommentare umfassen eine Begrüßung des Herstellers, das Produktionsdatum, die Zielsetzung des Produkts und die Programmzeit, z. B. im Falle von Kinofilmen. Wenn der Benutzer die angezeigten Kommentare sieht, kann er einen Ausgabemodus für Sprache und Untertitel wählen, indem er die in der Bedienungssektion vorgesehenen Sprach- und Untertitel-Wahlknöpfe drückt. Wenn der Benutzer den Sprach- Wahlknopf drückt, erscheint ein Cursor auf dem Bildschirm. Jedesmal, wenn der Sprach-Wahlknopf gedrückt wird, bewegt sich der Cursor in der Sprachspalte von einem Element zum anderen, von Nichtsprache zu Japanisch, Englisch, Französisch, Deutsch usw. Nach Ablauf einer vorbestimmten Zeitspanne, nachdem der Cursor zu dem gewünschten Element bewegt worden ist, wird das erwünschte Element ausgewählt, sofern nicht der Wahlknopf während dieser vorbestimmten Zeit gedrückt wird. Der Untertitel-Wahlknopf wird ähnlich bedient, um den Untertitel in der gewünschten Sprache auszuwählen. Wenn weder der Sprach-Wahlknopf noch der Untertitel- Wahlknopf in der vorbestimmten Zeit betätigt worden ist, wird der Wiedergabemodus in der auf dem ersten Menü-Bildschirm ausgewählten Sprache ausgeführt. Der Sprachausgabemodus und der Untertitel-Anzeigemodus können während des Betriebs des Wiedergabegeräts geändert werden.
  • Wenn eines der Programme ausgewählt wird, d. h. wenn ein Datenstring ausgewählt wird, steuert die Systemsteuersektion des Wiedergabegeräts die Abgreif-Antriebssektion. Die Abgreif-Antriebssektion bewegt das Abgreifteil, welches das ausgewählte Programm von der Platte ausliest.
  • Wie aus der vorangehenden Beschreibung ersichtlich ist, ist die Managementinformation äußerst wichtig beim Zugriff auf die Platte. Wenn die Managementinformation nicht gelesen werden könnte, hätte dies gravierende Folgen für die Wiedergabe der Daten von der Platte.
  • Fig. 18 ist ein Flußdiagramm zur Erläuterung, wie die Datenstring-Verarbeitungssektion 603 die ihr über die Fehlerkorrektur-Datenverarbeitungssektion 602 zugeführten Daten verarbeitet. Die Sektion 603 empfängt die von der Sektion 602 gesendeten Daten und bestimmt, ob diese Daten Fehler enthalten oder nicht.
  • Im einzelnen wird die erste Managementinformation von der Platte gelesen (Schritte S11 und S12). Dann bestimmt die Datenstring-Verarbeitungssektion 603, ob die Information Fehler enthält oder nicht (Schritt S13). Wenn nicht (NO), wird die Information als Managementtabelle in dem Arbeitsspeicher gespeichert, der in die Systemsteuersektion 604 eingegliedert ist (Schritt S20). Wenn ja (YES), dann bestimmt die Sektion 603 ob die Fehler korrigiert werden können oder nicht, z. B. durch Zählen der Anzahl der Fehler (Schritt S14). Wenn im Schritt S14 YES erscheint, werden die Fehler korrigiert (Schritt S19). Die so korrigierte Information wird als Managementtabelle in dem Arbeitsspeicher abgespeichert. Wenn in Schritt S14 NO erfolgt, wird die zweite Managementinformation von der Platte ausgelesen (Schritt 15). Als nächstes bestimmt die Datenstring- Verarbeitungssektion 603, ob die Information Fehler enthält oder nicht (Schritt S16). Falls in Schritt 16 NO erfolgt, wird die Information als Managementtabelle in dem in der Systemsteuersektion 604 eingegliederten Arbeitsspeicher abgespeichert (Schritt S20). Wenn in Schritt S16 YES erfolgt, bestimmt der Abschnitt 603, ob die Fehler korrigiert werden können oder nicht, z. B. durch Zählen der Fehleranzahl (Schritt S17). Wenn in Schritt S17 YES erfolgt, werden die Fehler korrigiert (Schritt S19). Die so korrigierten Daten werden als Managementtabelle im Arbeitsspeicher abgespeichert. Wenn in Schritt S17 NO erfolgt, kommt es zu einer Warnanzeige (Schritt 18).
  • Gemäß dem vorstehend beschriebenen Beispiel wird bestimmt, ob die erste Managementinformation gültig oder ungültig ist. Wenn die erste Managementinformation ungültig ist, wird die zweite Managementinformation von der Platte ausgelesen. Stattdessen kann sowohl die erste Managementinformation als auch die zweite Managementinformation von der Platte ausgelesen und gleichzeitig auf Fehler geprüft werden. In diesem Fall wird, wenn in einem Teil eines der Managementinformationselemente Fehler gefunden werden, dieser Teil automatisch durch den entsprechenden Teil der anderen Managementinformation ersetzt, wodurch Fehler beseitigt werden, und die fehlerfreie Managementinformation wird im Arbeitsspeicher abgespeichert.
  • Wie oben beschrieben wurde, können sowohl das Wiedergabegerät als auch die Platte die Möglichkeit, daß wichtige, im Gerät verwendete Information vollständig zerstört wird, wenn die Platte beschädigt wird, auf ein Minimum reduzieren.

Claims (9)

1. Ein Strom digitaler Signale, die auf einem Aufzeichnungsmedium, das einen Datenbereich und einen Managementbereich voneinander getrennt aufweist, aufzuzeichnen sind, wobei die Signale durch eine Wiedergabe- bzw. Reproduktionsvorrichtung wiedergebbar bzw. reproduzierbar sind und der Strom digitaler Signale umfaßt:
einen ersten Strom digitaler Signale, der in dem Datenbereich des Aufzeichnungsmediums aufzuzeichnen ist und darstellt:
Gruppen von Videodaten, die Bildgruppen bzw. GOPs (groups, of pictures) von Hauptbildern, die durch eine Bewegtbild-Kompressionstechnik codiert sind, umfassen,
Gruppen von Sub-Videodaten, die in Einheiten von GOPs eines entsprechenden Hauptbildes der Videodaten aktualisiert werden und zum Hinzufügen zu entsprechenden GOPs der Videodaten, die dem Hauptbild entsprechen, vorgesehen sind, um bei der Reproduktion bzw. Wiedergabe dem Hauptbild überlagert zu werden, wobei die Gruppen von Videodaten und Sub-Videodaten unter Verwendung getrennter Codierer codiert wurden und voneinander getrennt sind,
einen zweiten Strom digitaler Signale, der im Managementbereich des Aufzeichnungsmediums aufzuzeichnen ist und darstellt:
Steuerdaten (PIF) mit ein Bildcodiersystem und ein TV-System (PAL,NTSC) identifizierenden Parametern, die zum Decodieren der Gruppen von Videodaten der Hauptbilder in dem ersten Strom digitaler Signale erforderlich sind.
2. Strom von Digitalsignalen nach Anspruch 1, wobei die codierten Sub-Videodaten durch Komprimieren und Codieren verschiedener Sprachdaten erhaltene Daten aufweisen.
3. Strom von Digitalsignalen nach Anspruch 2, wobei die verschiedenen Sprachdaten Untertitel aufweisen, die Filmen zu überlagern sind.
4. Strom von Digitalsignalen nach Anspruch 1, 2 oder 3, wobei der erste Strom digitaler Signale, der im Datenbereich des Aufzeichnungsmediums aufzuzeichnen ist, ferner darstellt:
Gruppen codierter Audiodaten (AUDIO), die von den codierten Videodaten getrennt sind, und die von den Videodaten getrennt komprimierte und codierte Daten sind.
5. Strom von Digitalsignalen nach Anspruch 4, wobei der erste Strom digitaler Signale codierte Audiodaten darstellt, die einer Mehrzahl von Kanälen entsprechen.
6. Strom von Digitalsignalen nach Anspruch 5, wobei die einer Mehrzahl von Kanälen entsprechenden codierten Audiodaten durch Komprimieren und Codieren verschiedener Sprach-Audiodaten erhaltene Daten aufweisen.
7. Strom von Digitalsignalen nach Anspruch 6, wobei die verschiedenen Sprach-Audiodaten einem durch die Videodaten dargestellten Film entsprechende Audiodaten aufweisen.
8. Strom von Digitalsignalen nach Anspruch 4, 5, 6 oder 7, wobei in dem ersten Strom digitaler Signale, der in dem Datenbereich des Aufzeichnungsmediums aufzuzeichnen ist, jeweils eine Gruppe von Videodaten, eine Gruppe von Sub- Videodaten und eine Gruppe von Audiodaten angeordnet ist, um eine Dateneinheit zu bilden, die einer vorbestimmten Präsentationszeit entspricht.
9. Aufzeichnungsmedium mit einer magnetischen Platte oder einer optischen Platte, die einen Datenbereich und einen Managementbereich getrennt voneinander aufweisen und den Strom digitaler Signale gemäß einem der Ansprüche 1 bis 8 darauf aufgezeichnet enthält.
DE69426894T 1993-09-16 1994-08-30 Digitales Videosignal Expired - Lifetime DE69426894T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP22991093A JP2868981B2 (ja) 1993-09-16 1993-09-16 圧縮信号生成装置及び方法及び再生装置及び方法
JP5271639A JPH07130102A (ja) 1993-10-29 1993-10-29 ディスク構造

Publications (2)

Publication Number Publication Date
DE69426894D1 DE69426894D1 (de) 2001-04-19
DE69426894T2 true DE69426894T2 (de) 2001-07-26

Family

ID=26529060

Family Applications (3)

Application Number Title Priority Date Filing Date
DE69426894T Expired - Lifetime DE69426894T2 (de) 1993-09-16 1994-08-30 Digitales Videosignal
DE69414275T Expired - Lifetime DE69414275T2 (de) 1993-09-16 1994-08-30 Vorrichtung zur Synchronisierung von komprimierten Video- un Audiosignalen
DE69408237T Expired - Lifetime DE69408237T3 (de) 1993-09-16 1994-08-30 Vorrichtung zur Komprimierung/Dekomprimierung von Videosignalen in einer Videoplattenaufzeichnungs-/wiedergabegerät

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE69414275T Expired - Lifetime DE69414275T2 (de) 1993-09-16 1994-08-30 Vorrichtung zur Synchronisierung von komprimierten Video- un Audiosignalen
DE69408237T Expired - Lifetime DE69408237T3 (de) 1993-09-16 1994-08-30 Vorrichtung zur Komprimierung/Dekomprimierung von Videosignalen in einer Videoplattenaufzeichnungs-/wiedergabegerät

Country Status (4)

Country Link
US (1) US5715356A (de)
EP (3) EP0644692B2 (de)
KR (1) KR0186063B1 (de)
DE (3) DE69426894T2 (de)

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HK1010464A1 (en) * 1993-10-29 1999-06-17 Kabushiki Kaisha Toshiba Recording medium which can cope with various languages and reproduction apparatus
US5463565A (en) * 1993-10-29 1995-10-31 Time Warner Entertainment Co., L.P. Data block format for software carrier and player therefor
US5576843A (en) * 1993-10-29 1996-11-19 Time Warner Entertainment Co., L.P. System and method for controlling play of multiple dialog audio tracks of a software carrier
JP3485958B2 (ja) * 1994-04-08 2004-01-13 株式会社東芝 記録媒体再生装置及び記録媒体再生方法
JP2677775B2 (ja) * 1994-04-14 1997-11-17 株式会社東芝 再生装置
GB2294173B (en) * 1994-10-11 1998-12-09 Mitsubishi Electric Corp Disk media, and method of and device for recording and playing back information on or from a disk media
US5920842A (en) * 1994-10-12 1999-07-06 Pixel Instruments Signal synchronization
US5778142A (en) * 1994-11-24 1998-07-07 Kabushiki Kaisha Toshiba Large capacity recording medium, method and apparatus for reproducing data from a large-capacity recording medium, and method and apparatus for recording data on a large-capacity recording medium
US6009202A (en) * 1994-12-28 1999-12-28 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US5721720A (en) * 1994-12-28 1998-02-24 Kabushiki Kaisha Toshiba Optical recording medium recording pixel data as a compressed unit data block
CA2168327C (en) * 1995-01-30 2000-04-11 Shinichi Kikuchi A recording medium on which a data containing navigation data is recorded, a method and apparatus for reproducing a data according to navigationdata, a method and apparatus for recording a data containing navigation data on a recording medium.
JP3089974B2 (ja) * 1995-02-13 2000-09-18 日本ビクター株式会社 信号記録方法及び映像信号処理装置
US5930450A (en) * 1995-02-28 1999-07-27 Kabushiki Kaisha Toshiba Recording medium, apparatus and method of recording data on the same, and apparatus and method of reproducing data from the recording medium
CA2173812C (en) * 1995-04-11 2000-02-08 Shinichi Kikuchi Recording medium, recording apparatus and recording method for recording data into recording medium, and reproducing apparatus and reproduction method for reproducing data from recording medium
CA2173929C (en) * 1995-04-14 2001-04-03 Kazuhiko Taira Method, apparatus and recording medium for reproducing information
AU698969B2 (en) * 1995-04-14 1998-11-12 Kabushiki Kaisha Toshiba Recording medium, device and method for recording data on the medium, and device and method for reproducing data from the medium
US6009234A (en) 1995-04-14 1999-12-28 Kabushiki Kaisha Toshiba Method of reproducing information
US6009433A (en) * 1995-04-14 1999-12-28 Kabushiki Kaisha Toshiba Information storage and information transmission media with parental control
US5813010A (en) * 1995-04-14 1998-09-22 Kabushiki Kaisha Toshiba Information storage and information transmission media with parental control
US5612900A (en) * 1995-05-08 1997-03-18 Kabushiki Kaisha Toshiba Video encoding method and system which encodes using a rate-quantizer model
WO1996038843A1 (fr) * 1995-05-31 1996-12-05 Sony Corporation Procedes et dispositifs de codage/decodage de signaux audio
JP3701051B2 (ja) * 1995-07-04 2005-09-28 パイオニア株式会社 情報記録装置及び情報再生装置
JP4018166B2 (ja) * 1995-07-06 2007-12-05 パイオニア株式会社 媒体記録方法、装置及び媒体再生方法、装置
US6324334B1 (en) * 1995-07-07 2001-11-27 Yoshihiro Morioka Recording and reproducing apparatus for recording and reproducing hybrid data including text data
JP3577794B2 (ja) * 1995-07-18 2004-10-13 ソニー株式会社 データ復号化装置
JP3484834B2 (ja) * 1995-07-28 2004-01-06 ソニー株式会社 データ符号化/復号化方法および装置
JP2766466B2 (ja) * 1995-08-02 1998-06-18 株式会社東芝 オーディオ方式、その再生方法、並びにその記録媒体及びその記録媒体への記録方法
US20020044757A1 (en) * 1995-08-04 2002-04-18 Sony Corporation Information carrier, device for reading and device for providing the information carrier and method of transmitting picture information
JP3493822B2 (ja) 1995-08-04 2004-02-03 ソニー株式会社 データ記録方法及び装置、並びに、データ再生方法及び装置
EP0788094A4 (de) * 1995-08-21 1998-06-24 Matsushita Electric Ind Co Ltd Multimedia optische platte, mit welcher durch interaktive steuerung vollständig unerwarteten szenen erzeugt werden können, deren wiedergabegerät und wiedergabeverfahren
EP0935251B1 (de) * 1995-08-21 2007-01-03 Matsushita Electric Industrial Co., Ltd. Verfahren zur Wiedergabe einer optischen Multimedia-Platte die einem Titel-Entwickler das Koordinieren der Verwendung besonderer Wiedergabefunktionen erlaubt
KR100302480B1 (ko) 1995-08-21 2001-11-22 마츠시타 덴끼 산교 가부시키가이샤 영상내용의신선함을오래유지할수있는멀티미디어광디스크및그재생장치와재생방법
TW303570B (de) * 1995-09-29 1997-04-21 Matsushita Electric Ind Co Ltd
TW436777B (en) * 1995-09-29 2001-05-28 Matsushita Electric Ind Co Ltd A method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
TW329515B (en) * 1995-10-24 1998-04-11 Matsushita Electric Ind Co Ltd Recording medium and reproduction apparatus
JP3816571B2 (ja) * 1996-03-15 2006-08-30 パイオニア株式会社 情報記録装置及び情報記録方法並びに情報再生装置及び情報再生方法
JP3748936B2 (ja) * 1996-03-18 2006-02-22 パイオニア株式会社 情報記録装置及び方法並びに情報再生装置及び方法
JP3719758B2 (ja) * 1996-03-19 2005-11-24 パイオニア株式会社 情報記録装置及び方法並びに情報再生装置及び方法
US6757483B1 (en) 1996-03-19 2004-06-29 Pioneer Electronic Corporation Information recording medium with aggregate attribute information recorded in video manager, apparatus for recording the same and apparatus for reproducing the same
JP3698805B2 (ja) * 1996-03-25 2005-09-21 パイオニア株式会社 情報記録装置及び方法、情報処理装置及び方法並びに情報再生装置及び方法
CN1755820B (zh) * 1996-04-05 2011-05-18 松下电器产业株式会社 再生设备
US6798981B1 (en) 1996-04-05 2004-09-28 Matsushita Electric Industrial Co., Ltd. Multimedia optical disc for storing audio data and sub-picture data in a plurality of channels as well as moving picture data and apparatus and method for reproducing the multimedia optical disc
EP0935249B1 (de) 1996-04-12 2006-05-24 Matsushita Electric Industrial Co., Ltd. Optische Multimedia-Platte die sowohl Videotitel mit AV-Funktionen sowie Videotitel ohne solche Funktionen speichert, die augenblicklich unterscheiden kann zwischen Arten von Titeln und Wiedergabegerät und Wiedergabeverfahren für solch eine Platte
US6212208B1 (en) * 1996-11-11 2001-04-03 Matsushita Electric Industrial Co., Ltd. Method for coding and multiplexing multimedia data, apparatus for coding and multiplexing multimedia data, record media containing program for coding and multiplexing multimedia data
JP3512098B2 (ja) 1996-12-13 2004-03-29 ソニー株式会社 情報記録装置および方法、並びに情報再生装置および方法
US6021440A (en) * 1997-05-08 2000-02-01 International Business Machines Corporation Method and apparatus for coalescing and packetizing data
WO1999031657A2 (en) 1997-12-15 1999-06-24 Matsushita Electric Industrial Co., Ltd. Optical disc, optical disc recording apparatus, and optical disc recording method for facilitating dubbing, storage medium for storing optical disc recording program for facilitating dubbing, optical disc reproducing apparatus, and optical disc reproducing method
US7272298B1 (en) * 1998-05-06 2007-09-18 Burst.Com, Inc. System and method for time-shifted program viewing
DE19822975A1 (de) * 1998-05-25 1999-12-02 Thomson Brandt Gmbh Verfahren und Vorrichtung zum Aufnehmen und Wiedergeben von Video- und/oder Audiosignalen
KR100327211B1 (ko) * 1998-05-29 2002-05-09 윤종용 부영상부호화방법및장치
US6341198B1 (en) * 1998-06-26 2002-01-22 Lsi Logic Corporation System for byte packing multiple data channels in an MPEG/DVD system
US6233389B1 (en) * 1998-07-30 2001-05-15 Tivo, Inc. Multimedia time warping system
US8380041B2 (en) * 1998-07-30 2013-02-19 Tivo Inc. Transportable digital video recorder system
US7558472B2 (en) 2000-08-22 2009-07-07 Tivo Inc. Multimedia signal processing system
US8577205B2 (en) * 1998-07-30 2013-11-05 Tivo Inc. Digital video recording system
EP0982950A3 (de) * 1998-08-24 2004-09-29 Sony Corporation Elektronische Videokamera mit MPEG Kodierer
US6016166A (en) * 1998-08-31 2000-01-18 Lucent Technologies Inc. Method and apparatus for adaptive synchronization of digital video and audio playback in a multimedia playback system
JP3359581B2 (ja) * 1998-11-25 2002-12-24 パイオニア株式会社 情報再生装置
DE19855038A1 (de) * 1998-11-28 2000-05-31 Thomson Brandt Gmbh Verfahren zur Bildcodierung und -decodierung sowie Verfahren zum Aufbau einer Teilbilddateneinheit für ein elektronisches Gerät und elektronisches Gerät
DE19859845A1 (de) 1998-12-23 2000-06-29 Thomson Brandt Gmbh Wiedergabegerät für Informationsblöcke enthaltende Aufzeichnungsträger
CA2364301C (en) 1999-02-17 2010-09-14 Matsushita Electric Industrial Co., Ltd. Information recording medium, apparatus and method for performing after-recording on a recording medium
US6138089A (en) * 1999-03-10 2000-10-24 Infolio, Inc. Apparatus system and method for speech compression and decompression
EP1059756A1 (de) * 1999-06-09 2000-12-13 Lucent Technologies Inc. Sprachübertragung über Paketvermittlungsnetzwerke
CN100579193C (zh) * 1999-07-09 2010-01-06 松下电器产业株式会社 记录器、重放器、记录方法和重放方法
US6374041B1 (en) 2000-07-07 2002-04-16 Matsushita Electric Industrial Co., Ltd. Optical disc, a recorder, a player, a recording method, and a reproducing method that are all used for the optical disc
US6587638B1 (en) * 1999-08-02 2003-07-01 Hitachi, Ltd. Recording/ reproducing apparatus and input/ output device
EP1085767B1 (de) * 1999-09-20 2011-08-10 Panasonic Corporation Eine Kodier-/Aufnahme-Vorrichtung, die die Kodierung von Videodaten und die Bemusterung von einem Tonsignal unterbricht, als Antwort auf einen Aufnahmepauseauftrag, um die ununterbrochene Wiedergabe von vor und nach der Aufnahmepause aufgenommemen Daten zu ermöglichen
EP1214842B1 (de) 1999-09-20 2010-11-17 TiVo, Inc. Untertitel-etikettiersystem
KR100722455B1 (ko) * 1999-11-16 2007-05-28 소니 가부시끼 가이샤 기록매체, 데이터 기록방법과 장치, 데이터 재생방법과장치 및 복사제어방법
TW526666B (en) * 2000-03-29 2003-04-01 Matsushita Electric Ind Co Ltd Reproducing method for compression coded data and device for the same
CN1159909C (zh) * 2000-04-21 2004-07-28 松下电器产业株式会社 数字存储媒体的特殊再现方法
EP1148739B1 (de) * 2000-04-21 2015-01-21 Panasonic Corporation Videobearbeitungsverfahren und Videobearbeitungsgerät
JP2002016925A (ja) * 2000-04-27 2002-01-18 Canon Inc 符号化装置及び符号化方法
US20070230921A1 (en) * 2001-04-05 2007-10-04 Barton James M Multimedia time warping system
US7336680B2 (en) * 2001-09-18 2008-02-26 Scientific-Atlanta, Inc. Multi-carrier frequency-division multiplexing (FDM) architecture for high speed digital service
US7729379B2 (en) * 2001-09-18 2010-06-01 Scientific-Atlanta, Inc. Mapping of bit streams into MPEG frames
JP4078198B2 (ja) * 2002-01-31 2008-04-23 松下電器産業株式会社 情報記録媒体および欠陥管理領域の位置決定方法
JP4045940B2 (ja) * 2002-04-05 2008-02-13 ソニー株式会社 記録制御装置および記録制御方法、プログラム、並びに記録媒体
US20040006635A1 (en) * 2002-04-19 2004-01-08 Oesterreicher Richard T. Hybrid streaming platform
US20040006636A1 (en) * 2002-04-19 2004-01-08 Oesterreicher Richard T. Optimized digital media delivery engine
US7899924B2 (en) * 2002-04-19 2011-03-01 Oesterreicher Richard T Flexible streaming hardware
US7590145B2 (en) * 2002-09-17 2009-09-15 Scientific-Atlanta, Inc. Multiplexing octets from a data flow over MPEG packets
US8737810B2 (en) 2002-11-15 2014-05-27 Thomson Licensing Method and apparatus for cropping of subtitle elements
KR101034969B1 (ko) 2002-11-15 2011-05-17 톰슨 라이센싱 자막 작성 장치
KR100677106B1 (ko) * 2002-12-10 2007-02-01 삼성전자주식회사 정보저장매체 및 그 기록/재생방법
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
US9715898B2 (en) * 2003-12-16 2017-07-25 Core Wireless Licensing S.A.R.L. Method and device for compressed-domain video editing
US7587131B1 (en) 2004-05-28 2009-09-08 Magnum Semiconductor, Inc. Audio clocking in video applications
US20060146780A1 (en) * 2004-07-23 2006-07-06 Jaques Paves Trickmodes and speed transitions
JP4897698B2 (ja) 2004-11-19 2012-03-14 ティヴォ インク 以前に放送されたコンテンツを安全に転送する方法および装置
KR100638138B1 (ko) * 2005-05-24 2006-10-24 주식회사 픽스트리 비디오/오디오 부호화 및 다중화 기능을 가진 하드웨어장치 및 그 작동 방법
EP1900221B1 (de) 2005-07-07 2012-10-10 TiVo Inc. System und verfahren zum abrufen von digitalen inhalten
WO2007043824A1 (en) * 2005-10-13 2007-04-19 Lg Electronics Inc. Method and apparatus for encoding/decoding
US20090160862A1 (en) * 2005-10-13 2009-06-25 Tae Hyeon Kim Method and Apparatus for Encoding/Decoding
US7712005B2 (en) * 2005-10-21 2010-05-04 Marvell World Trade Ltd. Encoding and error correction system for enhanced performance of legacy communications networks
US8761568B2 (en) 2005-12-20 2014-06-24 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and apparatus for synchronizing subtitles with a video
JP4948147B2 (ja) * 2006-12-15 2012-06-06 富士通株式会社 複合コンテンツファイルの編集方法および装置
JP5513400B2 (ja) 2007-11-16 2014-06-04 ソニック アイピー, インコーポレイテッド マルチメディアファイルのための階層的で簡略なインデックス構造体
US8165451B2 (en) * 2007-11-20 2012-04-24 Echostar Technologies L.L.C. Methods and apparatus for displaying information regarding interstitials of a video stream
US8136140B2 (en) 2007-11-20 2012-03-13 Dish Network L.L.C. Methods and apparatus for generating metadata utilized to filter content from a video stream using text data
US8165450B2 (en) 2007-11-19 2012-04-24 Echostar Technologies L.L.C. Methods and apparatus for filtering content in a video stream using text data
US8606085B2 (en) * 2008-03-20 2013-12-10 Dish Network L.L.C. Method and apparatus for replacement of audio data in recorded audio/video stream
US8156520B2 (en) * 2008-05-30 2012-04-10 EchoStar Technologies, L.L.C. Methods and apparatus for presenting substitute content in an audio/video stream using text data
US8588579B2 (en) * 2008-12-24 2013-11-19 Echostar Technologies L.L.C. Methods and apparatus for filtering and inserting content into a presentation stream using signature data
US8510771B2 (en) * 2008-12-24 2013-08-13 Echostar Technologies L.L.C. Methods and apparatus for filtering content from a presentation stream using signature data
US8407735B2 (en) * 2008-12-24 2013-03-26 Echostar Technologies L.L.C. Methods and apparatus for identifying segments of content in a presentation stream using signature data
US8437617B2 (en) * 2009-06-17 2013-05-07 Echostar Technologies L.L.C. Method and apparatus for modifying the presentation of content
US8934758B2 (en) 2010-02-09 2015-01-13 Echostar Global B.V. Methods and apparatus for presenting supplemental content in association with recorded content
US20110197224A1 (en) * 2010-02-09 2011-08-11 Echostar Global B.V. Methods and Apparatus For Selecting Advertisements For Output By A Television Receiver Based on Social Network Profile Data
CN105187733B (zh) * 2014-06-06 2019-03-01 腾讯科技(北京)有限公司 视频处理方法、装置及终端
US11172269B2 (en) 2020-03-04 2021-11-09 Dish Network L.L.C. Automated commercial content shifting in a video streaming system

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3757225A (en) * 1972-03-16 1973-09-04 Telebeam Corp Communication system
JPS5971105A (ja) * 1982-10-15 1984-04-21 Victor Co Of Japan Ltd アドレス信号発生回路
JPS59194583A (ja) * 1983-04-19 1984-11-05 Victor Co Of Japan Ltd 画像表示装置
US4680647A (en) * 1983-09-26 1987-07-14 Pioneer Electronic Corporation Method for recording and reproducing video format signal
JPH0828054B2 (ja) * 1983-11-30 1996-03-21 ソニー株式会社 デイスク状記録媒体
US4777537A (en) * 1985-10-21 1988-10-11 Sony Corporation Signal recording apparatus and method
JPS62117482A (ja) * 1985-11-18 1987-05-28 Pioneer Electronic Corp ビデオデイスク並びにその記録及び再生装置
US4947221A (en) 1985-11-29 1990-08-07 General Electric Company Memory cell for a dense EPROM
NL8601182A (nl) * 1986-05-12 1987-12-01 Philips Nv Werkwijze en inrichting voor het opnemen en/of weergeven van een beeldsignaal en een bijbehorend audiosignaal in respektievelijk van een registratiedrager, en een registratiedrager verkregen volgens de werkwijze.
US4843484A (en) * 1986-09-12 1989-06-27 Pioneer Electronic Corporation Information recording disc with composite index codes and its playback method
JP2537041B2 (ja) * 1986-11-05 1996-09-25 キヤノン株式会社 記録装置
DE3718567A1 (de) * 1987-06-03 1988-12-15 Bosch Gmbh Robert Verfahren und anordnung zu wiedergabe von auf magnetband gespeicherten videodaten
JP2590899B2 (ja) * 1987-07-24 1997-03-12 松下電器産業株式会社 文字図形情報表示装置
US5225904A (en) * 1987-10-05 1993-07-06 Intel Corporation Adaptive digital video compression system
US4870613A (en) * 1988-01-11 1989-09-26 Cincinnati Milacron Inc. Method for interactively changing video disks
JPH07118798B2 (ja) * 1988-02-29 1995-12-18 パイオニア株式会社 画像情報の記録方法及び再生方法
US5065252A (en) * 1988-02-29 1991-11-12 Pioneer Electronic Corporation Method and apparatus for recording and reproducing picture information enabling the mixing of images of a video format signal and graphic codes recorded on a single recording medium
JPH01221070A (ja) * 1988-02-29 1989-09-04 Casio Comput Co Ltd 画像情報処理装置
JP2938077B2 (ja) * 1988-03-11 1999-08-23 パイオニア株式会社 画像信号の記録方法及び画像の再生方法
US5016113A (en) * 1988-04-04 1991-05-14 Pioneer Electronic Corporation Apparatus for reproducing and processing picture information including graphic codes from a recording medium
JP2683021B2 (ja) * 1988-04-04 1997-11-26 パイオニア株式会社 画像情報再生処理装置
JPH01273275A (ja) * 1988-04-25 1989-11-01 Pioneer Electron Corp 画像情報の記録再生方式
JPH01273268A (ja) * 1988-04-25 1989-11-01 Pioneer Electron Corp 情報記録再生方法
US5282186A (en) * 1988-04-25 1994-01-25 Pioneer Electronic Corporation Method and apparatus for recording and reproducing picture information and recording medium
JPH01273270A (ja) * 1988-04-25 1989-11-01 Pioneer Electron Corp 記録媒体の演奏装置における演奏方式及び情報記録再生方式
US5280572A (en) * 1988-06-24 1994-01-18 Time Warner Interactive Group Inc. Method and apparatus for storing text data in subcode packs
US5132807A (en) * 1988-07-28 1992-07-21 Canon Kabushiki Kaisha Recording apparatus for recording main information with additional information
US4992886A (en) * 1988-12-20 1991-02-12 Wnm Ventures, Inc. Method and apparatus for encoding data within the subcode channel of a compact disc or laser disc
US5218454A (en) * 1989-03-28 1993-06-08 Canon Kabushiki Kaisha Apparatus for improved recording of signals having video and audio components
US4947244A (en) * 1989-05-03 1990-08-07 On Command Video Corporation Video selection and distribution system
JP2531795B2 (ja) * 1989-06-29 1996-09-04 パイオニア株式会社 画像情報再生装置
JP2789723B2 (ja) * 1989-10-20 1998-08-20 ソニー株式会社 画像検索装置
US5233438A (en) * 1990-03-02 1993-08-03 Brother Kogyo Kabushiki Kaisha Entertainment apparatus for producing orchestral music accompaniment and a selected background video
US5274463A (en) * 1990-03-27 1993-12-28 Sony Corporation Still picture storing and sequencing apparatus
JPH03288360A (ja) * 1990-04-04 1991-12-18 Pioneer Electron Corp 複合ディスク演奏方法
JP2969782B2 (ja) * 1990-05-09 1999-11-02 ソニー株式会社 符号化データ編集方法及び符号化データ編集装置
JPH0447876A (ja) * 1990-06-15 1992-02-18 Aiwa Co Ltd ディジタル信号の記録再生方式
JP2965330B2 (ja) * 1990-07-06 1999-10-18 パイオニア株式会社 情報再生装置
JPH0467470A (ja) * 1990-07-06 1992-03-03 Pioneer Electron Corp 情報記憶装置及び情報再生装置
EP0469804B1 (de) * 1990-07-30 1997-06-04 Sony Corporation Videosignalaufzeichnungs- und/oder Wiedergabegerät
US5138440A (en) * 1990-10-29 1992-08-11 General Instrument Corporation Method and apparatus for communicating a plurality of asynchronous signals over a digital communication path
WO1992022983A2 (en) * 1991-06-11 1992-12-23 Browne H Lee Large capacity, random access, multi-source recorder player
US5715224A (en) * 1991-07-05 1998-02-03 Sony Corporation Recording medium with synthesis method default value and reproducing device
JP3158556B2 (ja) * 1991-09-27 2001-04-23 ソニー株式会社 ディスク記録装置及びディスク再生装置
JPH05250809A (ja) * 1992-03-03 1993-09-28 Pioneer Video Corp 記録媒体及びその記録情報再生システム
JPH05250813A (ja) * 1992-03-04 1993-09-28 Pioneer Video Corp 記録媒体及びその情報記録再生システム
JP2785220B2 (ja) * 1992-09-22 1998-08-13 ソニー株式会社 データ符号化装置および方法、並びにデータ復号化装置および方法
EP0615382B1 (de) * 1993-03-10 2001-01-17 Matsushita Electric Industrial Co., Ltd. Aufnahmegerät für digitale Signale
EP0618526A3 (de) * 1993-03-31 1995-09-27 Us West Advanced Tech Inc Verfahren und Vorrichtung für ein hierarchisches, ansteuerbares Videomilieu.
JP3598524B2 (ja) * 1993-08-16 2004-12-08 ソニー株式会社 画像記録装置及び方法
US5400077A (en) * 1993-10-29 1995-03-21 Time Warner Entertainment Co., L.P. System for generating multiple aspect ratio video signals from motion picture disk recorded in a single aspect ratio

Also Published As

Publication number Publication date
EP0790743B1 (de) 1998-10-28
KR0186063B1 (ko) 1999-04-15
EP0790739B1 (de) 2001-03-14
EP0790743A2 (de) 1997-08-20
DE69408237D1 (de) 1998-03-05
DE69426894D1 (de) 2001-04-19
DE69408237T2 (de) 1998-08-27
EP0790743A3 (de) 1997-11-19
EP0644692B1 (de) 1998-01-28
DE69414275T2 (de) 1999-05-06
EP0790739A3 (de) 1997-10-22
EP0644692A2 (de) 1995-03-22
EP0790739A2 (de) 1997-08-20
DE69414275D1 (de) 1998-12-03
DE69408237T3 (de) 2004-07-01
EP0644692B2 (de) 2003-10-01
EP0644692A3 (de) 1996-07-03
US5715356A (en) 1998-02-03

Similar Documents

Publication Publication Date Title
DE69426894T2 (de) Digitales Videosignal
DE69704034T2 (de) Datenaufzeichnungsmedium, Aufzeichnungsgerät und Wiedergabegerät
DE69127506T2 (de) Verfahren zum Übertragen einer Bildfolge einer "Bewegt-Bild-Video-Szene" sowie ein Medium zu dieser Übertragung
DE69701436T2 (de) Optische multimedia-scheibe, wiedergabevorrichtung und -verfahren zur überlagerung eines untergeordneten bildes auf ein hauptbild in einer ausgeglichenen weise, unabhängig von der schirmposition des hauptbildes
DE69715704T2 (de) Informationsaufzeichnungsmedium, Gerät zur Aufzeichnung auf demgleichen und Gerät zur Wiedergabe aus demgleichen
DE69620073T2 (de) Datenkodier/-dekodierverfahren und -gerät und Aufzeichnungsmedium für kodierte Daten
DE69615767T2 (de) Kodierung und Dekodierung von Daten, sowie Suchen nach Daten
DE69615111T2 (de) Gerät und Verfahren zur Kodierung von digitalen Videodaten
DE69625647T2 (de) Datenaufzeichnungsgerät und Datenwiedergabegerät
DE69924765T2 (de) Vorrichtung zur Erzeugung von Daten zur Wiederfindung von Videodaten und Vorrichtung zur Wiederfindung von Videodaten
DE19539400C2 (de) Scheibenmedium und Verfahren sowie Vorrichtung zum Aufzeichnen auf ein sowie Wiedergeben von Informationen von einem Scheibenmedium
DE69734222T2 (de) Informationsaufzeichnungsträger, Aufzeichnungsgerät und Wiedergabegerät dafür
DE69319353T3 (de) Aufzeichnungsmedium, wiedergabeverfahren und wiedergabegerät für mehrfachszenen
DE69523361T2 (de) Verfahren und Vorrichtung zur Aufnahme/Wiedergabe von Fernsehdaten in Dateneinheiten als Dateneinheit, die einer vorbestimmten Anzahl von Bilder entspricht
DE69507270T2 (de) Verfahren und Gerät zur Wiedergabe von Daten von einem Aufzeichnungsmedium grosser Kapazität
DE69722701T2 (de) Informationsaufzeichnungsmedium und Gerät zur Wiedergabe desgleichen
DE69318038T2 (de) Aufzeichnungsmedium, das verschiedene sprachen verarbeiten kann und wiedergabevorrichtung
DE60210611T2 (de) Effizientes übertragen und abspielen digitaler information
DE69833162T2 (de) Informationsspeichermedium und Wiedergabegerät dafür
DE60002732T2 (de) Digitales videoverarbeitungs- und speichersystem für video-, audio- und zusatzdaten
DE69128772T2 (de) System mit einem aufzeichnungsträger und einer wiedergabevorrichtung
DE69718538T2 (de) Informationsaufzeichnungsmedium, Gerät zur Aufzeichnung auf demgleichen und Gerät zur Wiedergabe aus demgleichen
DE69627766T2 (de) Datenaufzeichnungsverfahren, -gerät und -medien sowie Datenwiedergabeverfahren und -gerät
DE69632664T2 (de) Dekodierung von Informationsseiten, die Titelinformation und Seitendaten umfassen
DE69736846T2 (de) Informationswiedergabevorrichtung und -verfahren, Informationsaufzeichnungsvorrichtung und -verfahren, und Informationsaufzeichnungsmedium

Legal Events

Date Code Title Description
8364 No opposition during term of opposition