[go: up one dir, main page]

DE10125309C1 - Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten - Google Patents

Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten

Info

Publication number
DE10125309C1
DE10125309C1 DE2001125309 DE10125309A DE10125309C1 DE 10125309 C1 DE10125309 C1 DE 10125309C1 DE 2001125309 DE2001125309 DE 2001125309 DE 10125309 A DE10125309 A DE 10125309A DE 10125309 C1 DE10125309 C1 DE 10125309C1
Authority
DE
Germany
Prior art keywords
user
segments
behavior
information
playback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE2001125309
Other languages
English (en)
Inventor
Nils Peters
Christian Graupner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HUMATIC GmbH
Original Assignee
HUMATIC GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HUMATIC GmbH filed Critical HUMATIC GmbH
Priority to DE2001125309 priority Critical patent/DE10125309C1/de
Priority to PCT/DE2002/001776 priority patent/WO2002095995A2/de
Priority to AU2002317665A priority patent/AU2002317665A1/en
Application granted granted Critical
Publication of DE10125309C1 publication Critical patent/DE10125309C1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/27Arrangements for recording or accumulating broadcast information or broadcast-related information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/10Arrangements for replacing or switching information during the broadcast or the distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/73Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Anordnung zum Steuern der Wiedergabe von medialen Inhalten, insbesondere Video-, Ton-, Musik- und/oder Sprachsignale, in von mindestens einem Rechner mit peripheren Geräten und Anzeige-, Wiedergabe und Toneinrichtungen unterstützen Informations- oder Unterhaltungssysteme, bei dem die körperliche Gegenwart mindestens eines Benutzers durch mindestens eine interaktive Eingabe ermittelt und das kinematische Verhalten des Benutzers, insbesondere seine Verweilzeit, Geschwindigkeit und/oder Beschleunigung, festgestellt wird, wobei mit diesem Verhalten mindestens eine optische Anzeige und/oder Beschallung des Systems ausgelöst oder beendet wird. DOLLAR A Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Anordnung der eingangs genannten Art anzugeben, mit dem es gelingt, unterschiedliche Teile eines zeitlinear ablaufenden medialen Inhaltes, beispielsweise eines Tonfilmes, zeitunabhängig zu verketten und entsprechend dem Nutzerinteresse in Echtzeit wiederzugeben. DOLLAR A Gelöst wird diese Aufgabe dadurch, dass mindestens eine digitalisierbare Audio- und/oder Bildinformation als Datencontainer und in seiner Darstellung zugleich als Benutzerinterface verwendet wird, und dass die Information in virtuelle Segmente zerlegt und die Segmente in Szenen und Unterszenen gegliedert werden, und dass von mit den Segmenten verknüpften, im Hintergrund gespeicherten Metainformationen die Informationen dieser Szenen unabhängig von ihren ...

Description

Die Erfindung betrifft ein Verfahren zum Steuern von audiovisuellen Inhalten, insbesondere Video-, Ton-, Musik- und/oder Sprachsignale, in von mindestens einem Rechner mit peripheren Geräten und Anzeige-, Wiedergabe- und Toneinrichtungen unterstützen Informations- und/oder Unterhaltungssystemen, bei dem die körperliche Gegenwart mindestens eines Benutzers durch mindestens eine interaktive Eingabe ermittelt und das kinematische Verhalten des Benutzers, insbesondere seine Verweilzeit, Geschwindigkeit und/oder Beschleunigung, festgestellt wird, wobei mit diesem Verhalten mindestens eine optische Anzeige und/oder Beschallung des Systems ausgelöst, gesteuert und beendet wird.
Die Erfindung betrifft ferner eine Anordnung zum Steuern der Wiedergabe von audiovisuellen Inhalten, insbesondere Video-, Ton-, Musik- und/oder Sprachsignale, mit mindestens einem Eingabemittel zum Erfassen der Anwesenheit und Feststellen des Verhaltens mindestens eines Benutzers, einem Rechner zum Verarbeiten der detektierten Signale, und Anzeige-, Wiedergabe- und Toneinrichtungen.
Aus der DE 196 53 682 A1 bzw. DE 196 54 944 A1 ist eine Steuerung für ein System, insbesondere für einen Computer oder einen Raum mit Sensormitteln zur Erfassung einer Position mindestens eines Auslösers, insbesondere eines Cursors auf der Anzeige des Computers oder einer Person im Raum, in einem 1-, 2- oder 3-dimensionalen Bereich (Sensorbereich) des Systems bekannt. Durch den Auslöser ist mindestens eine Funktion des Systems, insbesondere eine optische Anzeige und/oder Beschallung, aktivierbar. Es sind Mittel zur Erfassung der Verweilzeit des mindestens einen Auslösers im Sensorbereich vorhanden, wobei die Verweilzeit- Information zur Beeinflussung des Systems verwendbar ist.
Des weiteren ist in der DE 195 38 436 A1 eine Vorrichtung zum Einsatz während Tanzveranstaltungen offenbart, bei welcher durch Bildauswertung die Position und/oder die Bewegung der Tanzenden bestimmt wird. Mit den ermittelten Daten werden visuelle und/oder akustische Ereignisse gesteuert.
Die US 5 012 334 A beschreibt eine Video-Bild-Bank zur Speicherung einer Vielzahl von bewegten Videobildsequenzen und zum automatischen Zugang zu einem oder mehreren der gespeicherten Bildsequenzen. Es sind Videospeichermittel, die eine Bibliothek der bewegten Videobildsequenzen enthalten, Bibliothekindexmittel, die einen Index der Videospeichermittel umfassen, Zugangsmittel zum Bibliotheksindexmittel für eine automatische Identifizierung eines Anfangsatzes der Bildsequenzen, Anzeigemittel zur Anzeige eines bewegungslosen Einzelbildes für jede bewegte Videobildsequenz des ersten Bildsatzes, Mittel zur Selektion einer der Videosequenzen aus dem ersten Bildsatz vorhanden.
In der US 5 220 648 A wird ein Hochgeschwindigkeits­ recherchesystem für ein Bilddatenspeichersystem vorgeschlagen, das im wesentlichen ein Speichermittel für die sequentielle Speicherung einer Vielzahl von Bildern, erste Steuerungsmittel, Selektionsmittel, Recherchemittel, Anzeigemittel und zweite Steuerungsmittel umfasst. Jedes der Bilder wird durch Rechercheinformationsdaten und einer Bildzahl identifiziert.
Des weiteren ist aus der US 4 538 188 A ein Verfahren und ein Gerät zum Auslesen von Segmenten aus einem Bildquellenmaterial, das auf zumindest einem Speichermedium gespeichert ist.
Alle diese bekannten Lösungen greifen auf herkömmliche gesonderte Datenbanken, in denen beispielsweise Programme zur Steuerung von Heizungen, Licht- oder Beschallungsanlagen, Spielen, Multmedia-Anwendungen oder Bild- und Recherchesystemdaten fest abgespeichert sind, zurück. Nachdem durch die Eingabe, sei es durch die direkte Befehlseingabe über eine Maus oder durch eine berührungslose Aktivität eines Nutzers, beispielsweise der Ablauf eines ausgewählten Werbefilmes gestartet wurde, kann der Benutzer die Wiedergabe innerhalb der Filmpräsentation nicht mehr beeinflussen und hat nur die Möglichkeit, die Filmwiedergabe zu stoppen, wenn diese ihn nicht mehr interessiert. Dies unterbleibt in aller Regel, weil der Betrachter den Bedienbereich wegen Desinteressiertheit längst wieder verlassen hat. Das ausgewählte Programmteil läuft weiter und stellt für den nächsten Betrachter oft eine, zumindest pchychologische, Hürde dar, weil dieser die zuvor ausgewählte Programmebene zurückfahren muss, um einen für ihn vermeintlich interessanten neuen Programmteil auswählen zu können. Die Betrachter verlieren deshalb von vornherein leicht das Interesse an der Bedienung eines derartigen Informationssystems und lassen es deshalb unbeachtet.
Aus der EP 0 871 177 A2 ist ein räumliches, nichtzeitliches und nichtlineares Multimediaverfahren bekannt, bei dem in einem Speicher abgelegte Multimediamaterialien als Objekte dargestellt, ein oder mehrere Objekt(e) aus dem Speicher zur Anzeige auf einer Konsole ausgesucht, dynamisch betrachtet wird bzw. werden und bei dem zumindest eines dieser Objekte auf der Konsole editiert wird, um ein editiertes Objekt zu erzeugen und anschließend die editierten Objekte auf einer Bearbeitungsfläche der Konsole platziert werden, um einen Handlungsablauf zu kreieren, der auf der Konsole sichtbar wird.
Des weiteren wird in der US 5 434 678 A ein Videosystem beschrieben, in welchem ein Direktzugriff auf Videotechnologien und Videoarchitekturen für die automatisierte selektive Suche von nicht-sequentiell parallel gespeicherten Übergängen und Überlappungen von Videosegmenten aus einer einfachen variablen Programmquelle integriert ist.
Die bisherigen bekannten Informations- und Unterhaltungssysteme sind daher nur bedingt für die Steuerung der Wiedergabe von audiovisuellen Inhalten wie Werbe-, Informations- und Schulungsfilme geeignet, da die Filme zeitlinear ablaufen und die zu übertragenden Datenmenge sehr groß werden, um zu den Stellen des Filmes mit interessierenden Inhalten zu gelangen. Eine Berücksichtigung der Benutzerreaktion auf den Inhalt erfolgt nicht.
Bei diesem Stand der Technik liegt der Erfindung die Aufgabe zugrunde, ein Verfahren und eine Anordnung der eingangs genannten Art anzugeben, mit dem es gelingt, unterschiedliche Teile eines zeitlinear ablaufenden medialen Inhaltes, beispielsweise eines Tonfilmes, zeitunabhängig zu verketten und entsprechend dem Nutzerinteresse in Echtzeit wiederzugeben.
Diese Aufgabe wird durch ein Verfahren der eingangs genannten Gattung mit den kennzeichnenden Merkmalen des Anspruches 1 und durch eine Anordnung mit den kennzeichnenden Merkmalen des Anspruches 19 gelöst.
Vorteilhafte Ausgestaltungen des Verfahrens sind den Unteransprüchen entnehmbar.
Das erfindungsgemäße Verfahren zeichnet sich vor allem dadurch aus, dass es möglich wird, die Wiedergabe von zeitlinear ablaufenden audiovisuellen Inhalten losgelöst von ihrer Zeitachse durch die Aktivität zumindest eines Benutzers interaktiv zu steuern. Der audiovisuelle Inhalt, beispielsweise der eines Tonfilmes, wird durch das erfindungsgemäße Verfahren so konfektioniert und vorbereitet, dass er sich gelöst von seiner Zeitachse bewegen kann. Dazu wird der digitale Tonfilm in einzelne Segmente aus mindestens einem Videoframe zerlegt, mit Metainformationen kodiert und die einzelnen Segmente so lose miteinander verkettet, dass aus der Kombination von in den Metainformationen vorgezeichneten Pfaden und empfangenen Benutzereingaben eine sinnvolle zu weiteren Eingaben stimulierende Präsentation generiert wird.
Durch die Kodierung der einzelnen Segmente ist der Benutzer nicht mehr gezwungen, einzelne unterschiedliche Bildfolgen anzuwählen, sondern das erfindungsgemäße Verfahren interpretiert das Verhalten des Nutzers und präsentiert dem einzelnen Benutzer wie auch einer Gruppe von Benutzern eine dem Verhalten adäquate Szene oder Szenenfolge.
Das erfindungsgemäße Verfahren hat den Vorteil, dass es die Präsentation einer Vielzahl von Medienformaten wie Schrift-, Bild-, Ton-, Videoformate, VR-Panoramen, Animationen und Fernsehsendungen unterstützt.
Mit der Ermittlung des statistisch oder empirisch Zuschauerverhaltens eröffnet es die Möglichkeit, TV- Sendungsformate zu erschaffen, die sich automatisch re­ editieren, d. h. eine laufende Fernsehsendung beliebiger Länge erneuert sich ständig selbst, indem bewährte Segmente bewusst plaziert und weniger beliebte durch andere ersetzt werden. Das erfindungsgemäße Verfahren hat den besonderen Vorteil, auf Zuschauergewohnheiten direkt zu reagieren und eine Sendung bzw. Wiedergabe zu qualifizieren.
Darüber hinaus ermöglicht die automatisch reeditierende Präsentation von Medieninhalten durch das erfindungsgemäße Verfahren Musiktitel mittels interaktiver Video-Clips und Bannerwerbung durch beeinflussbare Videosequenzen zu ersetzen. Die Video-Clips oder Videosequenzen müssen nicht mehr in identischer Form wiedergegeben werden, sondern können je nach der Reaktion des Nutzers entsprechend zusammengestellt werden.
Nachfolgend werden einige Anwendungsmöglichkeiten des erfindungsgemäßen Verfahrens beispielhaft genannt, deren Reihenfolge keine Rangfolge darstellt:
  • - Anwendung in einem Museum als Informationssystem für verschiedenste Wissensgebiete;
  • - Unterhaltung und Information in öffentlichen Räumen, beispielsweise Flughafenterminals, Foyers usw.;
  • - Navigationssysteme in öffentlichen Verkehrsmitteln;
  • - Verwendung als audiovisuelles Musikinstrument;
  • - Einsatz in Präsentation und Werbung, beispielsweise Schautafeln, Spots, Clips, Bannerwerbung im Internet usw., für Verkaufsräume, Messen, öffentliche Veranstaltungen;
  • - Multimedia-Applikationen, beispielsweise interaktive audiovisuelle Shows,
  • - Anwendungen für Theater- und Opernbühnen;
  • - Sicherheitssysteme.
Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung unter Bezugnahme auf die beigefügten Zeichnungen.
Die Erfindung soll nachstehend an einem Ausführungsbeispiel näher erläutert werden.
Es zeigen:
Fig. 1 ein Schema des erfindungsgemäßen Verfahrens,
Fig. 2 ein Schema der erfindungsgemäßen Anordnung mit Darstellung der Signalverarbeitung und
Fig. 3 die nach dem erfindungsgemäßen Verfahren ablaufenden Arbeitsschritte.
Die Fig. 1 und 2 verdeutlichen den Ablauf des erfindungsgemäßen Verfahrens und eine Variante einer Anordnung zur Durchführung des erfindungsgemäßen Verfahrens mit schematischer Darstellung des Signalflusses. Die Anordnung besteht im wesentlichen aus einem handelsüblichen schnellen Rechner 1 mit einem Festplattenspeicher, einem dem Rechner 1 zugeordneten optionalen Netzwerk 2, einem Audio/Video-Wiedergabeeinrichtung 7, einem Display 8 und einer Tonanlage 9. Nahe oder am Display 8 sind berührungslos arbeitende Sensoren 10 positioniert. Optional gehören zu der erfindungsgemäßen Anordnung weitere Sensoren 11, zumindest eine Kamera 12 und übliche Eingabemittel 13 wie Mouse, Touchscreen oder Tastaturen.
Das Verfahren arbeitet in diesem Beispiel mit einem digitalisierten zeitlinear ablaufenden Tonfilm, der auf dem Festplattenspeicher des Rechners 1 für einen schnellen Datenzugriff gespeichert ist. Natürlich ist es auch möglich, den digitalen Tonfilm über das externe Netzwerk 2 zuzuführen. Der digitalisierte Tonfilm enthält neben Bilddaten 4 und Tondaten 5 auch Informationen 3 zum Abspielverhalten, die für die zeitlineare Wiedergabe notwendig sind.
Um den digitalisierten Tonfilm für das erfindungsgemäße Verfahren verwenden zu können, wird der Tonfilm in virtuelle Segmente 6 zerlegt, d. h. das im herkömmlichen Sinne fertige Filmprodukt erfährt eine Reeditierung. Die Segmentierung nach dem erfindungsgemäßen Verfahren wird im folgenden anhand der Fig. 1 erklärt.
Der ursprüngliche Film liegt als digitalisierte Tonfilmdatei vor, dessen Anfangpunkt a im Zeitlauf bis zum Endpunkt g dargestellt ist.
Das virtuelle Segment 6 ist bestimmt durch eine variable Anzahl von digitalisiert vorliegenden Bild- und Tonframes des zeitlinearen Tonfilms, die über Indexinformationen als zusammengehörig markiert sind. Ein Segment umfasst wenigstens einen Videoframe und ist in seiner Länge, also der Gesamtzahl der zu einem Segment gehörenden Frames, nicht limitiert.
Definiert ist das Segment durch seinen ersten und letzen Frame. Das Segment kann speicherungsseitig Teil einer übergeordneten Datei, beispielsweise der Filmdatei, sein und muss keine eigene Datei darstellen. Mit Metainformationen 3 wird das Segment gekennzeichnet, d. h. durch individuelle, den digitalen Inhalt darstellende Bytestrukturen innerhalb des digitalen Videoframe kodiert.
Hierarchisch über den Segmenten angeordnet ist die Szene, welche eine Zusammenfassung von Segmenten darstellt. Wenigstens ein Segment wird benötigt, um eine Szene zu definieren, deren Länge, also die Anzahl der Segmente, wiederum nicht begrenzt zu sein braucht.
Die Szene definiert das initiale Abspielverhalten der Segmente und den Modus der Benutzerinteraktion. Besteht beispielsweise eine Szene aus mehr als einem Segment, so stehen die Übergänge zwischen den Segmenten als Fixpunkte zur Verfügung. Bei einer optischen Darstellung der Medieninhalte müssen diese Übergänge nicht sichtbar sein.
Die entsprechenden Metainformationen der Szene wie initiales Abspielvorgaben, Definition benutzerbeinflußbarer Parameter, Anschlussszenen, zugehörige Ton-Samples usw. sind in den Mediendaten verschlüsselt enthalten. Das erfindungsgemäße Verfahren liest diese beim Sprung in eine Szene aus und konditioniert seine Eingabe- und Abspielmodule anhand dieser Informationen neu. Ist diese Konditionierung erfolgt, so ist das erfindungsgemäße Verfahren bereit, Parameter durch Benutzereingaben in Realzeit manipulieren zu lassen. Sowohl die Art der Eingabe, beispielsweise in Form eines berührungslos arbeitenden Sensors 10 oder einer direkten Eingabe mit Hilfe einer Tastatur, als auch die manipulierbaren Parameter wie z. B. Abspielgeschwindigkeit, unmittelbare Filmposition, Spielrichtung, Lautstärke, szenenspezifische Parameter sind damit für jede Szene gesondert definierbar.
Die Segmentgrenzen dienen als mögliche Anschlusspunkte für Folgeszenen, definierbare Bereiche um die Segmentgrenzen können bestimmte Entscheidungsphasen freigeben. Die Auswahl wird szenenindividuell definitionsabhängig getroffen.
Eine Sonderform des Segments stellt der Breakpoint (s. Fig. 1) dar, der ein solches ohne medialen Inhalt definiert und abhängig von der Benutzereingabe, auf Zufallsbasis oder durch andere Faktoren wie z. B. die Tageszeit bestimmt, eine Multiplikation der Anschlussszenen ermöglicht.
Die Segmentierung erfolgt in mehreren Schritten. Zunächst wird der Film in Szenen unterteilt und diese wiederum in Unterszenen bzw. Segmente. Die so definierten Segmente werden über Indizes adressiert, so dass ihre Anfangs- und Endpunkte als Parameter zur Verfügung stehen.
Der Film ist daher entsprechend seiner kleinstmöglichen Einteilung in Segmente zerlegbar. Die einzelnen Bilder- und Tonsegmente stehen somit im Bedarfsfall durch die fortlaufende Adressierung für einen sofortigen Zugriff unabhängig von ihrer Reihenfolge zur Verfügung.
Der Film liegt nach der Segmentierung und Adressierung als nummerierte Bild/Tonsequenz wie auch als Datencontainer 21 vor, bei dem neben der Kombination von einzelnen Segmenten auch die Abspielrichtung und -geschwindigkeit frei einstellbar sind.
Zum Abspielen der Szenen oder Unterszenen (Bilder und Töne) kommt die rechnerbasierte Video/Audio-Wiedergabeeinrichtung 7 zur Anwendung, welche eine zusammenhangs-, richtungs- und geschwindigkeitsunabhängige Wiedergabe der Szenen oder Unterszenen mit einer Bildrate von bis 50 Bildern pro Sekunde erlaubt.
Zur Anzeige der Videobilder kommen herkömmliche Monitore, Displays oder Videoprojektoren 8 zum Einsatz. Die Töne werden mit der aus Audioverstärker und Lautsprecher bestehenden Tonanlage 9 für den Benutzer hörbar gemacht.
Am oder nahe vom Display 8 ist wenigstens ein Sensor 10 positioniert, der die Gegenwart zumindest eines Benutzers feststellt und dessen Aktivität im detektierten Bereich erfasst.
Je nach Sensortyp und Messverfahren beträgt die Reichweite etwa 1,5 bis 100 m bei bis zu einem Öffnungswinkel von 180°. Eingesetzt werden optische und/oder akustische Sensoren, vorzugsweise Infrarot-, Ultraschall- oder Lasersensoren, Mikrofone, Kameras, Laserscanner, Mikrowellensysteme oder Radarsysteme.
Jeder Sensor kann natürlich auch als einfacher Entfernungsmesser ausgeführt sein. Die Entfernungsmessungen werden in einem zeitlichen Abstand von 1 bis 200 Millisekunden durchgeführt. Unterschiedliche Sensorarten zu kombinieren ist ebenso möglich.
Ein Regelwerk 14 ist in Form von Codes 15 auf dem Datenspeichermedium des Rechners 1 gespeichert und führt die durch den Code 15 bestimmten Arbeitsschritte des erfindungsgemäßen Verfahrens aus. Das Regelwerk 14 bildet das Bindeglied zwischen dem vom Benutzer erzeugten Datenströmen und dem entsprechend aufbereiteten digitalen Tonfilm. Es stellt eine erweiterbare Sammlung spezifischer Videoplayback- und Nutzerdatenverarbeitungsfunktionen zur Verfügung, die sich mittels steuerbarer Größen (Variablen) zu unterschiedlichen Programmabläufen bzw. -variationen verknüpfen lassen.
Dabei bilden die in den Segmenten gespeicherten Segmentierungsdaten, Navigationspfadmarkierungen und Adressen die Rahmenparameter für das Abspielverhalten, anhand derer das Regelwerk 14 eine Konstellation ständig an den gegenwärtig Zustand anpasst und die sich daraus ergebenden Folgeschritte vorbereitet.
Im Datenspeicher des Rechners 1 sind entsprechende Verhaltensmuster von Durchschnittsnutzern abgelegt, die zur Bestimmung von Abweichungen im ermittelten Verhaltensmuster der Benutzer durch einen Abgleich zwischen dem abgespeicherten charakteristischen Referenzverhalten und dem festgestellten Verhaltensmuster dienen. Erkennt das Regelwerk 14, dass im Verhalten der Benutzer neue kennzeichnende Eigenschaften im Verhalten hinzutreten, wird das charakteristische Referenzverhalten um diese Eigenschaften erweitert und die Änderung in den Datenspeicher aufgenommen.
Das Regelwerk 14 interpretiert das festgestellte Verhaltensmuster der Benutzer durch einen Abgleich mit dem charakteristischen Referenzverhalten, sobald ein die Verhaltenseigenschaften übersteigender Schwellwert ermittelt wird.
Zum detektierbaren Verhaltensmuster gehören die Position, die Geschwindigkeit der Bewegung, die Bewegungsrichtung, die Bewegungsintensität, der Bewegungspfad, das Bewegungsmuster, die Wiederholung von Bewegungen ebenso wie die Gestik und Mimik eines Benutzers oder mehrerer Benutzer.
Die Auswahl des jeweiligen Folgeschrittes erfolgt dann durch eine Auswahl von virtuellen Segmente bzw. Szenen oder Unterszenen gemäß der zuvor beschriebenen Interpretation nach und dem jeweilig herrschenden Zustand einer laufenden Präsentation von Segmenten.
Mit der Darstellung und Wahrnehmung der Anzeige der Segmente bzw. der Ton- und Videoframes schließt sich der Regelkreis und der Benutzer wird wieder dazu veranlasst, in Aktion zu treten, um eine neue Systemreaktion zu generieren.
Das Regelwerk 14 führt - wie in Fig. 3 schematisch gezeigt - nachfolgende einzelne Arbeitsschritte aus.
Sobald die Sensoren 10 und 11 in ihrem Detektionsbereich einen Benutzer erfassen, beginnt eine berührungslos ablaufende Objekterkennung mit Abstandsmessungen und anderen das Bennutzerverhalten kennzeichnende Messungen. Rückgekoppelte Regelschleifen passen den für die Applikation relevanten Sensorbereich laufend an den Bewegungsradius des Benutzers an. Dabei wird über einen einstellbaren Zeitraum die Bewegungsauslenkung des Benutzers ermittelt. In Abhängigkeit des Ergebnisses dieser Ermittlung, passt das Regelwerk 14 die zum Auslösen bestimmter Folgeschritte notwendigen Schwellwerte dem Besucherverhalten an. Dies ermöglicht beispielsweise, dass einem ruhigem Besucher mit leichten natürlichen Kopf-, Hand- oder Körperbewegungen dasselbe mediale Ereignis angezeigt wird wie eine Gruppe sich stark bewegender Kinder.
Durch diese dynamische Anpassung der Sensorsensibilität an das Benutzerverhalten ist es ebenso möglich, Besucher aus kritischen Sensorgrenzbereichen herauszuführen, indem in Richtung des unkritischen Bereichs ein attraktiveres inhaltliches Angebot platziert wird.
Das Regelwerk 14 liest die eingabeseitig vorhandenen Sensorsignale in Abhängigkeit der verwendeten Sensoren zwischen 5 und 1000 Hz aus. Diese unterstützende Sensor- Hardware vorausgesetzt, kann die Auslesefrequenz der Sensoren hardwareseitig aber auch softwareseitig dynamisch verändert werden.
Mit einem Eingangsfilter 16 filtert das Regelwerk 14 bestimmte Signale bzw. Daten aus, die für den Ablauf des erfindungsgemäßen Verfahrens irrelevant oder störend sind. Dazu gehören technik- oder umgebungsbedingtes Rauschen, Flattern oder Zittern von Benutzerdaten, starke kurzzeitige Impulssprünge und Impulse oberhalb, unterhalb und/oder zwischen bestimmten Schwellwerten.
Durch den Vergleich von kurz nacheinander gemessener Werte werden zusätzlich zur Abstandsbestimmung Informationen zur Bewegungsrichtung, Geschwindigkeit, Beschleunigung und Verweildauer des Besuchers gewonnen.
Die Sensorauswertedaten werden über einen gewissen Zeitraum aufgezeichnet und mit bzw. nach dem Referenzverhaltensmuster untersucht. Das Erkennen eines solchen Musters, löst beispielsweise einen Bedienschritt in der Segmentdarstellung aus.
Zusätzlich werden die aufgezeichneten Sensorauswertedaten mit den Daten aus einem anderen Messzeitraum oder den gerade eintreffenden Daten verglichen. Das ermittelte Vergleichsergebnis kann, sofern es einem Referenzverhalten entspricht, wiederum einen Bedienschritt in der Segmentdarstellung auslösen.
Die erfassten Steuerdaten werden vom Regelwerk 14 anhand einstellbarer Schwellwerte als eindeutige Steuerbefehle eingeordnet und in Abhängigkeit der Anwendungsanforderungen beliebig viele Schritte wie z. B. "Stillstand-kurz", "Stillstand-mittel", "Stillstand-lang", "leichte Bewegung vorwärts", "leichte Bewegung rückwärts", "leichte Bewegung links", "leichte Bewegung rechts", "starke Bewegung vorwärts", "starke Bewegung rückwärts", "starke Bewegung links" oder "starke Bewegung rechts" eingeteilt. Natürlich ist es auch möglich, diese Schritte entsprechend zu kombinieren.
Neben der zuvor erläuterten Schrittaufteilung der Steuerdaten wird der durch die Benutzerbewegung erzeugte Datenstrom alternativ oder parallel dazu verwendet, die Tonfilmdateien bzw. Segmente direkt zu steuern. Das Regelwerk 14 glättet und modifiziert die Datenströme, um eine ruckfreie Wiedergabe der Segmente zu erreichen. Die Modifikationen können sich beispielsweise auf die Richtungsumkehrung der Daten und/oder deren Mischung mit anderen generierten Daten beziehen.
Diese anderen Daten können vorbereitete Steuersequenzen 17 oder Anreicherungsdaten 18 sein. Mit den vorbereiteten Steuersequenzen 17 ist sichergestellt, dass die Interaktion für den Benutzer abwechslungsreich, interessant und sinnvoll bleibt. So werden Wiederholungen innerhalb eines voreinstellbaren Zeitraumes ausgeschlossen oder Szenen durch Änderung der Abspielgeschwindigkeit, der Ein- und Ausstiegspunkte für die Szene, von Farbeffekten und Klängen unterschiedlich erscheinen, auch wenn dieselben Segmente zugrunde liegen.
Das Regelwerk 14 bestimmt, dass die mediale Präsentation der Segmente bzw. Szenen in Fluss bleibt und abrupte Übergänge zwischen den Segmenten unterbleiben. Dies wird dadurch erreicht, dass nur bestimmte Anschlusspunkte oder Anschlussbereiche der Segmente einen Szenenwechsel zulassen.
Wenn der Benutzer einen Wechsel anfordert und die Segmente sich in diesem Moment nicht in der Nähe eines Anschlusspunktes oder -bereiches befindet, sorgt das Regelwerk 14 dafür, dass der entsprechende Anschlusspunkt schnell aber trotzdem sanft angefahren wird, bevor zum passenden Segment umgeschaltet wird. Weiter können an den Umschaltstellen mediale Echtzeiteffekte wie Überblendungen oder vorbereitete Zwischenfilme eingeschoben werden, die einen sanften Übergang ermöglichen.
Mittels der Kamera 12 Vorort aufgenommene oder live­ eingespielte Videobilder oder Töne können durch das Regelwerk 14 in die Präsentationsabfolge der Segmente, Szenen bzw. Unterszenen integriert werden. Beispielsweise wird eine zusätzliche Steigerung des Unterhaltungseffektes erzielt, wenn das Abbild des jeweiligen Benutzers in die Präsentationsabfolge erscheint.
Zur Integration von Live-Aufnahmen werden in dem als Datencontainer beschriebenen Tonfilm bestimmte Segmente (Breakpoint) reserviert und vorab adressiert. Dies ermöglicht dem Regelwerk 14, den Echtzeitabruf und die programmgerechte Modulation der Live-Bilder und Töne in gleicher Weise wie der vorproduzierten Segmente.
Die über die Schwellwerte kategorisierten Steuerbefehle der Nutzersignale werden in einer Echtzeitmatrix 19 mit dem sich gerade abspielenden Segment gegenübergestellt. Aus dem Bezug beider Faktoren generiert sich der nächste Folgeschritt. Ein solches Vorgehen gewährleistet, dass immer die Benutzeraktivität und der jeweilige Zustand der medialen Präsentation für den jeweiligen Folgeschritt verantwortlich ist und niemals nur einer dieser beiden Faktoren alleine.
Voreingestellte Kontrollmechanismen, die wie ein Optimierungsfilter 20 wirken, optimieren die Systemleistung dadurch, dass auch bei hoher Nutzeraktivität nur der benötigte Teil der erzeugten Daten zur Steuerung genutzt wird.
Die Bildfrequenz ist auf die menschliche Wahrnehmung abgestimmt, d. h. das erfindungsgemäße Verfahren arbeitet mit einer Bildfrequenz von etwa 15 Bilder pro Sekunde, weil der Mensch eine Bildfrequenz von mehr als 15 Bilder pro Sekunde nicht mehr einzeln wahrnehmen kann. Provoziert ein Benutzer durch seine Aktivität eine hohe Abspielgeschwindigkeit, so verlangsamt das Regelwerk 14 die audiovisuelle Präsentation auf Sehgewohnheiten, die der Mensch ohne Überlastung wahrnehmen kann.
Die Umschaltung zwischen berührungsloser Sensorik und herkömmlicher Eingabewerkzeuge erfolgt aufgrund inhaltsabhängiger in den Metainformation enthaltender Informationen, dem jeweils ermittelten Benutzerverhalten sowie dem Zustand des Systems. Mit einer eingangsseitig temporären Abschaltung der Sensorik ist es ferner möglich, das System zu entlasten.
Aufstellung der verwendeten Bezugszeichen
1
Rechner
2
Optionales externes Netzwerk
3
Informationen zum Abspielverhalten, Metadaten
4
Bilddaten
5
Tondaten
6
Segmente des Tonfilmes
7
Audio/Video-Wiedergabeeinrichtung
8
Display, Monitor, Projektor
9
Tonanlage
10
Sensoren
11
Optionale zusätzliche Sensoren
12
Optionale Kamera
13
Handelsübliche Eingabemittel
14
Regelwerk
15
Code
16
Eingabefilter
17
Vorbereitete Steuersequenzen
18
Anreicherungsdaten
19
Echtzeitmatrix
20
Optimierungsfilter
21
Containerfilm

Claims (23)

1. Verfahren zum Steuern der Wiedergabe von medialen Inhalten, insbesondere Video-, Ton-, Musik- und/oder Sprachsignale, in von mindestens einem Rechner mit peripheren Geräten und Anzeige-, Wiedergabe und Toneinrichtungen unterstützen Informations-, oder Unterhaltungssystemen, bei dem die körperliche Gegenwart mindestens eines Benutzers durch mindestens eine interaktive Eingabe ermittelt und das kinematische Verhalten des Benutzers, insbesondere seine Verweilzeit, Geschwindigkeit und/oder Beschleunigung, festgestellt wird, wobei mit diesem Verhalten mindestens eine optische Anzeige und/oder Beschallung des Systems ausgelöst, gesteuert und beendet wird, dadurch gekennzeichnet, dass mindestens eine digitalisierbare Audio- und/oder Bildinformation als Datencontainer und in seiner Darstellung zugleich als Benutzerinterface verwendet wird, und dass die Information in virtuelle Segmente zerlegt und die Segmente in Szenen und Unterszenen gegliedert werden, und dass von mit den Segmenten verknüpften, im Hintergrund gespeicherten Metainformationen die Informationen dieser Szenen unabhängig von ihren ursprünglichen Zusammenhängen, Richtungen und Geschwindigkeiten als Funktion einer Änderung im ermittelten Verhalten des Benutzers reeditiert, neu verkettet und in Realzeit wiedergegeben werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das virtuelle Segment aus wenigstens einem Videoframe zusammengesetzt ist.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass Tonfilme, Videofilme, VR- Panoramen oder Fernsehsendungen als digitalisierbare Informationen eingesetzt werden.
4. Verfahren nach Anspruch 1 bis 3, gekennzeichnet durch folgende zeitlich vor der Wiedergabe ablaufende Schritte:
  • a) Erfassen der Änderung im Verhalten des mindestens einen Benutzers, vorzugsweise der Bewegungsrichtung, Bewegungsintensität, Bewegungspfad, Bewegungsmuster und Wiederholung von Bewegungen, durch die mindestens eine Eingabe mit zugeordnetem Speichermedium, in dem ein dem Verhaltensmuster eines Durchschnittsbenutzers entsprechend charakteristisches Referenzverhalten digital abgespeichert ist;
  • b) Bestimmen der Abweichungen im ermittelten Verhaltensmuster des Benutzers durch einen Abgleich zwischen dem abgespeicherten charakteristischen Referenzverhalten und dem festgestellten Verhaltensmuster;
  • c) Erweitern des charakteristischen Referenzverhaltens des Durchschnittsbenutzers um neue ermittelte Eigenschaften, sofern signifikante Abweichungen durch den Abgleich festgestellt werden;
  • d) Interpretation der ermittelten Abweichungen des Schrittes b) durch ein im Speichermedium abgelegtes Regelwerk, sobald ein die Verhaltenseigenschaften übersteigender Schwellwert ermittelt wird;
  • e) Auswahl der virtuellen Segmente bzw. Szenen oder Unterszenen gemäß Interpretation nach Schritt d)
  • f) Auslösen eines Befehls zur Wiedergabe in einer dem jeweiligen Zustand einer laufenden Präsentation und dem ermittelten Verhalten des Benutzers abwägenden Entscheidungsmatrix.
5. Verfahren nach Anspruch 1 bis 4, dadurch gekennzeichnet, dass als Metainformationen solche zum Abspielverhalten, zu Folgeschritten, Bild/Tonverknüpfungen, Medien/Benutzerverknüpfungen und zur Identifizierung verwendet werden.
6. Verfahren nach Anspruch 1 bis 5, dadurch gekennzeichnet, dass die Metainformationen innerhalb eines Videoframe abgelegt werden.
7. Verfahren nach Anspruch 1 bis 6, dadurch gekennzeichnet, dass bestimmten Segmenten Anschlusspunkte oder Anschlussbereiche für einen Szenenwechsel zugeordnet werden.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass an den Anschlusspunkten oder Anschlussbereichen zum abruptfreien Übergang von einer Szene zu einer anderen ein beschleunigtes Anfahren des Anschlusspunktes vorgenommen wird, Zwischenfilme oder mediale Echtzeiteffekte, vorzugsweise Überblendungen, eingeschoben werden.
9. Verfahren nach Anspruch 1 bis 6, dadurch gekennzeichnet, dass einzelne Segmente durch eine Vorabadressierung zur Wiedergabe von Fremdinhalten reserviert werden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass als Fremdinhalte vor Ort aufgenommene oder liveeingespielte Videobilder oder Töne eingesetzt werden.
11. Verfahren nach Anspruch 1 bis 10, dadurch gekennzeichnet, dass das Regelwerk ständig mit den angehängten Metainformationen der Segmente an das ermittelte Verhaltensmuster automatisch anpasst wird.
12. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass mit dem Regelwerk folgende nacheinander ablaufende Arbeitsschritte durchgeführt werden:
  • - Auslesen der durch die mindestens eine Eingabe erfassten Signale mit einer der Art des jeweiligen Eingabe entsprechenden anpassbaren Abtastfrequenz,
  • - Ausfiltern von störenden und/oder irrelevanten Signalen,
  • - Aufzeichnen der relevanten Signale über einen gewissen Zeitraum,
  • - Vergleichen von kurz nacheinander erfassten Signalen zum Bestimmen der Position, Bewegungsrichtung, Geschwindigkeit, Beschleunigung und Verweildauer des Benutzers im Sensorbereich,
  • - Vergleichen der aufgezeichneten Signale mit denen eines anderen Messzeitraumes oder mit dem Verhaltensmuster des Durchschnittsbenutzers zum Auslösen der Wiedergabe von Segmenten,
  • - Umwandeln der Sensorsignale in Steuerbefehle zur Qualifizierung und Kategorisierung zu Schaltbefehlen sowie zum gleichzeitigen direkten Ansteuern der Wiedergabe von Segmenten.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Abtastfrequenz dynamisch in Abhängigkeit der Eingabedaten verändert wird.
14. Verfahren nach Anspruch 1 bis 13 dadurch gekennzeichnet, dass die mindestens eine interaktive Eingabe berührungslos mittels Sensoren durchgeführt wird.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass als optische und/oder akustische Sensoren, vorzugsweise Infrarot-, Ultraschall- oder Lasersensoren, Mikrofone, Kameras, Laserscanner, Mikrowellensysteme oder Radarsysteme eingesetzt werden.
16. Verfahren nach Anspruch 1 bis 14, dadurch gekennzeichnet, dass die mindestens eine interaktive Eingabe durch Aktivieren eines Touchscreens oder einer Maus durchgeführt wird.
17. Verfahren nach Anspruch 14 bis 16, dadurch gekennzeichnet, dass die berührungslose Eingabe mit der berührenden Eingabe kombiniert durchgeführt wird.
18. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die in virtuelle Segmente zerlegte digitalisierte Information in seiner ursprünglichen Form erhalten bleibt und wiedergebbar ist.
19. Anordnung zur Durchführung des Verfahrens nach Anspruch 1 bis 18, mit mindestens einem Eingabemittel zum Erfassen der Anwesenheit und des Verhaltens mindestens eines Benutzers, einem mit dem Eingabemittel verbundenen Rechner mit peripheren Geräten zum Verarbeiten der Signale und der Ausgangssignale und Anzeige-, Wiedergabe- und Toneinrichtungen, dadurch gekennzeichnet, dass mindestens ein virtuelle Informationssegmente enthaltender Datencontainer (21) einer digitalen Audio- und/Bildinformation vorgesehen ist, der mit einer rechnerbasierten Audio/Videoeinrichtung (7) zur zusammenhangs-, richtungs- und geschwindigkeitsunabhängigen Wiedergabe der Informationssegmente über ein Regelwerk (14) zur Steuerung der Wiedergabe in Abhängigkeit des Benutzerverhaltens verbunden ist.
20. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass das Eingabemittel mindestens ein berührungslos detektierender Sensor (10) ist.
21. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass der Sensor (10) ein optischer und/oder akustischer Detektor, vorzugsweise Infrarot-, Ultraschall- oder Laserdetektor, Mikrofone, eine Kamera, ein Mikrowellensystem oder ein Radarsystem ist.
22. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass der mindestens eine Sensor (10) ein Laserscanner mit einem Öffnungswinkel von 180° und einer Reichweite von mindestens 1,0 m bis maximal 100 m ist.
23. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass der mindestens eine Sensor (13) ein Touchscreen oder eine Maus ist.
DE2001125309 2001-05-21 2001-05-21 Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten Expired - Fee Related DE10125309C1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE2001125309 DE10125309C1 (de) 2001-05-21 2001-05-21 Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten
PCT/DE2002/001776 WO2002095995A2 (de) 2001-05-21 2002-05-14 Verfahren und anordnung zum steuern von audiovisuellen medialen inhalten
AU2002317665A AU2002317665A1 (en) 2001-05-21 2002-05-14 Method and device for controlling audio-visual medial contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2001125309 DE10125309C1 (de) 2001-05-21 2001-05-21 Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten

Publications (1)

Publication Number Publication Date
DE10125309C1 true DE10125309C1 (de) 2002-12-12

Family

ID=7685982

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2001125309 Expired - Fee Related DE10125309C1 (de) 2001-05-21 2001-05-21 Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten

Country Status (3)

Country Link
AU (1) AU2002317665A1 (de)
DE (1) DE10125309C1 (de)
WO (1) WO2002095995A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020101390A1 (de) 2020-01-22 2021-07-22 Dr. Ing. H.C. F. Porsche Aktiengesellschaft System und Verfahren zur prädiktiven Verarbeitung digitaler Signale

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10992979B2 (en) 2018-12-04 2021-04-27 International Business Machines Corporation Modification of electronic messaging spaces for enhanced presentation of content in a video broadcast

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4538188A (en) * 1982-12-22 1985-08-27 Montage Computer Corporation Video composition method and apparatus
US5012334A (en) * 1990-01-29 1991-04-30 Dubner Computer Systems, Inc. Video image bank for storing and retrieving video image sequences
US5434678A (en) * 1993-01-11 1995-07-18 Abecassis; Max Seamless transmission of non-sequential video segments
DE19538436A1 (de) * 1995-10-16 1997-04-17 Jun Hartmut Neven Interaktive Steuerung von Videoinstallationen und Musikanlagen durch visuelle Analyse von Tanzbewegungen
DE19653682A1 (de) * 1996-12-13 1998-06-18 Andreas Bohn Systemsteuerung
DE19654944A1 (de) * 1996-12-13 1998-06-25 Andreas Bohn Systemsteuerung
EP0871177A2 (de) * 1997-04-08 1998-10-14 MGI Software Corp. Nichtlineares digitales Multimediakompositionsverfahren und -system ohne Timeline

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW430785B (en) * 1995-04-14 2001-04-21 Toshiba Corp Interactively broadcasting recording-media and its regeneration system
US6119154A (en) * 1995-07-14 2000-09-12 Oracle Corporation Method and apparatus for non-sequential access to an in-progress video feed
JPH09284676A (ja) * 1996-04-15 1997-10-31 Sony Corp 身体の動きに同期した映像及び音声処理方法と映像表示装置
IL125141A0 (en) * 1998-06-29 1999-01-26 Nds Ltd Advanced television system
US6502139B1 (en) * 1999-06-01 2002-12-31 Technion Research And Development Foundation Ltd. System for optimizing video on demand transmission by partitioning video program into multiple segments, decreasing transmission rate for successive segments and repeatedly, simultaneously transmission
EP1087618A3 (de) * 1999-09-27 2003-12-17 Be Here Corporation Meinungszurückkopplung beim Bildvortrag

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4538188A (en) * 1982-12-22 1985-08-27 Montage Computer Corporation Video composition method and apparatus
US5012334A (en) * 1990-01-29 1991-04-30 Dubner Computer Systems, Inc. Video image bank for storing and retrieving video image sequences
US5012334B1 (en) * 1990-01-29 1997-05-13 Grass Valley Group Video image bank for storing and retrieving video image sequences
US5434678A (en) * 1993-01-11 1995-07-18 Abecassis; Max Seamless transmission of non-sequential video segments
DE19538436A1 (de) * 1995-10-16 1997-04-17 Jun Hartmut Neven Interaktive Steuerung von Videoinstallationen und Musikanlagen durch visuelle Analyse von Tanzbewegungen
DE19653682A1 (de) * 1996-12-13 1998-06-18 Andreas Bohn Systemsteuerung
DE19654944A1 (de) * 1996-12-13 1998-06-25 Andreas Bohn Systemsteuerung
EP0871177A2 (de) * 1997-04-08 1998-10-14 MGI Software Corp. Nichtlineares digitales Multimediakompositionsverfahren und -system ohne Timeline

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020101390A1 (de) 2020-01-22 2021-07-22 Dr. Ing. H.C. F. Porsche Aktiengesellschaft System und Verfahren zur prädiktiven Verarbeitung digitaler Signale
DE102020101390B4 (de) 2020-01-22 2024-08-01 Dr. Ing. H.C. F. Porsche Aktiengesellschaft System und Verfahren zur prädiktiven Verarbeitung digitaler Signale

Also Published As

Publication number Publication date
WO2002095995A2 (de) 2002-11-28
AU2002317665A1 (en) 2002-12-03
WO2002095995A3 (de) 2003-03-13

Similar Documents

Publication Publication Date Title
DE69423714T2 (de) Verfahren und Vorrichtung zur Steuerung der Echtzeitdarstellung von Audio-/Videodaten in einem Rechner
DE69830013T2 (de) Programmerzeugung
DE69718652T2 (de) Zeitbasiertes medienverarbeitungssystem und -verfahren
Bolt Gaze-orchestrated dynamic windows
DE69617385T2 (de) Einstellung von attributen in einem interaktiven unterhaltungssystem
DE60211978T2 (de) Laufbildsystem mit bildinterpolation und variabler bildfrequenz
DE69420890T2 (de) Dynamische Steuerung einer audiovisuellen Vorstellung
DE60208567T2 (de) Automatische fotografie
DE112021006096T5 (de) Verändern der benutzeroberfläche einer anwendung während einer aufzeichnungssitzung
DE19924337A1 (de) Verfahren und Vorrichtung zur Erzeugung und Steuerung einer simulierten Musikkonzert-Erfahrung
DE4422268A1 (de) Programmsuchverfahren
DE69930267T2 (de) Identifikation von videospeichermedien
DE112019000115T5 (de) Verfahren und Vorrichtung zum Steuern eines Audiosignals zum Anwenden des Audio-Zoom-Effekts in der virtuellen Realität
DE60319710T2 (de) Verfahren und Vorrichtung zur automatischen Dissektion segmentierte Audiosignale
DE102010052527A1 (de) Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung
DE112021001984T5 (de) Auswählen einer primären text-in-sprache-quelle auf der grundlage der körperhaltung
DE112017002665T5 (de) Wiedergabevorrichtung, Wiedergabeverfahren, Informationserzeugungsvorrichtung und Informationserzeugungsverfahren
US12058410B2 (en) Information play control method and apparatus, electronic device, computer-readable storage medium and computer program product
DE10125309C1 (de) Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten
DE3223059A1 (de) System fuer die herstellung von selbstgestalteten audiokassetten, videokassetten und aehnlichen
DE102004014719A1 (de) Verfahren zur Wiedergabe- bzw. Abspielsteuerung
EP1184794B1 (de) Verfahren und Vorrichtung zur Erstellung aktivierbarer Objekte für Elemente einer Videosequenz
Saaty et al. Game audio impacts on players’ visual attention, model performance for cloud gaming
EP1189443B1 (de) Verfahren und Vorrichtung zur Steuerung von Interaktivität von Elementen einer Videosequenz
EP1015960A1 (de) Computersteuerung

Legal Events

Date Code Title Description
8100 Publication of the examined application without publication of unexamined application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8320 Willingness to grant licenses declared (paragraph 23)
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20111201