DE10125309C1 - Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten - Google Patents
Verfahren und Anordnung zum Steuern von audiovisuellen medialen InhaltenInfo
- Publication number
- DE10125309C1 DE10125309C1 DE2001125309 DE10125309A DE10125309C1 DE 10125309 C1 DE10125309 C1 DE 10125309C1 DE 2001125309 DE2001125309 DE 2001125309 DE 10125309 A DE10125309 A DE 10125309A DE 10125309 C1 DE10125309 C1 DE 10125309C1
- Authority
- DE
- Germany
- Prior art keywords
- user
- segments
- behavior
- information
- playback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000002452 interceptive effect Effects 0.000 claims abstract description 7
- 230000001133 acceleration Effects 0.000 claims abstract description 5
- 230000000007 visual effect Effects 0.000 claims abstract description 5
- 230000002093 peripheral effect Effects 0.000 claims abstract description 4
- 230000000694 effects Effects 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 9
- 230000007704 transition Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims 2
- 230000003213 activating effect Effects 0.000 claims 1
- 230000003542 behavioural effect Effects 0.000 claims 1
- 238000001914 filtration Methods 0.000 claims 1
- 238000012797 qualification Methods 0.000 claims 1
- 238000002604 ultrasonography Methods 0.000 claims 1
- 238000005303 weighing Methods 0.000 claims 1
- 230000006399 behavior Effects 0.000 description 25
- 238000011160 research Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/27—Arrangements for recording or accumulating broadcast information or broadcast-related information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/10—Arrangements for replacing or switching information during the broadcast or the distribution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/29—Arrangements for monitoring broadcast services or broadcast-related services
- H04H60/33—Arrangements for monitoring the users' behaviour or opinions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/68—Systems specially adapted for using specific information, e.g. geographical or meteorological information
- H04H60/73—Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Television Signal Processing For Recording (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
Abstract
Die Erfindung betrifft ein Verfahren und eine Anordnung zum Steuern der Wiedergabe von medialen Inhalten, insbesondere Video-, Ton-, Musik- und/oder Sprachsignale, in von mindestens einem Rechner mit peripheren Geräten und Anzeige-, Wiedergabe und Toneinrichtungen unterstützen Informations- oder Unterhaltungssysteme, bei dem die körperliche Gegenwart mindestens eines Benutzers durch mindestens eine interaktive Eingabe ermittelt und das kinematische Verhalten des Benutzers, insbesondere seine Verweilzeit, Geschwindigkeit und/oder Beschleunigung, festgestellt wird, wobei mit diesem Verhalten mindestens eine optische Anzeige und/oder Beschallung des Systems ausgelöst oder beendet wird. DOLLAR A Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Anordnung der eingangs genannten Art anzugeben, mit dem es gelingt, unterschiedliche Teile eines zeitlinear ablaufenden medialen Inhaltes, beispielsweise eines Tonfilmes, zeitunabhängig zu verketten und entsprechend dem Nutzerinteresse in Echtzeit wiederzugeben. DOLLAR A Gelöst wird diese Aufgabe dadurch, dass mindestens eine digitalisierbare Audio- und/oder Bildinformation als Datencontainer und in seiner Darstellung zugleich als Benutzerinterface verwendet wird, und dass die Information in virtuelle Segmente zerlegt und die Segmente in Szenen und Unterszenen gegliedert werden, und dass von mit den Segmenten verknüpften, im Hintergrund gespeicherten Metainformationen die Informationen dieser Szenen unabhängig von ihren ...
Description
Die Erfindung betrifft ein Verfahren zum Steuern von
audiovisuellen Inhalten, insbesondere Video-, Ton-, Musik-
und/oder Sprachsignale, in von mindestens einem Rechner mit
peripheren Geräten und Anzeige-, Wiedergabe- und
Toneinrichtungen unterstützen Informations- und/oder
Unterhaltungssystemen, bei dem die körperliche Gegenwart
mindestens eines Benutzers durch mindestens eine interaktive
Eingabe ermittelt und das kinematische Verhalten des
Benutzers, insbesondere seine Verweilzeit, Geschwindigkeit
und/oder Beschleunigung, festgestellt wird, wobei mit diesem
Verhalten mindestens eine optische Anzeige und/oder
Beschallung des Systems ausgelöst, gesteuert und beendet
wird.
Die Erfindung betrifft ferner eine Anordnung zum Steuern der
Wiedergabe von audiovisuellen Inhalten, insbesondere Video-,
Ton-, Musik- und/oder Sprachsignale, mit mindestens einem
Eingabemittel zum Erfassen der Anwesenheit und Feststellen
des Verhaltens mindestens eines Benutzers, einem Rechner zum
Verarbeiten der detektierten Signale, und Anzeige-,
Wiedergabe- und Toneinrichtungen.
Aus der DE 196 53 682 A1 bzw. DE 196 54 944 A1 ist eine
Steuerung für ein System, insbesondere für einen Computer
oder einen Raum mit Sensormitteln zur Erfassung einer
Position mindestens eines Auslösers, insbesondere eines
Cursors auf der Anzeige des Computers oder einer Person im
Raum, in einem 1-, 2- oder 3-dimensionalen Bereich
(Sensorbereich) des Systems bekannt. Durch den Auslöser ist
mindestens eine Funktion des Systems, insbesondere eine
optische Anzeige und/oder Beschallung, aktivierbar. Es sind
Mittel zur Erfassung der Verweilzeit des mindestens einen
Auslösers im Sensorbereich vorhanden, wobei die Verweilzeit-
Information zur Beeinflussung des Systems verwendbar ist.
Des weiteren ist in der DE 195 38 436 A1 eine Vorrichtung zum
Einsatz während Tanzveranstaltungen offenbart, bei welcher
durch Bildauswertung die Position und/oder die Bewegung der
Tanzenden bestimmt wird. Mit den ermittelten Daten werden
visuelle und/oder akustische Ereignisse gesteuert.
Die US 5 012 334 A beschreibt eine Video-Bild-Bank zur
Speicherung einer Vielzahl von bewegten Videobildsequenzen
und zum automatischen Zugang zu einem oder mehreren der
gespeicherten Bildsequenzen. Es sind Videospeichermittel, die
eine Bibliothek der bewegten Videobildsequenzen enthalten,
Bibliothekindexmittel, die einen Index der
Videospeichermittel umfassen, Zugangsmittel zum
Bibliotheksindexmittel für eine automatische Identifizierung
eines Anfangsatzes der Bildsequenzen, Anzeigemittel zur
Anzeige eines bewegungslosen Einzelbildes für jede bewegte
Videobildsequenz des ersten Bildsatzes, Mittel zur Selektion
einer der Videosequenzen aus dem ersten Bildsatz vorhanden.
In der US 5 220 648 A wird ein Hochgeschwindigkeits
recherchesystem für ein Bilddatenspeichersystem
vorgeschlagen, das im wesentlichen ein Speichermittel für die
sequentielle Speicherung einer Vielzahl von Bildern, erste
Steuerungsmittel, Selektionsmittel, Recherchemittel,
Anzeigemittel und zweite Steuerungsmittel umfasst. Jedes der
Bilder wird durch Rechercheinformationsdaten und einer
Bildzahl identifiziert.
Des weiteren ist aus der US 4 538 188 A ein Verfahren und ein
Gerät zum Auslesen von Segmenten aus einem
Bildquellenmaterial, das auf zumindest einem Speichermedium
gespeichert ist.
Alle diese bekannten Lösungen greifen auf herkömmliche
gesonderte Datenbanken, in denen beispielsweise Programme zur
Steuerung von Heizungen, Licht- oder Beschallungsanlagen,
Spielen, Multmedia-Anwendungen oder Bild- und
Recherchesystemdaten fest abgespeichert sind, zurück. Nachdem
durch die Eingabe, sei es durch die direkte Befehlseingabe
über eine Maus oder durch eine berührungslose Aktivität eines
Nutzers, beispielsweise der Ablauf eines ausgewählten
Werbefilmes gestartet wurde, kann der Benutzer die Wiedergabe
innerhalb der Filmpräsentation nicht mehr beeinflussen und
hat nur die Möglichkeit, die Filmwiedergabe zu stoppen, wenn
diese ihn nicht mehr interessiert. Dies unterbleibt in aller
Regel, weil der Betrachter den Bedienbereich wegen
Desinteressiertheit längst wieder verlassen hat. Das
ausgewählte Programmteil läuft weiter und stellt für den
nächsten Betrachter oft eine, zumindest pchychologische,
Hürde dar, weil dieser die zuvor ausgewählte Programmebene
zurückfahren muss, um einen für ihn vermeintlich
interessanten neuen Programmteil auswählen zu können. Die
Betrachter verlieren deshalb von vornherein leicht das
Interesse an der Bedienung eines derartigen
Informationssystems und lassen es deshalb unbeachtet.
Aus der EP 0 871 177 A2 ist ein räumliches, nichtzeitliches
und nichtlineares Multimediaverfahren bekannt, bei dem in
einem Speicher abgelegte Multimediamaterialien als Objekte
dargestellt, ein oder mehrere Objekt(e) aus dem Speicher zur
Anzeige auf einer Konsole ausgesucht, dynamisch betrachtet
wird bzw. werden und bei dem zumindest eines dieser Objekte
auf der Konsole editiert wird, um ein editiertes Objekt zu
erzeugen und anschließend die editierten Objekte auf einer
Bearbeitungsfläche der Konsole platziert werden, um einen
Handlungsablauf zu kreieren, der auf der Konsole sichtbar
wird.
Des weiteren wird in der US 5 434 678 A ein Videosystem
beschrieben, in welchem ein Direktzugriff auf
Videotechnologien und Videoarchitekturen für die
automatisierte selektive Suche von nicht-sequentiell parallel
gespeicherten Übergängen und Überlappungen von Videosegmenten
aus einer einfachen variablen Programmquelle integriert ist.
Die bisherigen bekannten Informations- und
Unterhaltungssysteme sind daher nur bedingt für die Steuerung
der Wiedergabe von audiovisuellen Inhalten wie Werbe-,
Informations- und Schulungsfilme geeignet, da die Filme
zeitlinear ablaufen und die zu übertragenden Datenmenge sehr
groß werden, um zu den Stellen des Filmes mit
interessierenden Inhalten zu gelangen. Eine Berücksichtigung
der Benutzerreaktion auf den Inhalt erfolgt nicht.
Bei diesem Stand der Technik liegt der Erfindung die Aufgabe
zugrunde, ein Verfahren und eine Anordnung der eingangs
genannten Art anzugeben, mit dem es gelingt, unterschiedliche
Teile eines zeitlinear ablaufenden medialen Inhaltes,
beispielsweise eines Tonfilmes, zeitunabhängig zu verketten
und entsprechend dem Nutzerinteresse in Echtzeit
wiederzugeben.
Diese Aufgabe wird durch ein Verfahren der eingangs genannten
Gattung mit den kennzeichnenden Merkmalen des Anspruches 1
und durch eine Anordnung mit den kennzeichnenden Merkmalen
des Anspruches 19 gelöst.
Vorteilhafte Ausgestaltungen des Verfahrens sind den
Unteransprüchen entnehmbar.
Das erfindungsgemäße Verfahren zeichnet sich vor allem
dadurch aus, dass es möglich wird, die Wiedergabe von
zeitlinear ablaufenden audiovisuellen Inhalten losgelöst von
ihrer Zeitachse durch die Aktivität zumindest eines Benutzers
interaktiv zu steuern. Der audiovisuelle Inhalt,
beispielsweise der eines Tonfilmes, wird durch das
erfindungsgemäße Verfahren so konfektioniert und vorbereitet,
dass er sich gelöst von seiner Zeitachse bewegen kann. Dazu
wird der digitale Tonfilm in einzelne Segmente aus mindestens
einem Videoframe zerlegt, mit Metainformationen kodiert und
die einzelnen Segmente so lose miteinander verkettet, dass
aus der Kombination von in den Metainformationen
vorgezeichneten Pfaden und empfangenen Benutzereingaben eine
sinnvolle zu weiteren Eingaben stimulierende Präsentation
generiert wird.
Durch die Kodierung der einzelnen Segmente ist der Benutzer
nicht mehr gezwungen, einzelne unterschiedliche Bildfolgen
anzuwählen, sondern das erfindungsgemäße Verfahren
interpretiert das Verhalten des Nutzers und präsentiert dem
einzelnen Benutzer wie auch einer Gruppe von Benutzern eine
dem Verhalten adäquate Szene oder Szenenfolge.
Das erfindungsgemäße Verfahren hat den Vorteil, dass es die
Präsentation einer Vielzahl von Medienformaten wie Schrift-,
Bild-, Ton-, Videoformate, VR-Panoramen, Animationen und
Fernsehsendungen unterstützt.
Mit der Ermittlung des statistisch oder empirisch
Zuschauerverhaltens eröffnet es die Möglichkeit, TV-
Sendungsformate zu erschaffen, die sich automatisch re
editieren, d. h. eine laufende Fernsehsendung beliebiger Länge
erneuert sich ständig selbst, indem bewährte Segmente bewusst
plaziert und weniger beliebte durch andere ersetzt werden.
Das erfindungsgemäße Verfahren hat den besonderen Vorteil,
auf Zuschauergewohnheiten direkt zu reagieren und eine
Sendung bzw. Wiedergabe zu qualifizieren.
Darüber hinaus ermöglicht die automatisch reeditierende
Präsentation von Medieninhalten durch das erfindungsgemäße
Verfahren Musiktitel mittels interaktiver Video-Clips und
Bannerwerbung durch beeinflussbare Videosequenzen zu
ersetzen. Die Video-Clips oder Videosequenzen müssen nicht
mehr in identischer Form wiedergegeben werden, sondern können
je nach der Reaktion des Nutzers entsprechend
zusammengestellt werden.
Nachfolgend werden einige Anwendungsmöglichkeiten des
erfindungsgemäßen Verfahrens beispielhaft genannt, deren
Reihenfolge keine Rangfolge darstellt:
- - Anwendung in einem Museum als Informationssystem für verschiedenste Wissensgebiete;
- - Unterhaltung und Information in öffentlichen Räumen, beispielsweise Flughafenterminals, Foyers usw.;
- - Navigationssysteme in öffentlichen Verkehrsmitteln;
- - Verwendung als audiovisuelles Musikinstrument;
- - Einsatz in Präsentation und Werbung, beispielsweise Schautafeln, Spots, Clips, Bannerwerbung im Internet usw., für Verkaufsräume, Messen, öffentliche Veranstaltungen;
- - Multimedia-Applikationen, beispielsweise interaktive audiovisuelle Shows,
- - Anwendungen für Theater- und Opernbühnen;
- - Sicherheitssysteme.
Weitere Vorteile und Einzelheiten ergeben sich aus der
nachfolgenden Beschreibung unter Bezugnahme auf die
beigefügten Zeichnungen.
Die Erfindung soll nachstehend an einem Ausführungsbeispiel
näher erläutert werden.
Es zeigen:
Fig. 1 ein Schema des erfindungsgemäßen Verfahrens,
Fig. 2 ein Schema der erfindungsgemäßen Anordnung
mit Darstellung der Signalverarbeitung und
Fig. 3 die nach dem erfindungsgemäßen Verfahren
ablaufenden Arbeitsschritte.
Die Fig. 1 und 2 verdeutlichen den Ablauf des
erfindungsgemäßen Verfahrens und eine Variante einer
Anordnung zur Durchführung des erfindungsgemäßen Verfahrens
mit schematischer Darstellung des Signalflusses. Die
Anordnung besteht im wesentlichen aus einem handelsüblichen
schnellen Rechner 1 mit einem Festplattenspeicher, einem dem
Rechner 1 zugeordneten optionalen Netzwerk 2, einem
Audio/Video-Wiedergabeeinrichtung 7, einem Display 8 und
einer Tonanlage 9. Nahe oder am Display 8 sind berührungslos
arbeitende Sensoren 10 positioniert. Optional gehören zu der
erfindungsgemäßen Anordnung weitere Sensoren 11, zumindest
eine Kamera 12 und übliche Eingabemittel 13 wie Mouse,
Touchscreen oder Tastaturen.
Das Verfahren arbeitet in diesem Beispiel mit einem
digitalisierten zeitlinear ablaufenden Tonfilm, der auf dem
Festplattenspeicher des Rechners 1 für einen schnellen
Datenzugriff gespeichert ist. Natürlich ist es auch möglich,
den digitalen Tonfilm über das externe Netzwerk 2 zuzuführen.
Der digitalisierte Tonfilm enthält neben Bilddaten 4 und
Tondaten 5 auch Informationen 3 zum Abspielverhalten, die für
die zeitlineare Wiedergabe notwendig sind.
Um den digitalisierten Tonfilm für das erfindungsgemäße
Verfahren verwenden zu können, wird der Tonfilm in virtuelle
Segmente 6 zerlegt, d. h. das im herkömmlichen Sinne fertige
Filmprodukt erfährt eine Reeditierung. Die Segmentierung
nach dem erfindungsgemäßen Verfahren wird im folgenden anhand
der Fig. 1 erklärt.
Der ursprüngliche Film liegt als digitalisierte Tonfilmdatei
vor, dessen Anfangpunkt a im Zeitlauf bis zum Endpunkt g
dargestellt ist.
Das virtuelle Segment 6 ist bestimmt durch eine variable
Anzahl von digitalisiert vorliegenden Bild- und Tonframes des
zeitlinearen Tonfilms, die über Indexinformationen als
zusammengehörig markiert sind. Ein Segment umfasst wenigstens
einen Videoframe und ist in seiner Länge, also der Gesamtzahl
der zu einem Segment gehörenden Frames, nicht limitiert.
Definiert ist das Segment durch seinen ersten und letzen
Frame. Das Segment kann speicherungsseitig Teil einer
übergeordneten Datei, beispielsweise der Filmdatei, sein und
muss keine eigene Datei darstellen. Mit Metainformationen 3
wird das Segment gekennzeichnet, d. h. durch individuelle, den
digitalen Inhalt darstellende Bytestrukturen innerhalb des
digitalen Videoframe kodiert.
Hierarchisch über den Segmenten angeordnet ist die Szene,
welche eine Zusammenfassung von Segmenten darstellt.
Wenigstens ein Segment wird benötigt, um eine Szene zu
definieren, deren Länge, also die Anzahl der Segmente,
wiederum nicht begrenzt zu sein braucht.
Die Szene definiert das initiale Abspielverhalten der
Segmente und den Modus der Benutzerinteraktion. Besteht
beispielsweise eine Szene aus mehr als einem Segment, so
stehen die Übergänge zwischen den Segmenten als Fixpunkte zur
Verfügung. Bei einer optischen Darstellung der Medieninhalte
müssen diese Übergänge nicht sichtbar sein.
Die entsprechenden Metainformationen der Szene wie initiales
Abspielvorgaben, Definition benutzerbeinflußbarer Parameter,
Anschlussszenen, zugehörige Ton-Samples usw. sind in den
Mediendaten verschlüsselt enthalten. Das erfindungsgemäße
Verfahren liest diese beim Sprung in eine Szene aus und
konditioniert seine Eingabe- und Abspielmodule anhand dieser
Informationen neu. Ist diese Konditionierung erfolgt, so ist
das erfindungsgemäße Verfahren bereit, Parameter durch
Benutzereingaben in Realzeit manipulieren zu lassen. Sowohl
die Art der Eingabe, beispielsweise in Form eines
berührungslos arbeitenden Sensors 10 oder einer direkten
Eingabe mit Hilfe einer Tastatur, als auch die
manipulierbaren Parameter wie z. B. Abspielgeschwindigkeit,
unmittelbare Filmposition, Spielrichtung, Lautstärke,
szenenspezifische Parameter sind damit für jede Szene
gesondert definierbar.
Die Segmentgrenzen dienen als mögliche Anschlusspunkte für
Folgeszenen, definierbare Bereiche um die Segmentgrenzen
können bestimmte Entscheidungsphasen freigeben. Die Auswahl
wird szenenindividuell definitionsabhängig getroffen.
Eine Sonderform des Segments stellt der Breakpoint (s. Fig.
1) dar, der ein solches ohne medialen Inhalt definiert und
abhängig von der Benutzereingabe, auf Zufallsbasis oder durch
andere Faktoren wie z. B. die Tageszeit bestimmt, eine
Multiplikation der Anschlussszenen ermöglicht.
Die Segmentierung erfolgt in mehreren Schritten. Zunächst
wird der Film in Szenen unterteilt und diese wiederum in
Unterszenen bzw. Segmente. Die so definierten Segmente werden
über Indizes adressiert, so dass ihre Anfangs- und Endpunkte
als Parameter zur Verfügung stehen.
Der Film ist daher entsprechend seiner kleinstmöglichen
Einteilung in Segmente zerlegbar. Die einzelnen Bilder- und
Tonsegmente stehen somit im Bedarfsfall durch die
fortlaufende Adressierung für einen sofortigen Zugriff
unabhängig von ihrer Reihenfolge zur Verfügung.
Der Film liegt nach der Segmentierung und Adressierung als
nummerierte Bild/Tonsequenz wie auch als Datencontainer 21
vor, bei dem neben der Kombination von einzelnen Segmenten
auch die Abspielrichtung und -geschwindigkeit frei
einstellbar sind.
Zum Abspielen der Szenen oder Unterszenen (Bilder und Töne)
kommt die rechnerbasierte Video/Audio-Wiedergabeeinrichtung 7
zur Anwendung, welche eine zusammenhangs-, richtungs- und
geschwindigkeitsunabhängige Wiedergabe der Szenen oder
Unterszenen mit einer Bildrate von bis 50 Bildern pro Sekunde
erlaubt.
Zur Anzeige der Videobilder kommen herkömmliche Monitore,
Displays oder Videoprojektoren 8 zum Einsatz. Die Töne werden
mit der aus Audioverstärker und Lautsprecher bestehenden
Tonanlage 9 für den Benutzer hörbar gemacht.
Am oder nahe vom Display 8 ist wenigstens ein Sensor 10
positioniert, der die Gegenwart zumindest eines Benutzers
feststellt und dessen Aktivität im detektierten Bereich
erfasst.
Je nach Sensortyp und Messverfahren beträgt die Reichweite
etwa 1,5 bis 100 m bei bis zu einem Öffnungswinkel von 180°.
Eingesetzt werden optische und/oder akustische Sensoren,
vorzugsweise Infrarot-, Ultraschall- oder Lasersensoren,
Mikrofone, Kameras, Laserscanner, Mikrowellensysteme oder
Radarsysteme.
Jeder Sensor kann natürlich auch als einfacher
Entfernungsmesser ausgeführt sein. Die Entfernungsmessungen
werden in einem zeitlichen Abstand von 1 bis 200
Millisekunden durchgeführt. Unterschiedliche Sensorarten zu
kombinieren ist ebenso möglich.
Ein Regelwerk 14 ist in Form von Codes 15 auf dem
Datenspeichermedium des Rechners 1 gespeichert und führt die
durch den Code 15 bestimmten Arbeitsschritte des
erfindungsgemäßen Verfahrens aus. Das Regelwerk 14 bildet das
Bindeglied zwischen dem vom Benutzer erzeugten Datenströmen
und dem entsprechend aufbereiteten digitalen Tonfilm. Es
stellt eine erweiterbare Sammlung spezifischer Videoplayback-
und Nutzerdatenverarbeitungsfunktionen zur Verfügung, die
sich mittels steuerbarer Größen (Variablen) zu
unterschiedlichen Programmabläufen bzw. -variationen
verknüpfen lassen.
Dabei bilden die in den Segmenten gespeicherten
Segmentierungsdaten, Navigationspfadmarkierungen und Adressen
die Rahmenparameter für das Abspielverhalten, anhand derer
das Regelwerk 14 eine Konstellation ständig an den
gegenwärtig Zustand anpasst und die sich daraus ergebenden
Folgeschritte vorbereitet.
Im Datenspeicher des Rechners 1 sind entsprechende
Verhaltensmuster von Durchschnittsnutzern abgelegt, die zur
Bestimmung von Abweichungen im ermittelten Verhaltensmuster
der Benutzer durch einen Abgleich zwischen dem
abgespeicherten charakteristischen Referenzverhalten und dem
festgestellten Verhaltensmuster dienen. Erkennt das
Regelwerk 14, dass im Verhalten der Benutzer neue
kennzeichnende Eigenschaften im Verhalten hinzutreten, wird
das charakteristische Referenzverhalten um diese
Eigenschaften erweitert und die Änderung in den Datenspeicher
aufgenommen.
Das Regelwerk 14 interpretiert das festgestellte
Verhaltensmuster der Benutzer durch einen Abgleich mit dem
charakteristischen Referenzverhalten, sobald ein die
Verhaltenseigenschaften übersteigender Schwellwert ermittelt
wird.
Zum detektierbaren Verhaltensmuster gehören die Position, die
Geschwindigkeit der Bewegung, die Bewegungsrichtung, die
Bewegungsintensität, der Bewegungspfad, das Bewegungsmuster,
die Wiederholung von Bewegungen ebenso wie die Gestik und
Mimik eines Benutzers oder mehrerer Benutzer.
Die Auswahl des jeweiligen Folgeschrittes erfolgt dann durch
eine Auswahl von virtuellen Segmente bzw. Szenen oder
Unterszenen gemäß der zuvor beschriebenen Interpretation nach
und dem jeweilig herrschenden Zustand einer laufenden
Präsentation von Segmenten.
Mit der Darstellung und Wahrnehmung der Anzeige der Segmente
bzw. der Ton- und Videoframes schließt sich der Regelkreis
und der Benutzer wird wieder dazu veranlasst, in Aktion zu
treten, um eine neue Systemreaktion zu generieren.
Das Regelwerk 14 führt - wie in Fig. 3 schematisch gezeigt -
nachfolgende einzelne Arbeitsschritte aus.
Sobald die Sensoren 10 und 11 in ihrem Detektionsbereich
einen Benutzer erfassen, beginnt eine berührungslos
ablaufende Objekterkennung mit Abstandsmessungen und anderen
das Bennutzerverhalten kennzeichnende Messungen.
Rückgekoppelte Regelschleifen passen den für die Applikation
relevanten Sensorbereich laufend an den Bewegungsradius des
Benutzers an. Dabei wird über einen einstellbaren Zeitraum
die Bewegungsauslenkung des Benutzers ermittelt. In
Abhängigkeit des Ergebnisses dieser Ermittlung, passt das
Regelwerk 14 die zum Auslösen bestimmter Folgeschritte
notwendigen Schwellwerte dem Besucherverhalten an. Dies
ermöglicht beispielsweise, dass einem ruhigem Besucher mit
leichten natürlichen Kopf-, Hand- oder Körperbewegungen
dasselbe mediale Ereignis angezeigt wird wie eine Gruppe
sich stark bewegender Kinder.
Durch diese dynamische Anpassung der Sensorsensibilität an
das Benutzerverhalten ist es ebenso möglich, Besucher aus
kritischen Sensorgrenzbereichen herauszuführen, indem in
Richtung des unkritischen Bereichs ein attraktiveres
inhaltliches Angebot platziert wird.
Das Regelwerk 14 liest die eingabeseitig vorhandenen
Sensorsignale in Abhängigkeit der verwendeten Sensoren
zwischen 5 und 1000 Hz aus. Diese unterstützende Sensor-
Hardware vorausgesetzt, kann die Auslesefrequenz der Sensoren
hardwareseitig aber auch softwareseitig dynamisch verändert
werden.
Mit einem Eingangsfilter 16 filtert das Regelwerk 14
bestimmte Signale bzw. Daten aus, die für den Ablauf des
erfindungsgemäßen Verfahrens irrelevant oder störend sind.
Dazu gehören technik- oder umgebungsbedingtes Rauschen,
Flattern oder Zittern von Benutzerdaten, starke kurzzeitige
Impulssprünge und Impulse oberhalb, unterhalb und/oder
zwischen bestimmten Schwellwerten.
Durch den Vergleich von kurz nacheinander gemessener Werte
werden zusätzlich zur Abstandsbestimmung Informationen zur
Bewegungsrichtung, Geschwindigkeit, Beschleunigung und
Verweildauer des Besuchers gewonnen.
Die Sensorauswertedaten werden über einen gewissen Zeitraum
aufgezeichnet und mit bzw. nach dem Referenzverhaltensmuster
untersucht. Das Erkennen eines solchen Musters, löst
beispielsweise einen Bedienschritt in der Segmentdarstellung
aus.
Zusätzlich werden die aufgezeichneten Sensorauswertedaten mit
den Daten aus einem anderen Messzeitraum oder den gerade
eintreffenden Daten verglichen. Das ermittelte
Vergleichsergebnis kann, sofern es einem Referenzverhalten
entspricht, wiederum einen Bedienschritt in der
Segmentdarstellung auslösen.
Die erfassten Steuerdaten werden vom Regelwerk 14 anhand
einstellbarer Schwellwerte als eindeutige Steuerbefehle
eingeordnet und in Abhängigkeit der Anwendungsanforderungen
beliebig viele Schritte wie z. B. "Stillstand-kurz",
"Stillstand-mittel", "Stillstand-lang", "leichte Bewegung
vorwärts", "leichte Bewegung rückwärts", "leichte Bewegung
links", "leichte Bewegung rechts", "starke Bewegung
vorwärts", "starke Bewegung rückwärts", "starke Bewegung
links" oder "starke Bewegung rechts" eingeteilt. Natürlich
ist es auch möglich, diese Schritte entsprechend zu
kombinieren.
Neben der zuvor erläuterten Schrittaufteilung der Steuerdaten
wird der durch die Benutzerbewegung erzeugte Datenstrom
alternativ oder parallel dazu verwendet, die Tonfilmdateien
bzw. Segmente direkt zu steuern. Das Regelwerk 14 glättet und
modifiziert die Datenströme, um eine ruckfreie Wiedergabe der
Segmente zu erreichen. Die Modifikationen können sich
beispielsweise auf die Richtungsumkehrung der Daten und/oder
deren Mischung mit anderen generierten Daten beziehen.
Diese anderen Daten können vorbereitete Steuersequenzen 17
oder Anreicherungsdaten 18 sein. Mit den vorbereiteten
Steuersequenzen 17 ist sichergestellt, dass die Interaktion
für den Benutzer abwechslungsreich, interessant und sinnvoll
bleibt. So werden Wiederholungen innerhalb eines
voreinstellbaren Zeitraumes ausgeschlossen oder Szenen durch
Änderung der Abspielgeschwindigkeit, der Ein- und
Ausstiegspunkte für die Szene, von Farbeffekten und Klängen
unterschiedlich erscheinen, auch wenn dieselben Segmente
zugrunde liegen.
Das Regelwerk 14 bestimmt, dass die mediale Präsentation der
Segmente bzw. Szenen in Fluss bleibt und abrupte Übergänge
zwischen den Segmenten unterbleiben. Dies wird dadurch
erreicht, dass nur bestimmte Anschlusspunkte oder
Anschlussbereiche der Segmente einen Szenenwechsel zulassen.
Wenn der Benutzer einen Wechsel anfordert und die Segmente
sich in diesem Moment nicht in der Nähe eines
Anschlusspunktes oder -bereiches befindet, sorgt das
Regelwerk 14 dafür, dass der entsprechende Anschlusspunkt
schnell aber trotzdem sanft angefahren wird, bevor zum
passenden Segment umgeschaltet wird. Weiter können an den
Umschaltstellen mediale Echtzeiteffekte wie Überblendungen
oder vorbereitete Zwischenfilme eingeschoben werden, die
einen sanften Übergang ermöglichen.
Mittels der Kamera 12 Vorort aufgenommene oder live
eingespielte Videobilder oder Töne können durch das Regelwerk
14 in die Präsentationsabfolge der Segmente, Szenen bzw.
Unterszenen integriert werden. Beispielsweise wird eine
zusätzliche Steigerung des Unterhaltungseffektes erzielt,
wenn das Abbild des jeweiligen Benutzers in die
Präsentationsabfolge erscheint.
Zur Integration von Live-Aufnahmen werden in dem als
Datencontainer beschriebenen Tonfilm bestimmte Segmente
(Breakpoint) reserviert und vorab adressiert. Dies ermöglicht
dem Regelwerk 14, den Echtzeitabruf und die programmgerechte
Modulation der Live-Bilder und Töne in gleicher Weise wie der
vorproduzierten Segmente.
Die über die Schwellwerte kategorisierten Steuerbefehle der
Nutzersignale werden in einer Echtzeitmatrix 19 mit dem sich
gerade abspielenden Segment gegenübergestellt. Aus dem Bezug
beider Faktoren generiert sich der nächste Folgeschritt. Ein
solches Vorgehen gewährleistet, dass immer die
Benutzeraktivität und der jeweilige Zustand der medialen
Präsentation für den jeweiligen Folgeschritt verantwortlich
ist und niemals nur einer dieser beiden Faktoren alleine.
Voreingestellte Kontrollmechanismen, die wie ein
Optimierungsfilter 20 wirken, optimieren die Systemleistung
dadurch, dass auch bei hoher Nutzeraktivität nur der
benötigte Teil der erzeugten Daten zur Steuerung genutzt
wird.
Die Bildfrequenz ist auf die menschliche Wahrnehmung
abgestimmt, d. h. das erfindungsgemäße Verfahren arbeitet mit
einer Bildfrequenz von etwa 15 Bilder pro Sekunde, weil der
Mensch eine Bildfrequenz von mehr als 15 Bilder pro Sekunde
nicht mehr einzeln wahrnehmen kann. Provoziert ein Benutzer
durch seine Aktivität eine hohe Abspielgeschwindigkeit, so
verlangsamt das Regelwerk 14 die audiovisuelle Präsentation
auf Sehgewohnheiten, die der Mensch ohne Überlastung
wahrnehmen kann.
Die Umschaltung zwischen berührungsloser Sensorik und
herkömmlicher Eingabewerkzeuge erfolgt aufgrund
inhaltsabhängiger in den Metainformation enthaltender
Informationen, dem jeweils ermittelten Benutzerverhalten
sowie dem Zustand des Systems. Mit einer eingangsseitig
temporären Abschaltung der Sensorik ist es ferner möglich,
das System zu entlasten.
1
Rechner
2
Optionales externes Netzwerk
3
Informationen zum Abspielverhalten,
Metadaten
4
Bilddaten
5
Tondaten
6
Segmente des Tonfilmes
7
Audio/Video-Wiedergabeeinrichtung
8
Display, Monitor, Projektor
9
Tonanlage
10
Sensoren
11
Optionale zusätzliche Sensoren
12
Optionale Kamera
13
Handelsübliche Eingabemittel
14
Regelwerk
15
Code
16
Eingabefilter
17
Vorbereitete Steuersequenzen
18
Anreicherungsdaten
19
Echtzeitmatrix
20
Optimierungsfilter
21
Containerfilm
Claims (23)
1. Verfahren zum Steuern der Wiedergabe von medialen
Inhalten, insbesondere Video-, Ton-, Musik- und/oder
Sprachsignale, in von mindestens einem Rechner mit peripheren
Geräten und Anzeige-, Wiedergabe und Toneinrichtungen
unterstützen Informations-, oder Unterhaltungssystemen, bei
dem die körperliche Gegenwart mindestens eines Benutzers
durch mindestens eine interaktive Eingabe ermittelt und das
kinematische Verhalten des Benutzers, insbesondere seine
Verweilzeit, Geschwindigkeit und/oder Beschleunigung,
festgestellt wird, wobei mit diesem Verhalten mindestens eine
optische Anzeige und/oder Beschallung des Systems ausgelöst,
gesteuert und beendet wird, dadurch
gekennzeichnet, dass mindestens eine
digitalisierbare Audio- und/oder Bildinformation als
Datencontainer und in seiner Darstellung zugleich als
Benutzerinterface verwendet wird, und dass die Information in
virtuelle Segmente zerlegt und die Segmente in Szenen und
Unterszenen gegliedert werden, und dass von mit den Segmenten
verknüpften, im Hintergrund gespeicherten Metainformationen
die Informationen dieser Szenen unabhängig von ihren
ursprünglichen Zusammenhängen, Richtungen und
Geschwindigkeiten als Funktion einer Änderung im ermittelten
Verhalten des Benutzers reeditiert, neu verkettet und in
Realzeit wiedergegeben werden.
2. Verfahren nach Anspruch 1, dadurch
gekennzeichnet, dass das virtuelle Segment aus
wenigstens einem Videoframe zusammengesetzt ist.
3. Verfahren nach Anspruch 1, dadurch
gekennzeichnet, dass Tonfilme, Videofilme, VR-
Panoramen oder Fernsehsendungen als digitalisierbare
Informationen eingesetzt werden.
4. Verfahren nach Anspruch 1 bis 3,
gekennzeichnet durch folgende zeitlich vor der
Wiedergabe ablaufende Schritte:
- a) Erfassen der Änderung im Verhalten des mindestens einen Benutzers, vorzugsweise der Bewegungsrichtung, Bewegungsintensität, Bewegungspfad, Bewegungsmuster und Wiederholung von Bewegungen, durch die mindestens eine Eingabe mit zugeordnetem Speichermedium, in dem ein dem Verhaltensmuster eines Durchschnittsbenutzers entsprechend charakteristisches Referenzverhalten digital abgespeichert ist;
- b) Bestimmen der Abweichungen im ermittelten Verhaltensmuster des Benutzers durch einen Abgleich zwischen dem abgespeicherten charakteristischen Referenzverhalten und dem festgestellten Verhaltensmuster;
- c) Erweitern des charakteristischen Referenzverhaltens des Durchschnittsbenutzers um neue ermittelte Eigenschaften, sofern signifikante Abweichungen durch den Abgleich festgestellt werden;
- d) Interpretation der ermittelten Abweichungen des Schrittes b) durch ein im Speichermedium abgelegtes Regelwerk, sobald ein die Verhaltenseigenschaften übersteigender Schwellwert ermittelt wird;
- e) Auswahl der virtuellen Segmente bzw. Szenen oder Unterszenen gemäß Interpretation nach Schritt d)
- f) Auslösen eines Befehls zur Wiedergabe in einer dem jeweiligen Zustand einer laufenden Präsentation und dem ermittelten Verhalten des Benutzers abwägenden Entscheidungsmatrix.
5. Verfahren nach Anspruch 1 bis 4, dadurch
gekennzeichnet, dass als Metainformationen
solche zum Abspielverhalten, zu Folgeschritten,
Bild/Tonverknüpfungen, Medien/Benutzerverknüpfungen und zur
Identifizierung verwendet werden.
6. Verfahren nach Anspruch 1 bis 5, dadurch
gekennzeichnet, dass die Metainformationen
innerhalb eines Videoframe abgelegt werden.
7. Verfahren nach Anspruch 1 bis 6, dadurch
gekennzeichnet, dass bestimmten Segmenten
Anschlusspunkte oder Anschlussbereiche für einen
Szenenwechsel zugeordnet werden.
8. Verfahren nach Anspruch 7, dadurch
gekennzeichnet, dass an den Anschlusspunkten
oder Anschlussbereichen zum abruptfreien Übergang von einer
Szene zu einer anderen ein beschleunigtes Anfahren des
Anschlusspunktes vorgenommen wird, Zwischenfilme oder
mediale Echtzeiteffekte, vorzugsweise Überblendungen,
eingeschoben werden.
9. Verfahren nach Anspruch 1 bis 6, dadurch
gekennzeichnet, dass einzelne Segmente durch
eine Vorabadressierung zur Wiedergabe von Fremdinhalten
reserviert werden.
10. Verfahren nach Anspruch 9, dadurch
gekennzeichnet, dass als Fremdinhalte vor Ort
aufgenommene oder liveeingespielte Videobilder oder Töne
eingesetzt werden.
11. Verfahren nach Anspruch 1 bis 10, dadurch
gekennzeichnet, dass das Regelwerk ständig mit
den angehängten Metainformationen der Segmente an das
ermittelte Verhaltensmuster automatisch anpasst wird.
12. Verfahren nach Anspruch 4, dadurch
gekennzeichnet, dass mit dem Regelwerk folgende
nacheinander ablaufende Arbeitsschritte durchgeführt werden:
- - Auslesen der durch die mindestens eine Eingabe erfassten Signale mit einer der Art des jeweiligen Eingabe entsprechenden anpassbaren Abtastfrequenz,
- - Ausfiltern von störenden und/oder irrelevanten Signalen,
- - Aufzeichnen der relevanten Signale über einen gewissen Zeitraum,
- - Vergleichen von kurz nacheinander erfassten Signalen zum Bestimmen der Position, Bewegungsrichtung, Geschwindigkeit, Beschleunigung und Verweildauer des Benutzers im Sensorbereich,
- - Vergleichen der aufgezeichneten Signale mit denen eines anderen Messzeitraumes oder mit dem Verhaltensmuster des Durchschnittsbenutzers zum Auslösen der Wiedergabe von Segmenten,
- - Umwandeln der Sensorsignale in Steuerbefehle zur Qualifizierung und Kategorisierung zu Schaltbefehlen sowie zum gleichzeitigen direkten Ansteuern der Wiedergabe von Segmenten.
13. Verfahren nach Anspruch 12, dadurch
gekennzeichnet, dass die Abtastfrequenz
dynamisch in Abhängigkeit der Eingabedaten verändert wird.
14. Verfahren nach Anspruch 1 bis 13 dadurch
gekennzeichnet, dass die mindestens eine
interaktive Eingabe berührungslos mittels Sensoren
durchgeführt wird.
15. Verfahren nach Anspruch 14, dadurch
gekennzeichnet, dass als optische und/oder
akustische Sensoren, vorzugsweise Infrarot-, Ultraschall-
oder Lasersensoren, Mikrofone, Kameras, Laserscanner,
Mikrowellensysteme oder Radarsysteme eingesetzt werden.
16. Verfahren nach Anspruch 1 bis 14, dadurch
gekennzeichnet, dass die mindestens eine
interaktive Eingabe durch Aktivieren eines Touchscreens oder
einer Maus durchgeführt wird.
17. Verfahren nach Anspruch 14 bis 16, dadurch
gekennzeichnet, dass die berührungslose Eingabe
mit der berührenden Eingabe kombiniert durchgeführt wird.
18. Verfahren nach Anspruch 1, dadurch
gekennzeichnet, dass die in virtuelle Segmente
zerlegte digitalisierte Information in seiner ursprünglichen
Form erhalten bleibt und wiedergebbar ist.
19. Anordnung zur Durchführung des Verfahrens nach
Anspruch 1 bis 18, mit mindestens einem Eingabemittel zum
Erfassen der Anwesenheit und des Verhaltens mindestens eines
Benutzers, einem mit dem Eingabemittel verbundenen Rechner
mit peripheren Geräten zum Verarbeiten der Signale und der
Ausgangssignale und Anzeige-, Wiedergabe- und
Toneinrichtungen, dadurch
gekennzeichnet, dass mindestens ein virtuelle
Informationssegmente enthaltender Datencontainer (21) einer
digitalen Audio- und/Bildinformation vorgesehen ist, der mit
einer rechnerbasierten Audio/Videoeinrichtung (7) zur
zusammenhangs-, richtungs- und geschwindigkeitsunabhängigen
Wiedergabe der Informationssegmente über ein Regelwerk (14)
zur Steuerung der Wiedergabe in Abhängigkeit des
Benutzerverhaltens verbunden ist.
20. Anordnung nach Anspruch 19, dadurch
gekennzeichnet, dass das Eingabemittel
mindestens ein berührungslos detektierender Sensor (10) ist.
21. Anordnung nach Anspruch 19, dadurch
gekennzeichnet, dass der Sensor (10) ein
optischer und/oder akustischer Detektor, vorzugsweise
Infrarot-, Ultraschall- oder Laserdetektor, Mikrofone, eine
Kamera, ein Mikrowellensystem oder ein Radarsystem ist.
22. Anordnung nach Anspruch 19, dadurch
gekennzeichnet, dass der mindestens eine Sensor
(10) ein Laserscanner mit einem Öffnungswinkel von 180° und
einer Reichweite von mindestens 1,0 m bis maximal 100 m ist.
23. Anordnung nach Anspruch 19, dadurch
gekennzeichnet, dass der mindestens eine Sensor
(13) ein Touchscreen oder eine Maus ist.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001125309 DE10125309C1 (de) | 2001-05-21 | 2001-05-21 | Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten |
PCT/DE2002/001776 WO2002095995A2 (de) | 2001-05-21 | 2002-05-14 | Verfahren und anordnung zum steuern von audiovisuellen medialen inhalten |
AU2002317665A AU2002317665A1 (en) | 2001-05-21 | 2002-05-14 | Method and device for controlling audio-visual medial contents |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001125309 DE10125309C1 (de) | 2001-05-21 | 2001-05-21 | Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10125309C1 true DE10125309C1 (de) | 2002-12-12 |
Family
ID=7685982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2001125309 Expired - Fee Related DE10125309C1 (de) | 2001-05-21 | 2001-05-21 | Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten |
Country Status (3)
Country | Link |
---|---|
AU (1) | AU2002317665A1 (de) |
DE (1) | DE10125309C1 (de) |
WO (1) | WO2002095995A2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020101390A1 (de) | 2020-01-22 | 2021-07-22 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | System und Verfahren zur prädiktiven Verarbeitung digitaler Signale |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10992979B2 (en) | 2018-12-04 | 2021-04-27 | International Business Machines Corporation | Modification of electronic messaging spaces for enhanced presentation of content in a video broadcast |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4538188A (en) * | 1982-12-22 | 1985-08-27 | Montage Computer Corporation | Video composition method and apparatus |
US5012334A (en) * | 1990-01-29 | 1991-04-30 | Dubner Computer Systems, Inc. | Video image bank for storing and retrieving video image sequences |
US5434678A (en) * | 1993-01-11 | 1995-07-18 | Abecassis; Max | Seamless transmission of non-sequential video segments |
DE19538436A1 (de) * | 1995-10-16 | 1997-04-17 | Jun Hartmut Neven | Interaktive Steuerung von Videoinstallationen und Musikanlagen durch visuelle Analyse von Tanzbewegungen |
DE19653682A1 (de) * | 1996-12-13 | 1998-06-18 | Andreas Bohn | Systemsteuerung |
DE19654944A1 (de) * | 1996-12-13 | 1998-06-25 | Andreas Bohn | Systemsteuerung |
EP0871177A2 (de) * | 1997-04-08 | 1998-10-14 | MGI Software Corp. | Nichtlineares digitales Multimediakompositionsverfahren und -system ohne Timeline |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW430785B (en) * | 1995-04-14 | 2001-04-21 | Toshiba Corp | Interactively broadcasting recording-media and its regeneration system |
US6119154A (en) * | 1995-07-14 | 2000-09-12 | Oracle Corporation | Method and apparatus for non-sequential access to an in-progress video feed |
JPH09284676A (ja) * | 1996-04-15 | 1997-10-31 | Sony Corp | 身体の動きに同期した映像及び音声処理方法と映像表示装置 |
IL125141A0 (en) * | 1998-06-29 | 1999-01-26 | Nds Ltd | Advanced television system |
US6502139B1 (en) * | 1999-06-01 | 2002-12-31 | Technion Research And Development Foundation Ltd. | System for optimizing video on demand transmission by partitioning video program into multiple segments, decreasing transmission rate for successive segments and repeatedly, simultaneously transmission |
EP1087618A3 (de) * | 1999-09-27 | 2003-12-17 | Be Here Corporation | Meinungszurückkopplung beim Bildvortrag |
-
2001
- 2001-05-21 DE DE2001125309 patent/DE10125309C1/de not_active Expired - Fee Related
-
2002
- 2002-05-14 AU AU2002317665A patent/AU2002317665A1/en not_active Abandoned
- 2002-05-14 WO PCT/DE2002/001776 patent/WO2002095995A2/de not_active Application Discontinuation
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4538188A (en) * | 1982-12-22 | 1985-08-27 | Montage Computer Corporation | Video composition method and apparatus |
US5012334A (en) * | 1990-01-29 | 1991-04-30 | Dubner Computer Systems, Inc. | Video image bank for storing and retrieving video image sequences |
US5012334B1 (en) * | 1990-01-29 | 1997-05-13 | Grass Valley Group | Video image bank for storing and retrieving video image sequences |
US5434678A (en) * | 1993-01-11 | 1995-07-18 | Abecassis; Max | Seamless transmission of non-sequential video segments |
DE19538436A1 (de) * | 1995-10-16 | 1997-04-17 | Jun Hartmut Neven | Interaktive Steuerung von Videoinstallationen und Musikanlagen durch visuelle Analyse von Tanzbewegungen |
DE19653682A1 (de) * | 1996-12-13 | 1998-06-18 | Andreas Bohn | Systemsteuerung |
DE19654944A1 (de) * | 1996-12-13 | 1998-06-25 | Andreas Bohn | Systemsteuerung |
EP0871177A2 (de) * | 1997-04-08 | 1998-10-14 | MGI Software Corp. | Nichtlineares digitales Multimediakompositionsverfahren und -system ohne Timeline |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020101390A1 (de) | 2020-01-22 | 2021-07-22 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | System und Verfahren zur prädiktiven Verarbeitung digitaler Signale |
DE102020101390B4 (de) | 2020-01-22 | 2024-08-01 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | System und Verfahren zur prädiktiven Verarbeitung digitaler Signale |
Also Published As
Publication number | Publication date |
---|---|
WO2002095995A2 (de) | 2002-11-28 |
AU2002317665A1 (en) | 2002-12-03 |
WO2002095995A3 (de) | 2003-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69423714T2 (de) | Verfahren und Vorrichtung zur Steuerung der Echtzeitdarstellung von Audio-/Videodaten in einem Rechner | |
DE69830013T2 (de) | Programmerzeugung | |
DE69718652T2 (de) | Zeitbasiertes medienverarbeitungssystem und -verfahren | |
Bolt | Gaze-orchestrated dynamic windows | |
DE69617385T2 (de) | Einstellung von attributen in einem interaktiven unterhaltungssystem | |
DE60211978T2 (de) | Laufbildsystem mit bildinterpolation und variabler bildfrequenz | |
DE69420890T2 (de) | Dynamische Steuerung einer audiovisuellen Vorstellung | |
DE60208567T2 (de) | Automatische fotografie | |
DE112021006096T5 (de) | Verändern der benutzeroberfläche einer anwendung während einer aufzeichnungssitzung | |
DE19924337A1 (de) | Verfahren und Vorrichtung zur Erzeugung und Steuerung einer simulierten Musikkonzert-Erfahrung | |
DE4422268A1 (de) | Programmsuchverfahren | |
DE69930267T2 (de) | Identifikation von videospeichermedien | |
DE112019000115T5 (de) | Verfahren und Vorrichtung zum Steuern eines Audiosignals zum Anwenden des Audio-Zoom-Effekts in der virtuellen Realität | |
DE60319710T2 (de) | Verfahren und Vorrichtung zur automatischen Dissektion segmentierte Audiosignale | |
DE102010052527A1 (de) | Verfahren und Anordnung zur verbesserten Tondarstellung von Geräuschen bei einer Videoaufzeichnung | |
DE112021001984T5 (de) | Auswählen einer primären text-in-sprache-quelle auf der grundlage der körperhaltung | |
DE112017002665T5 (de) | Wiedergabevorrichtung, Wiedergabeverfahren, Informationserzeugungsvorrichtung und Informationserzeugungsverfahren | |
US12058410B2 (en) | Information play control method and apparatus, electronic device, computer-readable storage medium and computer program product | |
DE10125309C1 (de) | Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten | |
DE3223059A1 (de) | System fuer die herstellung von selbstgestalteten audiokassetten, videokassetten und aehnlichen | |
DE102004014719A1 (de) | Verfahren zur Wiedergabe- bzw. Abspielsteuerung | |
EP1184794B1 (de) | Verfahren und Vorrichtung zur Erstellung aktivierbarer Objekte für Elemente einer Videosequenz | |
Saaty et al. | Game audio impacts on players’ visual attention, model performance for cloud gaming | |
EP1189443B1 (de) | Verfahren und Vorrichtung zur Steuerung von Interaktivität von Elementen einer Videosequenz | |
EP1015960A1 (de) | Computersteuerung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of the examined application without publication of unexamined application | ||
D1 | Grant (no unexamined application published) patent law 81 | ||
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licenses declared (paragraph 23) | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20111201 |