WO2024009288A2 - Seamless integration and processing of action object data - Google Patents
Seamless integration and processing of action object data Download PDFInfo
- Publication number
- WO2024009288A2 WO2024009288A2 PCT/IB2023/059140 IB2023059140W WO2024009288A2 WO 2024009288 A2 WO2024009288 A2 WO 2024009288A2 IB 2023059140 W IB2023059140 W IB 2023059140W WO 2024009288 A2 WO2024009288 A2 WO 2024009288A2
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- action object
- computer
- visualization
- implemented method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44222—Analytics of user selections, e.g. selection of programs or purchase activity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4532—Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/47815—Electronic shopping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
Definitions
- the present invention relates to a computer-implemented method, computer program, system and device for processing action object data in an audio and/or visual media content.
- audio and/or visual product advertising in the form of commercial breaks or pre-roll advertising for a predefined product is produced and provided separately as audio and/or visual data .
- the audio and/or visual data of the product advertising are then read out and displayed separately at a certain point in time, with the audio and/or visual data of a media content being stopped and hidden at the same time, thus stopping and hiding the media content and starting and Displaying the audio and/or visual data of the product advertising takes place. Consequently, the displayed audio and/or visual data of the product advertising for a predefined product always remains visible to the viewer, so that the viewer cannot withdraw from the product advertising offer.
- product advertising is displayed as a hyperlink to a specific predefined product within the displayed audio and/or visual data of the media content with an accompanying photo superimposed on the media content. Subsequent access to the hyperlink leads to leaving the media content and displaying additional information about the product in an additional web browser window. The viewer can then be guided to an eCommerce provider to purchase the corresponding product on the eCommerce platform. Here too, the eCommerce platform always remains visible to the user.
- a hyperlink is displayed in the image via a QR code within the media content, which the user can read with a second device.
- This process takes the user to an eCommerce provider on the second device.
- the viewer purchases the corresponding product on the eCommerce platform completely separately from the media content on a second device, whereby the display of the QR code within the media content always remains visible to the user and the connection to the media content is removed.
- the invention is based on the object of proposing an improved generation and provision of video data for product advertising.
- a computer-implemented method for processing correlated action object data from video data is proposed, wherein the correlated action object data parametrically specifies the action objects occurring in the video data.
- the computer-implemented process includes the following steps:
- the correlated action object data is specification data of action objects that are in the video data be represented visually.
- Each correlated or external action object is specified by action object data, where the action object data for a particular action object has a certain number of parameters that depend on the type and nature of the action object.
- the correlated or external object of action can be, for example, a person, an object from the household, such as a table, an armchair, a drink bottle, a hanging lamp, a book, a shelf, a cupboard, a piece of clothing or, in general, an object that is figurative can be made visible.
- the correlated action object data is data about the action objects presented in the video content.
- the parameters for the correlated or external action objects specify the action objects and can be used as parameters: designation, type, name, color, size, number, manufacturer information, material, purchase address, time information, ingredient, design name, reason for use, identification number, price, action description, location information, Specify duration of visibility, statistical information, time of appearance, time of exit, time of hiding, duration of appearance, number of appearances, size of appearance and/or user information.
- the external action object data comes from an external source and specifies further action objects, where the external action object data can replace the correlated action object data.
- the correlated action object data or the external action object data preferably consist of data about at least one action object, the data for each action object having at least one parameter.
- the at least one parameter specifies the action object and/or establishes a reference to the action object and/or at least establishes a reference between at least two action objects.
- the correlated or external action object data preferably consists of data about a plurality of action objects, each action object having a plurality of parameters for specifying the action object and/or for establishing a relationship with the action object and/or for establishing at least one relationship between at least two action objects .
- the external action object data preferably has at least one additional availability parameter, which provides information about the availability of at least one external action object.
- the action object selection is calculated according to the method from the correlated action object data and external action object data by the algorithm and compiles a new composition of action object data when updated.
- the action object selection preferably consists of data about at least one action object from the correlated action object data or the external action object data, the data for each action object having at least one parameter.
- the at least one parameter specifies the action object and/or establishes a reference to the action object and/or at least establishes a reference between at least two action objects.
- the calculation of the action object selection by the algorithm is carried out depending on a prioritization of at least one action object, of at least one parameter of at least one action object, of a similarity factor between two action objects based on the associated action object data, of the time of the update, of a statistical quantity the action objects or from a user interaction.
- the algorithm according to the invention is preferably set up in such a way that it forms at least one similarity factor depending on at least one parameter of at least two action objects and calculates a prioritized action object based on the similarity factor formed and incorporates the prioritized action object with the associated action object data in the action object selection.
- the algorithm is preferably alternatively or additionally set up in such a way that it includes the parameters of at least two action objects for calculation depending on at least one type of parameter.
- the algorithm is further preferably alternatively or additionally set up in such a way that it carries out the calculation of the similarity factor depending on a color scale, a numerical comparison, a time indication, a semantic comparison, an indication of origin and/or a parameter type value that is characteristic of the action object.
- the user interaction is a signal that is recorded after a user interaction using a user interface and is available as a machine-readable signal.
- the user interaction is in particular a click, a touch command, a signal transmitted via a remote control device or a voice and/or gesture signal.
- the algorithm according to the invention is preferably set up in such a way that it recalculates the action object selection depending on the signal that is based on the user interaction.
- the description data is data that describes or illustrates the correlated or external action objects, in particular photos or videos or clips about the action objects.
- the time information is a point in time and/or a period of time about the temporal fading in and/or fading out of a correlated action object in the video data.
- the time information is in particular a component of correlated action object data or external action object data.
- the algorithm assigns and saves a fade-in time and a fade-in period, so that the fade-in time and/or the fade-in period for an action object is adopted or recalculated in the calculated action object selection becomes.
- the update parameter determines the recalculation of the action object selection, so that depending on the size of the update parameter, the number and/or repetition rate of an update in time is defined.
- the computer-implemented method comprises the following steps
- the visualization data is set up in such a way that it can be displayed visually by a playback application.
- the visualization parameters determine the visual appearance of visualization data through the playback application.
- the visualization parameters define the layout, size, orientation, arrangement, placement, display position, and/or color composition when displaying action objects in the visualization data.
- the computer-implemented method further comprises the step of preparing the visualization data of the action object selection by means of the processing unit in such a way that the visualization data together with the video data by means of the playback application in a playback application window depending on a first user interaction with the playback application are displayed, the visualization data being prepared by the processing unit in such a way that the visualization data is displayed in a first sub-area and the video data in a second sub-area of the playback application window.
- the visualization data together with the video data are displayed in two different sub-areas within the playback application window after the first user interaction, in particular the first sub-area at least partially fades over the second sub-area.
- the playback application is preferably set up in such a way that it selects at least one action object from the action object selection depending on the current playback position of the video data, reads at least one further parameter from the action object data of the selected action object and calculates the visualization data and prepares it for display in the application window and saves.
- the playback application is further preferably set up in such a way that, depending on a probable or actual user interaction with the video data, it carries out a selection update of action objects with the associated parameters for calculating new visualization data and prepares and saves the new visualization data for display in the application window.
- the playback application is preferably set up in such a way that, depending on a prioritization value, it modifies the representation of the visualization data and/or the number of action object data to be displayed and/or the size of the action object data to be displayed in the application window and displays the action objects in the application window.
- the prioritization value is a hardware type, a screen size of the application window or an orientation information of the application window.
- the computer-implemented method comprises the following steps:
- the additive visualization data is generated and displayed depending on the second user interaction.
- the second interaction is in particular an interaction with the displayed visualization data for the action objects in the first portion of the application window.
- the representation of the first sub-area, the second sub-area and the third sub-area is at least partially superimposed.
- the computer-implemented method comprises the step of receiving video production data using a production interface and converting the video production data into correlated action object data using the processing unit.
- the video production data is read in and processed via the production interface so that the correlated action object data is created based on a predefined algorithm.
- the predefined algorithm processes the relevant data on the correlated action objects from the various production steps and places the correlated action objects in a temporal relationship to the associated video data.
- the predefined algorithm is set up in such a way that the temporal occurrence of the correlated action objects and specification parameters of the respective correlated action objects are calculated as correlated action object data.
- the computer-implemented method comprises the step of receiving a user's interaction data with the displayed visualization data using the receiving interface and storing them in the storage unit, and recalculating the visualization data and/or the action object selection depending on the received interaction data.
- the user's interaction data with the visualization data that is displayed in the application window is recorded and examined for data patterns by a subsequent mathematical analysis, in particular a statistical analysis.
- the mathematical analysis of the interaction data is preferably set up in such a way that the visualization data and/or the Recalculate action object selection.
- the computer-implemented method comprises the step of storing the user's interaction data, which relate to a selection of action objects occurring in the visualization data, in the storage unit and sending it to a merchant platform using the sending interface, and depending on data received from of the dealer platform to recalculate the action object selection and/or the visualization data using the processing unit.
- the computer-implemented method comprises the step of generating a settlement data record by means of the processing unit depending on the data received from the merchant platform and of sending the settlement data record to a processing platform by means of the sending interface and of sending data from the processing platform by means of the receiving interface receive and, depending on received data from the processing platform, recalculate the action object selection and / or the visualization data using the processing unit.
- the processing data set includes data about action objects selected by the user from the visualized action object data within the application window.
- the settlement data record is sent to the trader platform, the trader platform being set up to generate a feedback signal which is adapted thereto predefined algorithm to be processed in order to recalculate the action object selection or the visualization data depending on the feedback signal.
- the computer-implemented method comprises the step of receiving user identification data via the playback application using the receiving interface and assigning the interaction data to the user identification data.
- the playback application provides a mask for collecting user identification data.
- the recorded user identification data is at least partially anonymized and/or pseudonymized and/or encrypted and sent to the merchant platform and/or processing platform and/or to the receiving interface.
- the partially anonymized and/or pseudonymized user identification data of at least one user is assigned to the action object data of at least one action object and assignment data is created, wherein the assignment data is, in particular, set up in such a way that it can be processed by the predefined algorithm. Further preferably, the action object selection and/or the visualization data is recalculated depending on the assignment data.
- the computer-implemented method comprises the step of receiving update data from the dealer platform using the receiving interface and using this data using the processing unit to recalculate the action object selection and/or the visualization data.
- the computer-implemented method comprises the step of receiving user behavior data using the receiving interface and recalculating the action object selection and/or the visualization data depending on the user behavior data.
- the update parameter is a time duration, a user interaction, a video data type, a video navigation signal, or a merchant platform signal.
- the computer-implemented method comprises the step of providing the action object selection with a command set, the command set being set up to determine the readout time of the action object selection by the playback application.
- the command set is adapted in such a way that it can be read by the playback application and interpreted and executed as a command.
- the predefined algorithm is further preferred adapted to incorporate a command set into the action object selection, the generation of the command set by the algorithm depending on at least part of the correlated and / or external action object data.
- the playback application is adapted in such a way that it can detect, read out and execute a command set from the action object selection.
- a system which consists of a processor, a memory unit with executable instructions which, as a result of execution by means of the processing unit, causes the system to execute a computer-implemented method according to one of the preceding methods.
- a non-transitory computer-readable storage medium is provided on which executable instructions are stored which, as a result of execution by a processor of a computer system, cause the computer system to execute at least one of the computer-implemented methods listed herein.
- FIG. 1 shows a schematic representation of the processing steps according to the present invention.
- Figure 2 shows a schematic representation for creating visualization data according to the present invention.
- Figure 3 shows a schematic representation for displaying visualization data according to the present invention.
- Figure 4 shows a schematic representation for displaying additive visualization data after a further user interaction according to the present invention.
- Figure 1 shows correlated action object data 1 and external action object data 2, which are received via a reception interface and carry out the calculation of an action object selection 3 by means of a processing unit using a predefined algorithm.
- the correlated action object data 1 and the external action object data 2 are offset against each other by means of the processing unit depending on the predefined algorithm, so that the predefined algorithm is based on the specific parameters of the individual action objects that occur for each action object in the correlated action object data 1 and the external action object data 2, the action object selection 3 is calculated and put together.
- the calculated action object selection 3 is available in stored form and is prepared for reading out. Block 3 thus symbolizes the receiving interface Processing unit, the algorithm and the existence of the calculated
- Figure 2 shows a subsequent processing step for creating visualization data 4 after the steps taken according to Figure 1.
- the action object selection 3 is available in stored form.
- the action object selection 3 is converted into visualization data 4 and stored by the processing unit depending on at least one visualization parameter 5.
- the block 4 symbolizes reading and receiving the action object selection 3, a reading unit, the creation of the visualization data 4 depending on at least one visualization parameter 5 - which is symbolized by block 5 -, storing the visualization data 4 and the presence of the visualization data 4 in stored form a storage unit and prepared for reading or sending.
- Figure 3 shows a subsequent processing step for displaying visualization data 4 in an application window after the steps taken according to Figure 1 and Figure 2.
- Figure 3 shows the stations 1, 2, 3, 5 and the stored visualization data 4, which are sent and from a playback interface Playback application can be received.
- the playback application provides a playback application window 7 for a visualized representation.
- the playback application is set up to receive video data that is related to the content of the correlated action object data 1.
- the playback application processes the visualization data 4 and is prepared to simultaneously display the visualization data 4 and the video data 6 on the playback application window 7 depending on a user interaction 8, which is received and processed by the playback application in the form of a signal.
- the visualization data 4 is displayed in a first sub-area and the video data 6 in a second sub-area of the playback application window 7.
- Figure 4 represents a further step for displaying visualization data 4 after a second user interaction 10 following the first user interaction according to Figure 3.
- Figure 4 shows the creation of additive visualization data 9 after the second user interaction 10 and depending on the second user interaction 10
- the playback application is set up to display the visualization data 4 in a first sub-area, the video data 6 in a second sub-area and the additive visualization data 9 in a third sub-area of the application window 7.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Security & Cryptography (AREA)
- Digital Computer Display Output (AREA)
Abstract
Description
Titel: Nahtlose Integration und Abwicklung von Handlungsobjektdaten Title: Seamless integration and processing of action object data
Die vorliegende Erfindung betrifft ein Computerimplementiertes Verfahren, Computerprogram, System und eine Vorrichtung zur Verarbeitung von Handlungsobjektdaten in einem audio- und/oder visuellen Medieninhalt. The present invention relates to a computer-implemented method, computer program, system and device for processing action object data in an audio and/or visual media content.
Es ist bekannt, dass zusätzlich zu einem audio- und/oder visuellen Medieninhalt eine audio- und/oder visuelle Produktwerbung in Form von Werbeunterbrechungen oder Pre-Roll-Werbung für ein vordefiniertes Produkt als audio- und/oder visuelle Daten gesondert produziert und bereitgestellt werden. Die audio- und/oder visuelle Daten der Produktwerbung werden dann zu einem bestimmten Zeitpunkt separat ausgelesen und eingeblendet, wobei gleichzeitig die audio- und/oder visuellen Daten eines Medieninhalts angehalten und ausgeblendet werden, somit findet ein Stoppen und Ausblenden des Medieninhalts und ein Starten und Einblenden der audio- und/oder visuellen Daten der Produktwerbung statt. Folglich bleiben die eingeblendeten audio- und/oder visuelle Daten der Produktwerbung zu einem vordefinierten Produkt für den Zuschauer immer zwingend sichtbar, sodass sich der Zuschauer dem Produktwerbeangebot nicht entziehen kann. It is known that, in addition to audio and/or visual media content, audio and/or visual product advertising in the form of commercial breaks or pre-roll advertising for a predefined product is produced and provided separately as audio and/or visual data . The audio and/or visual data of the product advertising are then read out and displayed separately at a certain point in time, with the audio and/or visual data of a media content being stopped and hidden at the same time, thus stopping and hiding the media content and starting and Displaying the audio and/or visual data of the product advertising takes place. Consequently, the displayed audio and/or visual data of the product advertising for a predefined product always remains visible to the viewer, so that the viewer cannot withdraw from the product advertising offer.
Weiter ist bekannt, dass Produktwerbung als Hyperlink zu einem bestimmten vordefinierten Produkt innerhalb der eingeblendeten audio- und/oder visuellen Daten des Medieninhalts mit einem Begleitfoto überlagernd zu dem Medieninhalt angezeigt wird. Ein anschließendes Aufrufen des Hyperlinks führt zum Verlassen des Medieninhalts und Anzeigen von Zusatzinformationen über das Produkt in einem zusätzlichen Webbrowserfenster. Anschließend kann der Zuschauer zu einem eCommerce-Anbieter geführt werden, um das entsprechende Produkt auf der eCommerce-Plattform zu kaufen. Auch hier bleibt die eCommerce-Plattform für den Benutzer immer zwingend sichtbar. It is also known that product advertising is displayed as a hyperlink to a specific predefined product within the displayed audio and/or visual data of the media content with an accompanying photo superimposed on the media content. Subsequent access to the hyperlink leads to leaving the media content and displaying additional information about the product in an additional web browser window. The viewer can then be guided to an eCommerce provider to purchase the corresponding product on the eCommerce platform. Here too, the eCommerce platform always remains visible to the user.
Es ist auch bekannt, dass ein Hyperlink im Bild via QR-Code innerhalb des Medieninhalts ins Bild eingeblendet wird, den der Benutzer mit einem Zweitgerät auslesen kann. Dieser Vorgang führt den Benutzer auf dem Zweitgerät zu einem eCommerce-Anbieter. Der Zuschauer kauft völlig separat vom Medieninhalt auf einem Zweitgerät das entsprechende Produkt auf der eCommerce-Plattform, wobei die Einblendung des QR-Codes innerhalb des Medieninhalts für den Benutzer immer zwingend sichtbar bleibt und der Bezug zum Medieninhalt aufgehoben wird. It is also known that a hyperlink is displayed in the image via a QR code within the media content, which the user can read with a second device. This process takes the user to an eCommerce provider on the second device. The viewer purchases the corresponding product on the eCommerce platform completely separately from the media content on a second device, whereby the display of the QR code within the media content always remains visible to the user and the connection to the media content is removed.
Weiter ist bekannt, dass während eines Werbespots zu einem bestimmten vordefinierten Produkt ein Bild eingeblendet wird, dass der Benutzer anklicken kann. Der Zuschauer erhält zu dem spezifischen Produkt aus dem Werbespot weitere Informationen, kann das Werbeprodukt direkt in der Oberfläche der Streaming-Plattform kaufen und erhält das Produkt vom angeschlossenen Händler. Auch hier kann sich der Zuschauer der Einblendung nicht entziehen, weil das eingeblendete Bild für den Benutzer immer zwingend sichtbar bleibt. It is also known that during a commercial for a specific predefined product, an image is displayed that the user can click on. The viewer receives further information about the specific product from the commercial and can view the advertising product directly purchase in the interface of the streaming platform and receive the product from the connected retailer. Here, too, the viewer cannot escape the display because the displayed image always remains visible to the user.
Der Erfindung liegt die Aufgabe zugrunde eine verbesserte Generierung und Bereitstellung von Videodaten einer Produktwerbung vorzuschlagen. The invention is based on the object of proposing an improved generation and provision of video data for product advertising.
Die vorliegende Erfindung wird nachfolgend gemäß den Ansprüchen, aufgeführten Ausführungsformen und Figuren beschrieben. The present invention is described below in accordance with the claims, listed embodiments and figures.
Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein computerimplementiertes Verfahren zur Verarbeitung von korrelierten Handlungsobjektdaten von Videodaten vorgeschlagen, wobei die korrelierten Handlungsobjektdaten, die in den Videodaten vorkommenden Handlungsobjekte parametrisch spezifizieren. Das computerimplementierte Verfahren umfasst folgende Schritte: According to a first aspect of the present invention, a computer-implemented method for processing correlated action object data from video data is proposed, wherein the correlated action object data parametrically specifies the action objects occurring in the video data. The computer-implemented process includes the following steps:
- Empfangen von korrelierten Handlungsobjektdaten über zumindest ein korreliertes Handlungsobjekt mittels einer Empfangsschnittstelle, - receiving correlated action object data via at least one correlated action object using a reception interface,
- Empfangen von externen Handlungsobjektdaten über zumindest ein externes Handlungsobjekt mittels der Empfangsschnittstelle, - receiving external action object data via at least one external action object using the reception interface,
- Speichern der korrelierten Handlungsobjektdaten und der externen Handlungsobjektdaten in einer Speichereinheit, - storing the correlated action object data and the external action object data in a storage unit,
- Berechnen einer Handlungsobj ektauswahl aus den korrelierten Handlungsobj ektdaten und den externen Handlungsobjektdaten in Abhängigkeit eines vordefinierten Algorithmus mittels einer Verarbeitungseinheit, wobei der vordefinierte Algorithmus anhand der spezifischen Parameter der einzelnen Handlungsobjekte, die zu jedem Handlungsobjekt in den korrelierten Handlungsobjektdaten und den externen Handlungsobjektedaten vorkommen, die Handlungsobjektauswahl berechnet und zusammensetzt, - Calculating an action object selection from the correlated action object data and the external action object data depending on a predefined algorithm by means of a processing unit, the predefined algorithm based on the specific parameters of the individual action objects that occur for each action object in the correlated action object data and the external action object data Action object selection is calculated and put together,
Zuweisen von Beschreibungsdaten zu jedem Handlungsobjekt in derAssigning description data to each action object in the
Handlungsobj ektauswahl, action object selection,
- Auslesen und Verarbeiten von Zeitinformationen aus den korrelierten Handlungsobjektdaten,- Reading and processing time information from the correlated action object data,
- Zuweisen und Speichern eines Einblendzeitpunkts und einer Einblendzeitspanne zu jedem Handlungsobjekt in der Handlungsobjektauswahl, - Assigning and saving a fade-in time and a fade-in period to each action object in the action object selection,
- Zuweisen eines Aktualisierungsparameters und Änderung des Aktualisierungsparameters in Abhängigkeit von den externen Handlungsobjektdaten und Neuberechnung der Handlungsobjektauswahl in Abhängigkeit von dem Aktualisierungsparameter, - assigning an update parameter and changing the update parameter depending on the external action object data and recalculating the action object selection depending on the update parameter,
- Bereitstellen der Handlungsobjektauswahl zum Auslesen. Hierbei sind die korrelierten Handlungsobjektdaten Spezifizierungsdaten von Handlungsobjekten, die in den Videodaten visuell dargestellt werden. Jedes korrelierte oder externe Handlungsobjekt ist durch Handlungsobjektdaten spezifiziert, wobei die Handlungsobjektdaten zu einem bestimmten Handlungsobjekt eine bestimmte Anzahl von Parametern aufweisen, die von der Art und Beschaffenheit des Handlungsobjekts abhängen. Das korrelierte oder externe Handlungsobjekt kann beispielsweise eine Person, ein Gegenstand aus dem Haushalt sein, wie ein Tisch, ein Sessel, eine Getränkeflasche, eine Hängelampe, ein Buch, ein Regal, ein Schrank, ein Kleidungsstück oder im Allgemeinen ein Gegenstand sein, welcher bildlich sichtbar gemacht werden kann. Die korrelierte Handlungsobjektdaten sind Daten zu den Handlungsobjekten, die in dem Videoinhalt dargestellt werden. Die Parameter zu den korrelierten oder externen Handlungsobjekten spezifizieren die Handlungsobjekte und können als Parameter Bezeichnung, Art, Name, Farbe, Größe, Anzahl, Herstellerangabe, Material, Bezugsadresse, zeitliche Angabe, Inhaltsstoff, Designbezeichnung, Verwendungsanlass, Kennzeichnungsnummer, Preis, Handlungsbeschreibung, Ortsangabe, Sichtbarkeitsdauer, statistische Angabe, Auftrittszeitpunkt, Austrittzeitpunkt, Ausblendzeitpunkt, Auftrittsdauer, Auftrittsanzahl, Auftrittsgröße und/oder Benutzerinformation spezifizieren. Die externen Handlungsobjektdaten stammen aus einer externen Quelle und spezifizieren weitere Handlungsobjekte, wobei die externen Handlungsobjektdaten die korrelierten Handlungsobjektdaten ersetzen können. Die korrelierten Handlungsobjektdaten oder die externen Handlungsobjektdaten bestehen vorzugsweise aus Daten über zumindest ein Handlungsobjekt, wobei die Daten zu jedem Handlungsobjekt zumindest ein Parameter aufweisen. Der zumindest ein Parameter spezifiziert das Handlungsobjekt und/oder stellt einen Bezug zu dem Handlungsobjekt und/oder stellt zumindest einen Bezug zwischen zumindest zwei Handlungsobjekten her. Die korrelierten oder externen Handlungsobjektdaten bestehen vorzugsweise aus Daten über eine Mehrzahl von Handlungsobjekten, wobei jedes Handlungsobjekt eine Mehrzahl von Parametern zur Spezifikation des Handlungsobjekts und/oder zur Herstellung eines Bezugs mit dem Handlungsobjekt und/oder zur Herstellung von zumindest einem Bezug zwischen zumindest zwei Handlungsobjekten aufweist. Die externen Handlungsobjektdaten weisen vorzugsweise zumindest einen zusätzlichen Verfügbarkeitsparameter auf, die eine Information über die Verfügbarkeit von zumindest einem externen Handlungsobjekts geben. Die Handlungsobjektauswahl wird gemäß dem Verfahren aus den korrelierten Handlungsobjektdaten und externen Handlungsobjektdaten durch den Algorithmus berechnet und stellt bei einer Aktualisierung eine neue Komposition von Handlungsobjektdaten zusammen. Die Handlungsobjektauswahl besteht vorzugsweise aus Daten über zumindest ein Handlungsobjekt aus den korrelierten Handlungsobjektdaten oder den externen Handlungsobjektdaten, wobei die Daten zu jedem Handlungsobjekt zumindest ein Parameter aufweisen. Der zumindest ein Parameter spezifiziert das Handlungsobjekt und/oder stellt einen Bezug zu dem Handlungsobjekt und/oder stellt zumindest einen Bezug zwischen zumindest zwei Handlungsobjekten her. Die Berechnung der Handlungsobjektauswahl durch den Algorithmus erfolgt in Abhängigkeit von einer Priorisierung von zumindest einem Handlungsobjekt, von zumindest einem Parameter von zumindest einem Handlungsobjekt, von einem Ähnlichkeitsfaktor zwischen zwei Handlungsobjekten basierend auf den zugehörigen Handlungsobjektdaten, von dem Zeitpunkt der Aktualisierung, von einer statistischen Größe bezüglich der Handlungsobjekte oder von einer Benutzerinteraktion. Der erfindungsgemäße Algorithmus ist vorzugsweise derart eingerichtet, dass er in Abhängigkeit von zumindest einem Parameter von zumindest zwei Handlungsobjekten zumindest einen Ähnlichkeitsfaktor bildet und basierend auf dem gebildeten Ähnlichkeitsfaktor ein priorisiertes Handlungsobjekt berechnet und das priorisierte Handlungsobjekt mit den dazugehörigen Handlungsobjektdaten in der Handlungsobjektauswahl einbaut. Der Algorithmus ist vorzugsweise alternativ oder zusätzlich derart eingerichtet, dass er die Parameter von zumindest zwei Handlungsobjekten in Abhängigkeit von zumindest einer Parameterart zum Berechnen einbezieht. Der Algorithmus ist weiter vorzugsweise alternativ oder zusätzlich derart eingerichtet, dass er die Berechnung des Ähnlichkeitsfaktors in Abhängigkeit von einer Farbskala, einem Zahlenvergleich, einer Zeitangabe, einem semantischen Vergleich, einer Herkunftsangabe und/oder einem für das Handlungsobjekt charakteristischen Parameterartwert durchführt. Die Benutzerinteraktion ist ein Signal, welches nach einer Benutzerinteraktion mittels einer Benutzerschnittstelle erfasst wird und als maschinenlesbares Signal vorliegt. Die Benutzerinteraktion ist insbesondere, ein Klicken, ein Touch-Befehl, ein über ein Fernsteuergerät übermitteltes Signal oder ein Voice- und/oder Gestensignal. Der erfindungsgemäße Algorithmus ist vorzugsweise derart eingerichtet, dass er in Abhängigkeit des Signals, welches auf die Benutzerinteraktion zurückgeht, die Handlungsobjektauswahl neu berechnet. Die Beschreibungsdaten sind Daten, die die korrelierten oder externen Handlungsobjekte beschreiben oder illustrieren, insbesondere Fotos oder Videos bzw. Clips zu den Handlungsobjekten. Die Zeitinformation ist ein Zeitpunkt und/oder eine Zeitspanne über das zeitliche Einblenden und/oder Ausblenden eines korrelierten Handlungsobjekts in den Videodaten. Die Zeitinformation ist insbesondere ein Bestandteil von korrelierten Handlungsobjektdaten oder externen Handlungsobjektedaten. Das Zuweisen und Speichern eines Einblendzeitpunkts und einer Einblendzeitspanne erfolgt durch den Algorithmus, sodass in der berechneten Handlungsobjektauswahl die Einblendzeitpunkt und/oder die Einblendzeitspanne für ein Handlungsobjekt übernommen oder neu berechnet wird. Der Aktualisierungsparameter bestimmt die Neuberechnung der Handlungsobjektauswahl, sodass je nach Größe des Aktualisierungsparameters die Anzahl und/oder Wiederholungsrate einer Aktualisierung in der Zeit definiert wird. - Providing the action object selection for reading. Here, the correlated action object data is specification data of action objects that are in the video data be represented visually. Each correlated or external action object is specified by action object data, where the action object data for a particular action object has a certain number of parameters that depend on the type and nature of the action object. The correlated or external object of action can be, for example, a person, an object from the household, such as a table, an armchair, a drink bottle, a hanging lamp, a book, a shelf, a cupboard, a piece of clothing or, in general, an object that is figurative can be made visible. The correlated action object data is data about the action objects presented in the video content. The parameters for the correlated or external action objects specify the action objects and can be used as parameters: designation, type, name, color, size, number, manufacturer information, material, purchase address, time information, ingredient, design name, reason for use, identification number, price, action description, location information, Specify duration of visibility, statistical information, time of appearance, time of exit, time of hiding, duration of appearance, number of appearances, size of appearance and/or user information. The external action object data comes from an external source and specifies further action objects, where the external action object data can replace the correlated action object data. The correlated action object data or the external action object data preferably consist of data about at least one action object, the data for each action object having at least one parameter. The at least one parameter specifies the action object and/or establishes a reference to the action object and/or at least establishes a reference between at least two action objects. The correlated or external action object data preferably consists of data about a plurality of action objects, each action object having a plurality of parameters for specifying the action object and/or for establishing a relationship with the action object and/or for establishing at least one relationship between at least two action objects . The external action object data preferably has at least one additional availability parameter, which provides information about the availability of at least one external action object. The action object selection is calculated according to the method from the correlated action object data and external action object data by the algorithm and compiles a new composition of action object data when updated. The action object selection preferably consists of data about at least one action object from the correlated action object data or the external action object data, the data for each action object having at least one parameter. The at least one parameter specifies the action object and/or establishes a reference to the action object and/or at least establishes a reference between at least two action objects. The calculation of the action object selection by the algorithm is carried out depending on a prioritization of at least one action object, of at least one parameter of at least one action object, of a similarity factor between two action objects based on the associated action object data, of the time of the update, of a statistical quantity the action objects or from a user interaction. The algorithm according to the invention is preferably set up in such a way that it forms at least one similarity factor depending on at least one parameter of at least two action objects and calculates a prioritized action object based on the similarity factor formed and incorporates the prioritized action object with the associated action object data in the action object selection. The algorithm is preferably alternatively or additionally set up in such a way that it includes the parameters of at least two action objects for calculation depending on at least one type of parameter. The algorithm is further preferably alternatively or additionally set up in such a way that it carries out the calculation of the similarity factor depending on a color scale, a numerical comparison, a time indication, a semantic comparison, an indication of origin and/or a parameter type value that is characteristic of the action object. The user interaction is a signal that is recorded after a user interaction using a user interface and is available as a machine-readable signal. The user interaction is in particular a click, a touch command, a signal transmitted via a remote control device or a voice and/or gesture signal. The algorithm according to the invention is preferably set up in such a way that it recalculates the action object selection depending on the signal that is based on the user interaction. The description data is data that describes or illustrates the correlated or external action objects, in particular photos or videos or clips about the action objects. The time information is a point in time and/or a period of time about the temporal fading in and/or fading out of a correlated action object in the video data. The time information is in particular a component of correlated action object data or external action object data. The algorithm assigns and saves a fade-in time and a fade-in period, so that the fade-in time and/or the fade-in period for an action object is adopted or recalculated in the calculated action object selection becomes. The update parameter determines the recalculation of the action object selection, so that depending on the size of the update parameter, the number and/or repetition rate of an update in time is defined.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung weist das computerimplementierte Verfahren die folgenden Schritte auf According to a further aspect of the present invention, the computer-implemented method comprises the following steps
- Auslesen der Handlungsobjektauswahl mittels einer Ausleseeinheit, - reading out the action object selection using a reading unit,
- Erstellen von Visualisierungsdaten basierend auf der Handlungsobjektauswahl und in Abhängigkeit von definierten Visualisierungsparametern mittels der Verarbeitungseinheit und Speichern der Visualisierungsdaten in der Speichereinheit, - Creating visualization data based on the action object selection and depending on defined visualization parameters using the processing unit and storing the visualization data in the storage unit,
- Senden der Visualisierungsdaten an eine Wiedergabeschnittstelle einer Abspielapplikation mittels einer Sendeschnittstelle. Hierbei erfolgt das Auslesen der bereitgestellten Handlungsobjektauswahl und die Erstellung von Visualisierungsdaten in Abhängigkeit von den Visualisierungsparametem. Die Visualisierungsdaten sind derart eingerichtet, dass sie von einer Abspielapplikation visuell dargestellt werden können. Die Visualisierungsparameter bestimmen die optische Erscheinungsform von Visualisierungsdaten durch die Abspielapplikation. Die Visualisierungsparameter definieren das Layout, die Größe, die Orientierung, die Anordnung, die Platzierung, die Einblendposition, und/oder die Farbkomposition bei der Darstellung von Handlungsobjekten in den Visualisierungsdaten.- Sending the visualization data to a playback interface of a playback application using a send interface. This involves reading out the provided action object selection and creating visualization data depending on the visualization parameters. The visualization data is set up in such a way that it can be displayed visually by a playback application. The visualization parameters determine the visual appearance of visualization data through the playback application. The visualization parameters define the layout, size, orientation, arrangement, placement, display position, and/or color composition when displaying action objects in the visualization data.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung weist das computerimplementierte Verfahren weiter den Schritt auf, dass die Visualisierungsdaten der Handlungsobjektauswahl mittels der Verarbeitungseinheit derart aufzubereiten, dass die Visualisierungsdaten zusammen mit den Videodaten mittels der Abspielapplikation in einem Abspielapplikationsfenster in Abhängigkeit von einer ersten Benutzerinteraktion mit der Ab Spielapplikation dargestellt werden, wobei die Visualisierungsdaten derart von der Verarbeitungseinheit vorbereitet sind, dass die Visualisierungsdaten in einem ersten Teilbereich und die Videodaten in einem zweiten Teilbereich des Abspielapplikationsfensters eingeblendet werden. Hierbei werden die Visualisierungsdaten zusammen mit den Videodaten nach der ersten Benutzerinteraktion in zwei verschiedenen Teilbereichen innerhalb des Abspielapplikationsfensters dargestellt, insbesondere überblendet der erste Teilbereich den zweiten Teilbereich zumindest teilweise. Die Abspielapplikation ist vorzugsweise derart eingerichtet, dass sie aus der Handlungsobjektauswahl zumindest ein Handlungsobjekt in Abhängigkeit von der aktuellen Abspielposition der Videodaten auswählt, zumindest einen weiteren Parameter aus den Handlungsobjektdaten des ausgewählten Handlungsobjekts ausliest und die Visualisierungsdaten errechnet und für eine Darstellung in dem Applikationsfenster vorbereitet und speichert. Die Abspielapplikation ist weiter vorzugsweise derart eingerichtet, dass sie in Abhängigkeit einer wahrscheinlichen oder tatsächlichen Benutzerinteraktion mit den Videodaten eine Auswahlaktualisierung von Handlungsobjekten mit den dazugehörigen Parametern zur Berechnung von neuen Visualisierungsdaten durchführt und die neuen Visualisierungsdaten für eine Darstellung in dem Applikationsfenster vorbereitet und speichert. Weiter ist die Abspielapplikation vorzugsweise derart eingerichtet, dass sie in Abhängigkeit eines Priorisierungswertes, die Darstellung der Visualisierungsdaten und/oder die Anzahl der darzustellenden Handlungsobjektdaten und/oder die Größe der darzustellenden Handlungsobjektdaten in dem Applikationsfenster modifiziert und die Handlungsobjekte in dem Applikationsfenster darstellt. Weiter vorzugsweise ist der Priorisierungswert ein Hardwaretyp, eine Bildschirmgröße des Applikationsfensters oder eine Ausrichtungsangabe des Applikationsfensters. According to a further aspect of the present invention, the computer-implemented method further comprises the step of preparing the visualization data of the action object selection by means of the processing unit in such a way that the visualization data together with the video data by means of the playback application in a playback application window depending on a first user interaction with the playback application are displayed, the visualization data being prepared by the processing unit in such a way that the visualization data is displayed in a first sub-area and the video data in a second sub-area of the playback application window. Here, the visualization data together with the video data are displayed in two different sub-areas within the playback application window after the first user interaction, in particular the first sub-area at least partially fades over the second sub-area. The playback application is preferably set up in such a way that it selects at least one action object from the action object selection depending on the current playback position of the video data, reads at least one further parameter from the action object data of the selected action object and calculates the visualization data and prepares it for display in the application window and saves. The playback application is further preferably set up in such a way that, depending on a probable or actual user interaction with the video data, it carries out a selection update of action objects with the associated parameters for calculating new visualization data and prepares and saves the new visualization data for display in the application window. Furthermore, the playback application is preferably set up in such a way that, depending on a prioritization value, it modifies the representation of the visualization data and/or the number of action object data to be displayed and/or the size of the action object data to be displayed in the application window and displays the action objects in the application window. Further preferably, the prioritization value is a hardware type, a screen size of the application window or an orientation information of the application window.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst das computerimplementierte Verfahren folgende Schritte auf: According to a further aspect of the present invention, the computer-implemented method comprises the following steps:
- Erzeugen von additiven Visualisierungsdaten in Abhängigkeit von einer zweiten Benutzerinteraktion mit den dargestellten Visualisierungsdaten innerhalb des Abspielapplikationsfensters, - Generating additive visualization data depending on a second user interaction with the displayed visualization data within the playback application window,
- Darstellen der Visualisierungsdaten in einem ersten Teilbereich, der Videodaten in einem zweiten Teilbereich und der additiven Visualisierungsdaten in einem dritten Teilbereich des Applikationsfensters. Hierbei werden die additiven Visualisierungsdaten in Abhängigkeit von der zweiten Benutzerinteraktion erzeugt und dargestellt. Die zweite Interaktion ist insbesondere eine Interaktion mit den dargestellten Visualisierungsdaten zu den Handlungsobjekten in dem ersten Teilbereich des Applikationsfenster. Vorzugsweise erfolgt die Darstellung des ersten Teilbereichs, des zweiten Teilbereichs und des dritten Teilbereichs zumindest teilweise überlagernd. - Displaying the visualization data in a first sub-area, the video data in a second sub-area and the additive visualization data in a third sub-area of the application window. The additive visualization data is generated and displayed depending on the second user interaction. The second interaction is in particular an interaction with the displayed visualization data for the action objects in the first portion of the application window. Preferably, the representation of the first sub-area, the second sub-area and the third sub-area is at least partially superimposed.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst das computerimplementierte Verfahren den Schritt, dass mittels einer Produktionsschnittstelle Videoproduktionsdaten zu empfangen und die Videoproduktionsdaten mittels der Verarbeitungseinheit in korrelierte Handlungsobjektdaten umzurechnen. Hierbei werden über die Produktionsschnittstelle die Videoproduktionsdaten eingelesen und verarbeitet, sodass basierend auf einem vordefinierten Algorithmus die korrelierten Handlungsobjektdaten erstellt werden. Der vordefinierte Algorithmus verarbeitet aus den verschiedenen Produktionsschritten die relevanten Daten zu den korrelierten Handlungsobjekten und setzt die korrelierten Handlungsobjekte in einen zeitlichen Bezug zu den dazugehörigen Videodaten. Der vordefinierte Algorithmus ist derart eingerichtet, dass das zeitliche Auftreten der korrelierten Handlungsobjekte und Spezifikationsparameter der jeweiligen korrelierten Handlungsobjekte als korrelierte Handlungsobjektdaten berechnet werden. According to a further aspect of the present invention, the computer-implemented method comprises the step of receiving video production data using a production interface and converting the video production data into correlated action object data using the processing unit. The video production data is read in and processed via the production interface so that the correlated action object data is created based on a predefined algorithm. The predefined algorithm processes the relevant data on the correlated action objects from the various production steps and places the correlated action objects in a temporal relationship to the associated video data. The The predefined algorithm is set up in such a way that the temporal occurrence of the correlated action objects and specification parameters of the respective correlated action objects are calculated as correlated action object data.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst das computerimplementierte Verfahren den Schritt, mittels der Empfangsschnittstelle Interaktionsdaten eines Benutzers mit den eingeblendeten Visualisierungsdaten zu empfangen und in der Speichereinheit zu speichern, und in Abhängigkeit der empfangenen Interaktionsdaten die Visualisierungsdaten und/oder die Handlungsobjektauswahl neu zu berechnen. Hierbei werden die Interaktionsdaten des Benutzers mit den Visualisierungsdaten, die in dem Applikationsfenster dargestellt werden, erfasst und durch eine anschließende mathematische Analyse, insbesondere eine statistische Analyse, auf Datenmuster untersucht. Die mathematische Analyse der Interaktionsdaten ist vorzugsweise derart eingerichtet, dass in Abhängigkeit von zumindest einer errechneten statistischen Größe, die auf zumindest einer Benutzerinteraktion und/oder auf zumindest einem dargestellten Handlungsobjekt und/oder auf zumindest einem Teil der Handlungsobjektdaten basiert, die Visualisierungsdaten und/oder die Handlungsobjektauswahl neu zu berechnen. According to a further aspect of the present invention, the computer-implemented method comprises the step of receiving a user's interaction data with the displayed visualization data using the receiving interface and storing them in the storage unit, and recalculating the visualization data and/or the action object selection depending on the received interaction data. Here, the user's interaction data with the visualization data that is displayed in the application window is recorded and examined for data patterns by a subsequent mathematical analysis, in particular a statistical analysis. The mathematical analysis of the interaction data is preferably set up in such a way that the visualization data and/or the Recalculate action object selection.
Weiter vorzugsweise, umfasst das computerimplementierte Verfahren den Schritt, die Interaktionsdaten des Benutzers, die sich auf eine Auswahl von in den Visualisierungsdaten vorkommenden Handlungsobjekten beziehen, in der Speichereinheit zu speichern und mittels der Sendeschnittstelle an eine Händlerplattform zu senden, und in Abhängigkeit von empfangenen Daten von der Händlerplattform die Handlungsobjektauswahl und/oder die Visualisierungsdaten mittels der Verarbeitungseinheit neu zu berechnen. Further preferably, the computer-implemented method comprises the step of storing the user's interaction data, which relate to a selection of action objects occurring in the visualization data, in the storage unit and sending it to a merchant platform using the sending interface, and depending on data received from of the dealer platform to recalculate the action object selection and/or the visualization data using the processing unit.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst das computerimplementierte Verfahren den Schritt, in Abhängigkeit von den von der Händlerplattform empfangenen Daten einen Abwicklungsdatensatz mittels der Verarbeitungseinheit zu generieren und den Abwicklungsdatensatz mittels der Sendeschnittstelle an eine Abwicklungsplattform zu senden und mittels der Empfangsschnittstelle Daten von der Abwicklungsplattform zu empfangen und in Abhängigkeit von empfangen Daten von der Abwicklungsplattform die Handlungsobjektauswahl und/oder die Visualisierungsdaten mittels der Verarbeitungseinheit neu zu berechnen. Der Abwicklungsdatensatz umfasst Daten über von dem Benutzer ausgewählte Handlungsobjekte aus den visualisierten Handlungsobjektdaten innerhalb des Applikationsfensters. Vorzugsweise wird der Abwicklungsdatensatz an die Händlerplattform gesendet, wobei die Händlerplattform derart eingerichtet ist, um ein Feedbacksignal zu erzeugen, welches dazu angepasst ist von dem vordefinierten Algorithmus verarbeitet zu werden, um in Abhängigkeit von dem Feedbacksignal die Handlungsobjektauswahl oder die Visualisierungsdaten neu zu berechnen. Gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst das computerimplementierte Verfahren den Schritt, mittels der Empfangsschnittstelle Benutzerkennungsdaten über die Abspielapplikation zu empfangen und die Interaktionsdaten den Benutzerkennungsdaten zuzuordnen. Vorzugsweise stellt die Abspielapplikation eine Maske zur Erfassung von Benutzerkennungsdaten bereit. Die erfassten Benutzerkennungsdaten werden in Abhängigkeit von einem Weiterleitungsparameter zumindest teilweise anonymisiert und/oder pseudonymisiert und/oder verschlüsselt an die Händlerplattform und/oder Abwicklungsplattform und/oder an die Empfangsschnittstelle gesendet. Weiter vorzugsweise werden die teilweise anonymisierten und/oder pseudonymisierten Benutzerkennungsdaten von zumindest einem Benutzer den Handlungsobjektdaten von zumindest einem Handlungsobjekt zugeordnet und Zuordnungsdaten erstellt, wobei die Zuordnungsdaten, insbesondere derart eingerichtet sind, dass sie von dem vordefinierten Algorithmus verarbeitet werden können. Weiter vorzugsweise wird in Abhängigkeit von den Zuordnungsdaten die Handlungsobjektauswahl und/oder die Visualisierungsdaten neu berechnet. According to a further aspect of the present invention, the computer-implemented method comprises the step of generating a settlement data record by means of the processing unit depending on the data received from the merchant platform and of sending the settlement data record to a processing platform by means of the sending interface and of sending data from the processing platform by means of the receiving interface receive and, depending on received data from the processing platform, recalculate the action object selection and / or the visualization data using the processing unit. The processing data set includes data about action objects selected by the user from the visualized action object data within the application window. Preferably, the settlement data record is sent to the trader platform, the trader platform being set up to generate a feedback signal which is adapted thereto predefined algorithm to be processed in order to recalculate the action object selection or the visualization data depending on the feedback signal. According to a further aspect of the present invention, the computer-implemented method comprises the step of receiving user identification data via the playback application using the receiving interface and assigning the interaction data to the user identification data. Preferably, the playback application provides a mask for collecting user identification data. Depending on a forwarding parameter, the recorded user identification data is at least partially anonymized and/or pseudonymized and/or encrypted and sent to the merchant platform and/or processing platform and/or to the receiving interface. Further preferably, the partially anonymized and/or pseudonymized user identification data of at least one user is assigned to the action object data of at least one action object and assignment data is created, wherein the assignment data is, in particular, set up in such a way that it can be processed by the predefined algorithm. Further preferably, the action object selection and/or the visualization data is recalculated depending on the assignment data.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst das computerimplementierte Verfahren den Schritt, mittels der Empfangsschnittstelle Aktualisierungsdaten von der Händlerplattform zu empfangen und diese mittels der Verarbeitungseinheit zur Neuberechnung der Handlungsobjektauswahl und/oder den Vi suali si erungsdaten heranzuzi ehen . According to a further aspect of the present invention, the computer-implemented method comprises the step of receiving update data from the dealer platform using the receiving interface and using this data using the processing unit to recalculate the action object selection and/or the visualization data.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst das computerimplementierte Verfahren den Schritt, mittels der Empfangsschnittstelle Benutzerverhaltensdaten zu empfangen und in Abhängigkeit von den Benutzerverhaltensdaten die Handlungsobjektauswahl und/oder die Visualisierungsdaten neu zu berechnen. According to a further aspect of the present invention, the computer-implemented method comprises the step of receiving user behavior data using the receiving interface and recalculating the action object selection and/or the visualization data depending on the user behavior data.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist der Aktualisierungsparameter eine Zeitdauer, eine Benutzerinteraktion, ein Videodatentyp, ein Videonavigationssignal oder ein Händlerplattformsignal. According to another aspect of the present invention, the update parameter is a time duration, a user interaction, a video data type, a video navigation signal, or a merchant platform signal.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst das computerimplementierte Verfahren den Schritt, die Handlungsobjektauswahl mit einem Befehlssatz zu versehen, wobei der Befehlssatz dazu eingerichtet ist die Auslesezeit der Handlungsobjektauswahl durch die Abspielapplikation zu bestimmen. Der Befehlssatz ist derart angepasst, dass er von der Abspielapplikation ausgelesen und als Befehl bzw. Kommando aufgefasst und ausgeführt werden kann. Weiter vorzugsweise ist der vordefinierte Algorithmus dazu angepasst einen Befehlssatz in die Handlungsobjektauswahl einzubauen, wobei die Generierung des Befehlssatzes durch den Algorithmus von zumindest einem Teil der korrelierten und/oder externen Handlungsobjektdaten abhängt. Weiter vorzugsweise ist die Abspielapplikation derart angepasst, dass sie einen Befehlssatz aus der Handlungsobjektauswahl detektieren, auslesen und ausführen kann. According to a further aspect of the present invention, the computer-implemented method comprises the step of providing the action object selection with a command set, the command set being set up to determine the readout time of the action object selection by the playback application. The command set is adapted in such a way that it can be read by the playback application and interpreted and executed as a command. The predefined algorithm is further preferred adapted to incorporate a command set into the action object selection, the generation of the command set by the algorithm depending on at least part of the correlated and / or external action object data. Further preferably, the playback application is adapted in such a way that it can detect, read out and execute a command set from the action object selection.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird ein System vorgeschlagen, das aus einem Prozessor, einer Speichereinheit mit ausführbaren Instruktionen besteht, die als Ergebnis einer Ausführung mittels der Verarbeitungseinheit das System dazu veranlasst ein computerimplementiertes Verfahren gemäß einem der vorhergehenden Verfahren auszuführen. Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird ein nichtflüchtiges computerlesbares Speichermedium vorgeschlagen, auf dem ausführbare Anweisungen gespeichert sind, die als Ergebnis der Ausführung durch einen Prozessor eines Computersystems das Computersystem dazu veranlassen, zumindest eines hier der hier aufgeführten computerimplementierten Verfahren auszuführen. According to a further aspect of the present invention, a system is proposed which consists of a processor, a memory unit with executable instructions which, as a result of execution by means of the processing unit, causes the system to execute a computer-implemented method according to one of the preceding methods. According to a further aspect of the present invention, a non-transitory computer-readable storage medium is provided on which executable instructions are stored which, as a result of execution by a processor of a computer system, cause the computer system to execute at least one of the computer-implemented methods listed herein.
Nachfolgend wird die Erfindung anhand von Figuren ergänzend beschrieben. The invention is further described below with reference to figures.
Figur 1 zeigt eine schematische Darstellung der Verarbeitungsschritte gemäß der vorliegenden Erfindung. Figure 1 shows a schematic representation of the processing steps according to the present invention.
Figur 2 zeigt eine schematische Darstellung zur Erstellung von Visualisierungsdaten gemäß der vorliegenden Erfindung. Figure 2 shows a schematic representation for creating visualization data according to the present invention.
Figur 3 zeigt eine schematische Darstellung zum Anzeigen von Visualisierungsdaten gemäß der vorliegenden Erfindung. Figure 3 shows a schematic representation for displaying visualization data according to the present invention.
Figur 4 zeigt eine schematische Darstellung zum Anzeigen von additiven Visualisierungsdaten nach einer weiteren Benutzerinteraktion gemäß der vorliegenden Erfindung dar. Figure 4 shows a schematic representation for displaying additive visualization data after a further user interaction according to the present invention.
Figur 1 zeigt korrelierte Handlungsobjektdaten 1 und externe Handlungsobjektdaten 2, die über eine Empfangsschnittstelle empfangen werden und mittels einer Verarbeitungseinheit durch einen vordefinierten Algorithmus die Berechnung einer Handlungsobjektauswahl 3 ausführen. Hierbei werden die korrelierten Handlungsobjektdaten 1 und die externen Handlungsobjektdaten 2 in Abhängigkeit des vordefinierten Algorithmus mittels der Verarbeitungseinheit miteinander verrechnet, sodass der vordefinierte Algorithmus anhand der spezifischen Parameter der einzelnen Handlungsobjekte, die zu jedem Handlungsobjekt in den korrelierten Handlungsobjektdaten 1 und den externen Handlungsobjektedaten 2 vorkommen, die Handlungsobjektauswahl 3 berechnet und zusammensetzt. Im Block 3 liegt als Ergebnis die berechnete Handlungsobjektauswahl 3 in gespeicherter Form vor und ist zum Auslesen vorbereitet. Somit symbolisiert der Block 3 die Empfangsschnittstelle, die Verarbeitungseinheit, den Algorithmus und das Vorliegen der berechnetenFigure 1 shows correlated action object data 1 and external action object data 2, which are received via a reception interface and carry out the calculation of an action object selection 3 by means of a processing unit using a predefined algorithm. Here, the correlated action object data 1 and the external action object data 2 are offset against each other by means of the processing unit depending on the predefined algorithm, so that the predefined algorithm is based on the specific parameters of the individual action objects that occur for each action object in the correlated action object data 1 and the external action object data 2, the action object selection 3 is calculated and put together. As a result, in block 3 the calculated action object selection 3 is available in stored form and is prepared for reading out. Block 3 thus symbolizes the receiving interface Processing unit, the algorithm and the existence of the calculated
Handlungsobjektauswahl 3. Action object selection 3.
Figur 2 zeigt einen anschließenden Verarbeitungsschritt zur Erstellung von Visualisierungsdaten 4 nach den erfolgten Schritten gemäß Figur 1. In Figur 2 liegt die Handlungsobjektauswahl 3 in gespeicherter Form vor. Die Handlungsobjektauswahl 3 wird in Abhängigkeit von zumindest einem Visualisierungsparameter 5 mittels der Verarbeitungseinheit zu Visualisierungsdaten 4 umgerechnet und gespeichert. Der Block 4 symbolisiert ein Auslesen und Empfangen der Handlungsobjektauswahl 3, eine Ausleseeinheit, das Erstellen der Visualisierungsdaten 4 in Abhängigkeit von zumindest einem Visualisierungsparameter 5 -welcher durch Block 5 symbolisiert ist-, Speichern der Visualisierungsdaten 4 und das Vorliegen der Visualisierungsdaten 4 in gespeicherter Form in einer Speichereinheit und vorbereitet zum Auslesen oder Senden. Figure 2 shows a subsequent processing step for creating visualization data 4 after the steps taken according to Figure 1. In Figure 2, the action object selection 3 is available in stored form. The action object selection 3 is converted into visualization data 4 and stored by the processing unit depending on at least one visualization parameter 5. The block 4 symbolizes reading and receiving the action object selection 3, a reading unit, the creation of the visualization data 4 depending on at least one visualization parameter 5 - which is symbolized by block 5 -, storing the visualization data 4 and the presence of the visualization data 4 in stored form a storage unit and prepared for reading or sending.
Figur 3 zeigt einen anschließenden Verarbeitungsschritt zum Anzeigen von Visualisierungsdaten 4 in einem Applikationsfenster nach den erfolgten Schritten gemäß Figur 1 und Figur 2. Figur 3 zeigt die Stationen 1, 2, 3, 5 und die gespeicherten Visualisierungsdaten 4, die gesendet und von einer Wiedergabeschnittstelle einer Abspielapplikation empfangen werden. Die Abspielapplikation stellt ein Abspielapplikationsfenster 7 für eine visualisierte Darstellung bereit. Zusätzlich ist die Abspielapplikation dazu eingerichtet Videodaten zu empfangen, die im inhaltlichen Bezug zu den korrelierten Handlungsobjektdaten 1 stehen. Die Abspielapplikation verarbeitet die Visualisierungsdaten 4 und ist dazu vorbereitet, die Visualisierungsdaten 4 und die Videodaten 6 in Abhängigkeit von einer Benutzerinteraktion 8, welche in Form eines Signals von der Abspielapplikation empfangen und verarbeitet wird, zeitgleich auf der Abspielapplikationsfenster 7 darzustellen. Das Darstellen der Visualisierungsdaten 4 erfolgt in einem ersten Teilbereich und der Videodaten 6 in einem zweiten Teilbereich des Abspielapplikationsfensters 7. Figure 3 shows a subsequent processing step for displaying visualization data 4 in an application window after the steps taken according to Figure 1 and Figure 2. Figure 3 shows the stations 1, 2, 3, 5 and the stored visualization data 4, which are sent and from a playback interface Playback application can be received. The playback application provides a playback application window 7 for a visualized representation. In addition, the playback application is set up to receive video data that is related to the content of the correlated action object data 1. The playback application processes the visualization data 4 and is prepared to simultaneously display the visualization data 4 and the video data 6 on the playback application window 7 depending on a user interaction 8, which is received and processed by the playback application in the form of a signal. The visualization data 4 is displayed in a first sub-area and the video data 6 in a second sub-area of the playback application window 7.
Figur 4 stellt einen weiteren Schritt zum Anzeigen von Visualisierungsdaten 4 nach einer zweiten Benutzerinteraktion 10 im Anschluss an der ersten Benutzerinteraktion gemäß Figur 3 dar. Figur 4 zeigt das Erstellen von additiven Visualisierungsdaten 9 nach der zweiten Benutzerinteraktion 10 und in Abhängigkeit von der zweiten Benutzerinteraktion 10 dar. Hierbei ist die Abspielapplikation dazu eingerichtet die Visualisierungsdaten 4 in einem ersten Teilbereich, der Videodaten 6 in einem zweiten Teilbereich und der additiven Visualisierungsdaten 9 in einem dritten Teilbereich des Applikationsfensters 7 darzustellen. Figure 4 represents a further step for displaying visualization data 4 after a second user interaction 10 following the first user interaction according to Figure 3. Figure 4 shows the creation of additive visualization data 9 after the second user interaction 10 and depending on the second user interaction 10 Here, the playback application is set up to display the visualization data 4 in a first sub-area, the video data 6 in a second sub-area and the additive visualization data 9 in a third sub-area of the application window 7.
Claims
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/IB2023/059140 WO2024009288A2 (en) | 2023-09-14 | 2023-09-14 | Seamless integration and processing of action object data |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/IB2023/059140 WO2024009288A2 (en) | 2023-09-14 | 2023-09-14 | Seamless integration and processing of action object data |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| WO2024009288A2 true WO2024009288A2 (en) | 2024-01-11 |
| WO2024009288A3 WO2024009288A3 (en) | 2024-02-29 |
Family
ID=88192162
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/IB2023/059140 Pending WO2024009288A2 (en) | 2023-09-14 | 2023-09-14 | Seamless integration and processing of action object data |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2024009288A2 (en) |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8793256B2 (en) * | 2008-03-26 | 2014-07-29 | Tout Industries, Inc. | Method and apparatus for selecting related content for display in conjunction with a media |
| KR101624060B1 (en) * | 2011-08-04 | 2016-05-24 | 이베이 인크. | User commentary systems and methods |
| US9727566B2 (en) * | 2014-08-26 | 2017-08-08 | Nbcuniversal Media, Llc | Selecting adaptive secondary content based on a profile of primary content |
| US11943511B2 (en) * | 2021-08-24 | 2024-03-26 | Rovi Guides, Inc. | Systems and methods for selectively providing supplemental content during presentation of media asset |
-
2023
- 2023-09-14 WO PCT/IB2023/059140 patent/WO2024009288A2/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| WO2024009288A3 (en) | 2024-02-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20100070860A1 (en) | Animated cloud tags derived from deep tagging | |
| CN110532427A (en) | A kind of visualization video generation method and system based on Form data | |
| US10739938B2 (en) | Customizing a tag cloud | |
| WO2017085717A1 (en) | System and method for presentation of content linked comments | |
| CN106354490B (en) | EPG page Dynamic Distribution method | |
| CN106033471A (en) | Method and device for processing form | |
| US10360946B1 (en) | Augmenting content with interactive elements | |
| EP1250702B1 (en) | System and method for eye-tracking controlled speech processing with generation of a visual feedback signal | |
| EP3570164A1 (en) | Method and system for generating a mobile application from a desktop application | |
| CN113301385A (en) | Video data processing method and device, electronic equipment and readable storage medium | |
| DE102012224365A1 (en) | Fast cursor localization | |
| JP2010020577A (en) | Business flow analysis program, method, and device | |
| JP2013080365A (en) | Region-of-gaze data generation device and operation method thereof | |
| WO2024009288A2 (en) | Seamless integration and processing of action object data | |
| CN108460818A (en) | A kind of method and device of data export and animation play | |
| CN102625161A (en) | Method, device and equipment for determining evaluation information about media information | |
| CN110175026A (en) | A kind of webpage visualizing editing method, device and storage medium | |
| CN116048321A (en) | Information processing method, device, terminal and computer program product | |
| DE102020210041A1 (en) | Control device and control method | |
| CN114549428B (en) | A method for generating and displaying assembly guidance information based on target detection | |
| CN102236647A (en) | Time-based attribute configuration displaying method and apparatus | |
| CN105243135A (en) | Method and apparatus for showing search result | |
| CN112035106A (en) | Homologous data multi-platform synchronization method, device, medium and electronic device | |
| CN108305097B (en) | Data processing method, equipment and client | |
| CN114510520A (en) | Dynamic transaction path visual interaction method, device, equipment and medium |