ITBS20110048A1 - Metodo per arricchire il contenuto informativo di immagini videografiche - Google Patents
Metodo per arricchire il contenuto informativo di immagini videografiche Download PDFInfo
- Publication number
- ITBS20110048A1 ITBS20110048A1 IT000048A ITBS20110048A ITBS20110048A1 IT BS20110048 A1 ITBS20110048 A1 IT BS20110048A1 IT 000048 A IT000048 A IT 000048A IT BS20110048 A ITBS20110048 A IT BS20110048A IT BS20110048 A1 ITBS20110048 A1 IT BS20110048A1
- Authority
- IT
- Italy
- Prior art keywords
- differentiated
- videographic
- content
- image
- contents
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1431—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
- G09G2340/0428—Gradation resolution change
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/10—Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
- G09G2340/125—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/06—Remotely controlled electronic signs other than labels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
D E S C R I Z I O N E
del BREVETTO PER INVENZIONE INDUSTRIALE avente per titolo:
“METODO PER ARRICCHIRE IL CONTENUTO INFORMATIVO DI
IMMAGINI VIDEOGRAFICHEâ€
Campo di applicazione dell’Invenzione
La presente invenzione riguarda in generale i dispositivi di visualizzazione multipla di contenuti grafici differenziati, quali testi, immagini, filmati, e si riferisce in particolare a un metodo per arricchire il contenuto informativo di immagini videografiche in tali dispositivi.
L’invenzione può trovare utile applicazioni nella diffusione al pubblico di contenuti informativi differenziati in dipendenza dell’ambito installativo, quali ad esempio stazioni, aeroporti, metropolitane, ecc., nonché in dispositivi con versi opposti di visualizzazione montati su mezzi mobili per il trasporto pubblico come bus, tram, treni, ecc. ove sia necessario visualizzare dei segnali, quali ad esempio frecce direzionali, o, più in generale, informative, come salita e discesa passeggeri, messaggi di prossima fermata, ecc.
Più in generale ancora, l’invenzione può trovare applicazione in tutti quei casi in cui un contenuto grafico principale deve poter essere visualizzato su molteplici dispositivi disposti in situazioni installative diverse e che, proprio per questo, richiedono una visualizzazione differenziata delle informazioni da caso a caso.
Un tipico esempio di tali applicazioni può essere costituito da due pannelli grafici con tecnologia TFT LCD montati con versi di visualizzazione opposti (in configurazione detta †back-to-back†) a bordo metropolitana. In questo caso, una stessa immagine di visualizzazione recante, per esempio, una freccia per l’indicazione ai passeggeri del lato di discesa deve poter essere girata nel verso opposto in uno dei due dispositivi, proprio per indicare una direzione di discesa comune.
Stato dell’Arte
Attualmente la riproduzione di differenti contenuti grafici, immagini o video, su altrettanti dispositivi di riproduzione viene effettuata impiegando un canale di trasmissione video per ciascun contenuto grafico da riprodurre.
La Figura 1 dei disegni in appendice schematizza un esempio di una delle tecniche attualmente in uso per la riproduzione di due contenuti video 1 e 2 su altrettanti, rispettivi dispositivi di visualizzazione 1a, 2a. Si tratta in particolare di un sistema includente un elaboratore grafico 3, ad esempio un chipset grafico Dual Output, avente due uscite video integrate indipendenti, come comunemente avviene nel caso di Embedded PC.
Un altro tipico esempio di tecnica nota per la riproduzione di due contenuti video 1 e 2 su altrettanti, rispettivi dispositivi di visualizzazione 1a, 2a à ̈ illustrato in Figura 2. In quest’altro esempio viene utilizazto un elaboratore grafico 4 costituito da una o più schede grafiche aggiuntive, ciascuna delle quali gestisce un’unica uscita video indipendente come spesso avviene nel caso dei comuni Desktop PC.
In base a quanto descritto sopra, per la visualizzazione di più contenuti grafici differenti all’interno di unico canale visivo si rende necessario utilizzare alcune tecniche di trattamento dei contenuti visivi.
Secondo lo stato dell’arte sono conosciute e già diffusamente impiegate diverse metodologie per la manipolazione e l’implementazione di più contenuti informativi testuali o grafici all’interno di un unico canale visivo, in modo tale da poter essere poi riprodotto da uno o più dispositivi di riproduzione. Di seguito vengono riportate alcune di tali metodologie.
- Chroma Key: E’ una delle tecniche usate per realizzare i cosiddetti “effetti di Keying†attraverso la quale à ̈ possibile unire due sorgenti video sfruttando un particolare colore, appunto un "colore chiave", per segnalare al mixer video quale sorgente usare in un dato momento.
Dalla sorgente video principale, infatti, vengono rimosse (o rese “trasparenti†) solo le aree coincidenti con il “colore chiave†, permettendo così alla sorgente video secondaria di poter essere visualizzata in corrispondenza delle stesse. Tuttavia, con questa tecnica, si effettua una discriminazione cromatica dei contenuti da visualizzare, legata appunto al “colore chiave†scelto, ma non à ̈ possibile quindi una piena personalizzazione del contenuto grafico realizzato. Inoltre, le due sorgenti video, una volta miscelate insieme in un unico contenuto video finale, non possono più essere ricostruite o discriminate distintamente.
- Teletext: E’ un servizio interattivo utilizzato in ambito televisivo che consiste in pagine di testo visualizzabili sullo schermo televisivo a richiesta dell'utente ed à ̈ utilizzato per fornire agli utenti informazione di varia natura.
Queste informazioni vengono trasmesse ciclicamente all’interno dei quadri video (video frame), in particolare all’interno dell’intervallo di blanking verticale (vertical blanking interval). Questa tecnica, tuttavia, fornisce un contenuto addizionale a carattere puramente testuale o a bassissima risoluzione grafica. Necessita inoltre di un apposito dispositivo di decodifica (decoder) in grado di rilevare e decodificare il contenuto informativo aggiuntivo. Tale contenuto, inoltre, non interagisce in alcun modo con le immagini contenute all’interno dei quadri video e, di conseguenza, non fornisce alcun contenuto grafico differenziato in relazione alle immagini visualizzate.
- Mixer video: E’ un'apparecchiatura impiegata per commutare diverse sorgenti video su un unico segnale in uscita e in alcuni casi di miscelarle tra di loro o aggiungere effetti speciali, quali ad esempio l’aggiunta di testo o grafica o la manipolazione delle proprietà cromatiche o strutturali dell’immagine. Come riferito in precedenza per il Chroma Key, anche in questo caso, una volta miscelate insieme in un unico contenuto video finale, le sorgenti video non possono più essere ricostruite o discriminate distintamente. Infatti, per discriminare le diverse sorgenti video sui vari dispositivi di visualizzazione, à ̈ necessario avere un numero di uscite video almeno pari al numero delle sorgenti, come illustrato nell’esempio rappresentato Figura. 2.
Emerge quindi che nelle tecniche e nelle metodologie sopra esposte, laddove si effettuata una miscelazione delle sorgenti video, viene di fatto realizzata un’unione unidirezionale e permanente che non rende poi possibile la ricostruzione o la discriminazione distinta delle sorgenti video per poter essere poi visualizzate in corrispondenza dei diversi dispositivi di riproduzione.
Altre metodologie attualmente impiegate e diffuse nelle quali vengono impiegati due contenuti video diversificati tra loro, ricadono sotto il termine di “3D Imaging†. Esso rappresenta infatti l’insieme delle tecniche di realizzazione e visione di immagini, disegni, fotografie e filmati, finalizzate a trasmettere un’illusione di tridimensionalità , analoga a quella generata dalla visione binoculare del sistema visivo umano, presentando separatamente due differenti immagini rispettivamente all’occhio sinistro e destro dello spettatore.
Data la varietà delle attuali tecniche di implementazione di queste tecnologie di visualizzazione stereoscopica, diviene necessario fare qualche precisazione su alcune di esse, in particolare per quelle riferite ad immagini dinamiche (video), più pertinenti alla trattazione rispetto a quelle riferite ad immagini statiche.
- Anaglifo: consiste nel discriminare tramite utilizzo di occhiali con filtraggio complementare, due immagini (una dedicata all’occhio destro e l’altra dedicata all’occhio sinistro) precedentemente filtrate con due colori diversi.
- Sistema ad oscuramento alternato: consiste nel discriminare tramite occhiali dotati di otturatori attivi sincronizzati (active shutter glasses) due immagini, una dedicata all’occhio destro e l’altra dedicata all’occhio sinistro, proiettate in rapida sequenza.
- Sistema a lenti polarizzate: consiste nel discriminare, tramite lenti polarizzate orientate ortogonalmente l’una rispetto l’altra, due immagini, una dedicata all’occhio destro e l’altra dedicata all’occhio sinistro, proiettate in rapida sequenza.
- Autostereoscopia o AS-3D: consiste nel “nascondere†ad ogni occhio l’immagine dedicata all’altro tramite l’implementazione di apposite tecnologie direttamente sul supporto (stampa su carta o monitor), senza quindi richiedere l’utilizzo di altri dispositivi. Alcune tecnologie di implementazione di questo sistema sono: a rete lenticolare, a barriera di parallasse, ad illuminazione e a schermo olografico. Nel caso di un dispositivo di visualizzazione video, tuttavia, l’applicazione di tecniche autostereoscopiche comporta, come detto, l’implementazione di speciali tecnologie direttamente sul supporto di visualizzazione. Inoltre, l’immagine complessiva deve avere necessariamente dimensioni maggiori, in quanto deve essere costituita da più punti di vista dell’immagine “originale†, osservati rispettivamente dall’occhio sinistro e dall’occhio destro ricorrendo a specifici dispositive in funzione della tecnologia implementata. Questo comporta inoltre che l’illusione della tridimensionalità viene ottenuta solamente osservando il dispositivo entro determinati angoli di osservazione.
E’ tuttavia evidente che le tecniche sopra descritte implicano l’utilizzo di dispositivi ottici, come occhiali a filtraggio complementare oppure lenti polarizzati, o opto-elettronici quali otturatori attivi sincronizzati. Inoltre, il sistema ad oscuramento alternato non fornisce contenuti informativi in tempo reale, ma discrimina, tramite otturatori attivi sincronizzati, due immagini visualizzate in istanti diversi.
Obiettivo e Sommario dell’Invenzione
Partendo da tali premesse, e dopo aver considerato in particolare alcune tecniche di “3D Imaging†, gli attuali inventori sono invece andati alla ricerca di un’ulteriore tecnica di visualizzazione di contenuti videografici differenziati in grado di permettere una effettiva discriminazione dei contenuti grafici su diversi dispositivi di riproduzione, vantaggiosamente senza dover ricorrere a strumenti ottici o opto-elettronici e senza aggravio sulle risorse e sulle prestazioni riguardanti l’elaboratore grafico.
La presente invenzione à ̈ il risultato di una tale ricerca e ha come obiettivo di mettere a disposizione un innovativo metodo per un arricchimento del contenuto informativo di immagini videografiche con contenuti grafici differenziati, più particolarmente un metodo per una ricostruzione delle suddette immagini differenziate per una loro visualizzazione su diversi dispositivi di riproduzione.
Tale obiettivo à ̈ conseguito, in accordo all’invenzione, con un metodo per arricchire il contenuto informativo di immagini videografiche che comprende:
la predisposizione di un’immagine videografica principale, la predisposizione di una o più immagini videografica recanti I conntenuti informative aggiuntivi,
una codifica video dell’immagine videografica principale sommata ai con contenuti videografici aggiuntivi, e
una susseguente decodifica video per una riproduzione dei contenuti videografici aggiuntivi su diversi dispositivi di visualizzazione discriminatamente entro la stessa immagine.
Da notare, dunque, che il metodo qui proposto non à ̈ tanto finalizzato all’implementazione di una visione stereoscopica dell’immagine (sebbene possa essere implementata anche in tale ambito) ma, come detto precedentemente, alla discriminazione di differenti contenuti grafici su diversi dispositivi di visualizzazione. Breve Descrizione dei Disegni
Un esempio di realizzazione l’invenzione sarà comunque meglio illustrato nel prosieguo della descrizione fatta con riferimento alle allegate riproduzioni nelle quali, oltre alle Figure 1 e 2 indicative dello stato dell’arte più sopra commentato, sono rappresentati in:
Figura 3 uno schema a blocchi dell’intero processo secondo l’invenzione;
Figura 4 uno schema a blocchi del processo di codifica video; Figura 5 uno schema a blocchi del processo di decodifica video; Figura 6 un esempio di creazione di un’immagine codificata; Figura 7 un esempio di codifica di un singolo contenuto differenziato in un solo canale cromatico a 8 bit.
Figura 8 un esempio di codifica delle informazioni posizionali e di controllo; e
Figura 9 un esempio di decodifica e ricostruzione di un singolo canale cromatico a 8 bit.
Descrizione dettagliata dell’Invenzione
In Figura 3 à ̈ dunque rappresentato uno schema a blocchi dell’intero processo secondo il quale, per esempio, almeno due contenuti video differenziati 11 e 12 sono miscelati e codificati in un sistema di codifica video 13, poi elaborati in tempo reale in un sistema di decodifica video 14 in modo da separare e ricostruire le informazioni video distinte ed indipendenti su altrettanti dispositivi di visualizzazione 15 e 16.
Codifica video
Come mostrato in Figura 4 la codifica video in 13 viene esplicato nelle seguenti fasi di:
- codifica dei contenuti grafici differenziati e dei relativi dati posizionali e di controllo sull’immagine principale;
- trasmissione dell’immagine codificata ai dispositivi di riproduzione.
Decodifica Video
Come mostrato in Figura 5 la decodifica video in 14 viene esplicato nelle seguenti fasi:
- decodifica dei dati posizionali e di controllo dal flusso video codificato ricevuto;
- trasmissione ai dispositivi di visualizzazione del contenuto differenziato in caso di corrispondenza con i relativi dati posizionali e di controllo precedentemente decodificati o trasmissione del contenuto comune originale (non differenziato).
Come si evidenziato di seguito in dettaglio, il metodo proposto non altera né le dimensioni in bit o Byte dell’immagine principale né la sua risoluzione. Di conseguenza, anche la banda di trasmissione necessaria per poter inviare l’immagine ai dispositivi di visualizzazione rimane inalterata.
Il metodo può essere implementato attraverso un qualsiasi dispositivo di elaborazione dati (microprocessore), di logica programmabile (FPGA, CPLD, ecc.) o, più in generale, tramite qualsiasi circuito logico di elaborazione digitale.
In particolare, la codifica proposta prevede l’arricchimento dell’immagine principale con una o più immagini differenziate e con le informazioni relative alla posizione di queste immagini differenziate e alle eventuali informazioni di controllo.
Le immagini differenziate vengono codificate all’interno dell’immagine principale nell’esatta posizione in cui si desidera debbano poi essere visualizzate come contenuto differenziato sui diversi dispositivi di riproduzione.
In Figura 6 viene mostrato un esempio di creazione di un’immagine codificata. Nell’immagine principale, viene definita un’area, per esempio, di 250/200 pixel di larghezza e 50/100 pixel di altezza all’interno della quale à ̈ visualizzata, per esempio, una freccia direzionale di un dato colore (Figura 6, a). Viene quindi creato un contenuto differenziato avente la stessa dimensione dell’area definita, ad esempio una freccia direzionale di altro colore di senso opposto alla precedente (Figura 6, b). A questo punto, viene codificato nell’area definita sull’immagine principale il contenuto differenziato, generando quindi l’immagine codificata da trasmettere (Figura 6, c).
La codifica vera e propria viene effettuata a livello di ciascuna componente di colore costituente il pixel dell’immagine principale e dei contenuti differenziati che si intendono codificare.
Ipotizzando di utilizzare immagini codificate con modello di colore RGB (Red, Green, Blue) a 24 bit di profondità (8 bit per ciascun colore), i pixel definiti nell’area a contenuto differenziato sull’immagine codificata vengono composti utilizzando i 4 bit più significativi (MSBs, Most Significant Bits) di ciascun canale cromatico costituente l’immagine principale ed i 4 bit più significativi di ciascun canale cromatico costituente il contenuto differenziato.
I 3 Byte così ottenuti (8 bit per il colore rosso, 8 bit per il colore verde e 8 bit per il colore blu), formeranno così ciascun singolo pixel definito nell’area differenziata presente nell’immagine codificata.
I pixel non facenti parte delle aree a contenuto differenziato vengono invece riportati inalterati sull’immagine codificata così come composti nell’immagine principale.
La risultante immagine codificata à ̈ quindi pronta per poter essere trasmessa ai diversi dispositivi di riproduzione grafica.
A scopo indicativo, in Figura 7 viene mostrato un esempio di codifica in cui vengono posizionati i 4 bit ricavati dall’immagine 5 principale nella parte alta del byte costituente la componente cromatica dell’immagine codificata, mentre i 4 bit ricavati dal contenuto differenziato vengono posizionati nella parte bassa.
Sarà peraltro possibile implementare altre combinazioni di codifica del byte costituente ciascuna componente cromatica relativa 10 all’immagine codificata, come ad esempio la codifica dei 4 bit ricavati dall’immagine principale nelle 4 posizioni pari del byte dell’immagine codificata, e la codifica dei 4 bit ricavati dal contenuto differenziato nelle restanti 4 posizioni dispari.
Seguendo la struttura di codifica riportata in Figura 7, nella 15 Tabella 1 viene mostrato un esempio di codifica con un singolo contenuto differenziato di un pixel a 24 bit (costituito quindi da 8 bit per la componente cromatica rossa, 8 bit per quella verde e 8 bit per quella blu), che andrà a costituire l’area a contenuto differenziato nell’immagine codificata.
20
Posizione Bit
Canale Cromatico 7 6 5 4 3 2 1 0 7 6 5 4 3 2 1 0 7 6 5 4 3 2 1 0 Rosso 1 1 0 1 0 1 1 0 1 0 0 1 0 0 1 0 1 1 0 1 1 0 0 1 Verde 1 1 0 0 1 0 0 1 0 0 1 0 0 1 1 1 1 1 0 0 0 0 1 0 Blu 0 1 1 0 0 1 0 1 1 0 1 0 0 1 0 0 0 1 1 0 1 0 1 0
Immagine Principale Contenuto Differenziato Immagine Codificata Tabella 1
Come già detto in precedenza, à ̈ possibile codificare molteplici contenuti differenziati e codificarli in maniera diversa a seconda del tipo di immagini che si intende utilizzare, delle necessità e del tipo di applicazione.
Nella Tabella viene riportato un esempio di codifica di una singola componente cromatica (sub-pixel) a 10 bit con due diversi contenuti differenziati, utilizzando solo 2 bit per la codifica di ciascuno di essi.
Posizione Bit
1
Sub-Pixel 9 8 7 6 5 4 3 2 1 0
0
Sub-pixel Immagine Principale 1 1 0 1 0 1 1 0 1 1 1 Sub-pixel Contenuto
1 1 0 0 1 0 0 1 0 0 1 Diferenziato 1
Sub-pixel Contenuto
0 1 1 0 0 1 0 1 1 1 0 Diferenziato 2
Sub-Pixel Immagine Codificata 1 1 0 1 0 1 1 1 1 0 1
Cont. Cont. Immagine Principale
Diff.1 Diff.2 Tabella 2
Come espresso in precedenza, ogni immagine (dinamica o statica che sia) può essere arricchita con più contenuti differenziati, e quindi riprodotta in maniera differente su diversi dispositivi di riproduzione grafica.
Per poter riprodurre correttamente ogni contenuto differenziato à ̈ peraltro necessario poter discriminare esattamente le aree in cui questi contenuti sono stati inseriti. Per fare ciò, nella composizione dell’immagine codificata vengono inserite anche informazioni posizionali, ed eventualmente di controllo, relative proprio alle aree riguardanti i contenuti differenziati.
La codifica di informazioni posizionali può essere effettuata inserendo in codifica binaria le coordinate dei pixel sulla matrice grafica corrispondenti ai due vertici opposti relativi a ciascuna area all’interno della quale à ̈ codificato il contenuto differenziato. Sarà comunque possibile utilizzare differenti informazioni per la determinazione di ciascuna area a contenuto differenziato, come a titolo d’esempio un vertice, la sua collocazione rispetto all’area e le dimensioni in pixel (larghezza e altezza) dell’area stessa.
Ad esempio, le coordinate possono essere definite secondo il formato “riga, colonna†e riportate sulla matrice di pixel aventi come origine (0, 0) il primo pixel in alto a sinistra, ossia il primo pixel contenente l’informazione d’immagine solitamente trasmesso, così come mostrato nella Figura 6.
Risulta preferibile inserire tale codifica già nelle prime righe dell’immagine codificata, in modo da poter effettuare la decodifica dell’esatta posizione delle aree a contenuto differenziate ancor prima del contenuto dell’immagine, potendone così disporre in fase di elaborazione delle stesse.
La Figura 8 mostra un esempio di codifica relativa alla posizione di un’unica area a contenuto differenziato. E’ inoltre mostrato come sia possibile inserire un byte di controllo, attraverso il quale indicare all’elaboratore grafico in fase di ricezione, la presenza di aree a contenuto differenziato nell’immagine trasmessa e, di conseguenza, attivare la decodifica e l’elaborazione delle stesse.
E’ evidente come, allo stesso modo, sia possibile inserire altre informazioni aggiuntive (quali ad esempio un controllo d’errore sulle informazioni ricevute o informazioni per l’alterazione cromatica dell’immagine) a seconda della tipologia dell’applicazione e del dispositivo di elaborazione grafico in ricezione.
All’atto pratico, la codifica può essere implementata su una qualsiasi componente di colore RGB, a seconda del numero di aree differenziate codificate, o eventualmente su tutte e tre le componenti di colore dipendentemente dal numero di informazioni posizionali che le determinano.
Nell’esempio precedente di Figura 8 la codifica può essere implementata utilizzando il bit meno significativo (LSB, Less Significant Bit) della componente di colore rossa di ciascun pixel che costituisce l’immagine, codificando l’intera stringa di 40 bit nella prima riga (utilizzando quindi 40 pixel) partendo dal pixel di origine in alto a sinistra (0, 0).
Come mostrato in Figura 5 per decodificare ed elaborare, dal flusso video ricevuto, le aree a contenuto differenziato à ̈ necessario prima di tutto decodificare correttamente le informazioni posizionali e le eventuali informazioni di controllo. La decodifica dei dati posizionali e di controllo viene eseguita in fase di ricezione del flusso video codificato in tempo reale. Come visto precedentemente, una volta stabilito il protocollo di codifica desiderato, l’elaboratore grafico in ricezione può semplicemente decodificare le informazioni necessarie sia alla discriminazione delle aree grafiche differenziate sia al controllo di visualizzazione o qualsiasi altra informazione codificata utile per la specifica applicazione.
Dopo aver decodificate ed acquisite le informazioni di posizione relative a ciascuna area a contenuto differenziato, nonché le eventuali informazioni di controllo, l’elaboratore grafico in ricezione può procedere all’elaborazione dell’immagine codificata discriminando la visualizzazione del contenuto differenziato sui vari dispositivi.
Eseguendo la procedura descritta per la codifica del contenuto differenziato in maniera inversa e, ovviamente, limitatamente alle aree a contenuto differenziato, à ̈ possibile decodificare i bit più significativi dell’immagine principale ed i bit più significativi relativi ai contenuti differenziati per ciascuna componente di colore di ogni pixel e ricostruire in tal modo le varie immagini.
In riferimento al precedente esempio riportato in Figura 7 i 4 bit più significativi di ciascuna componente cromatica dell’immagine codificata vengono utilizzati per ricostruire i 4 bit più significativi di ciascuna componente cromatica dell’immagine principale, mentre i 4 bit meno significativi vengono utilizzati per ricostruire i 4 bit più significativi di ciascuna componente cromatica del contenuto differenziato. La ricostruzione completa sia dell’immagine principale che di quella a contenuto differenziato, viene eseguita riportando anche nella parte bassa gli stessi 4 bit decodificati e posizionati nella parte più significativa del byte. In questo modo si effettua un’approssimazione binaria a 8 bit del livello cromatico per ciascuna componente di colore, come mostrato in Fugura 9.
La ricostruzione dell’immagine principale e delle immagini a contenuto differenziato può essere effettuata, a seconda dell’applicazione e del tipo di immagine codificata, mediante tabelle di associazione (Look-up Tables), algoritmi specifici di ricostruzione dell’immagine o valori preimpostati.
Claims (9)
- “METODO PER ARRICCHIRE IL CONTENUTO INFORMATIVO DI IMMAGINI VIDEOGRAFICHE†R I V E N D I C A Z I O N I 1. Metodo per arricchire il contenuto informativo di immagini videografiche comprendente i passi di: una predisposizione di un’immagine videografica principale, una predisposizione di una o più immagini videografica recanti i contenuti informative aggiuntivi. una codifica video dell’immagine videografica sommata ai contenuti videografici aggiuntivi differenziati, e una susseguente decodifica video per una riproduzione dei contenuti videografici aggiuntivi differenziati discriminatamente entro la stessa immagine principale su diversi dispositivi di visualizzazione.
- 2. Metodo secondo la rivendicazione 1, caratterizzato dal fatto di implementare l’immagine videografica principale con almeno un contenuto videografico aggiuntivo differenziato in almeno un’area di un determinato numero di pixel di detta immagine principale in modo da riprodurre il contenuto videografico aggiuntivo differentemente entro la stessa area dell’immagine principale su diversi dispositivi di visualizzazione.
- 3. Metodo secondo la rivendicazione 1 o 2, caratterizzato dal fatto di miscelare e codificare in un sistema di codifica video le informazioni di almeno due contenuti videografici differenziati, e di elaborare e separare poi, in tempo reale, in un sistema di decodifica video le informazioni di tali contenuti videografici differenziati in modo da ricostruire i contenuti videografici differenziati in forma distinta ed indipendente su diversi dispositivi di visualizzazione.
- 4. Metodo secondo una delle rivendicazioni precedenti, caratterizzato dal fatto di definire almeno un’area dell’immagine principale all’interno della quale riprodurre almeno un contenuto videografico differenziato, di codificare nell’area definita sull’immagine principale il contenuto videografico differenziato, e di generare quindi l’immagine codificata da trasmettere e visualizzare differentemente su diversi dispositive.
- 5. Metodo secondo le rivendicazioni precedenti, caratterizzato dal fatto che il sistema di codifica video comprende una codifica dei contenuti videografici differenziati e dei relativi dati posizionali e di controllo sull’immagine principale ed inoltre la trasmissione dell’immagine codificata ai dispositivi di riproduzione dell’immagine arricchita.
- 6. Metodo secondo la rivendicazione 5, caratterizzato dal fatto che la codifica dei dati posizionali può essere effettuata inserendo in codifica binaria le coordinate dei pixel sulla matrice grafica corrispondenti a titolo di esempio ai due vertici opposti relativi a ciascuna area all’interno della quale à ̈ codificato il contenuto differenziato.
- 7. Metodo secondo la rivendicazione 5 o 6 caratterizzato dal fatto che la codifica può essere effettuata a livello di ciascuna componente di colore costituente il pixel dell’immagine principale e del contenuto videoagrafico differenziato, e che i pixel definiti nell’area a contenuto videografico differenziato sull’immagine codificata possono essere composti utilizzando i bit più significativi (MSBs, Most Significant Bits) di ciascun canale cromatico costituente l’immagine principale ed i bit più significativi di ciascun canale cromatico costituente il contenuto videografico differenziato.
- 8. Metodo secondo la rivendicazione 7, caratterizzato dal fatto che la codifica può essere effettuata su una qualsiasi componente di colore (RGB), in dipendenza del numero di aree differenziate codificate, e del numero di informazioni posizionali che le determinano, o eventualmente su tutte tre le componenti di colore.
- 9. Metodo secondo le rivendicazioni precedenti, caratterizzato dal fatto che il sistema di decodifica video comprende una decodifica dei dati posizionali e di controllo provenienti dalla codifica video, e la trasmissione dei dati decodificati ai dispositivi di visualizzazione del contenuto videografico differenziato in caso di corrispondenza con i relativi dati posizionali e di controllo appena decodificata.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000048A ITBS20110048A1 (it) | 2011-04-08 | 2011-04-08 | Metodo per arricchire il contenuto informativo di immagini videografiche |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000048A ITBS20110048A1 (it) | 2011-04-08 | 2011-04-08 | Metodo per arricchire il contenuto informativo di immagini videografiche |
Publications (1)
Publication Number | Publication Date |
---|---|
ITBS20110048A1 true ITBS20110048A1 (it) | 2012-10-09 |
Family
ID=44514335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT000048A ITBS20110048A1 (it) | 2011-04-08 | 2011-04-08 | Metodo per arricchire il contenuto informativo di immagini videografiche |
Country Status (1)
Country | Link |
---|---|
IT (1) | ITBS20110048A1 (it) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU655338B2 (en) * | 1991-11-25 | 1994-12-15 | Sony (Australia) Pty Limited | Audio and multiple video monitoring on a computer display |
US5666548A (en) * | 1990-06-12 | 1997-09-09 | Radius Inc. | Process of extracting and processing information in a vertical interval of a video signal transmitted over a personal computer bus |
WO1998017058A1 (en) * | 1996-10-16 | 1998-04-23 | Thomson Consumer Electronics, Inc. | Apparatus and method for generating on-screen-display messages using line doubling |
US6333750B1 (en) * | 1997-03-12 | 2001-12-25 | Cybex Computer Products Corporation | Multi-sourced video distribution hub |
US20020174439A1 (en) * | 1999-11-05 | 2002-11-21 | Ryuhei Akiyama | Television system for accumulation-oriented broadcast, information display system, distribution system, and information distribution method |
US20050140567A1 (en) * | 2003-10-28 | 2005-06-30 | Pioneer Corporation | Drawing apparatus and method, computer program product, and drawing display system |
US20050280650A1 (en) * | 2004-06-18 | 2005-12-22 | Fujitsu Limited | Image display system and image processing device |
US20050285980A1 (en) * | 2004-06-25 | 2005-12-29 | Funai Electric Co., Ltd. | Digital broadcast receiver |
-
2011
- 2011-04-08 IT IT000048A patent/ITBS20110048A1/it unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5666548A (en) * | 1990-06-12 | 1997-09-09 | Radius Inc. | Process of extracting and processing information in a vertical interval of a video signal transmitted over a personal computer bus |
AU655338B2 (en) * | 1991-11-25 | 1994-12-15 | Sony (Australia) Pty Limited | Audio and multiple video monitoring on a computer display |
WO1998017058A1 (en) * | 1996-10-16 | 1998-04-23 | Thomson Consumer Electronics, Inc. | Apparatus and method for generating on-screen-display messages using line doubling |
US6333750B1 (en) * | 1997-03-12 | 2001-12-25 | Cybex Computer Products Corporation | Multi-sourced video distribution hub |
US20020174439A1 (en) * | 1999-11-05 | 2002-11-21 | Ryuhei Akiyama | Television system for accumulation-oriented broadcast, information display system, distribution system, and information distribution method |
US20050140567A1 (en) * | 2003-10-28 | 2005-06-30 | Pioneer Corporation | Drawing apparatus and method, computer program product, and drawing display system |
US20050280650A1 (en) * | 2004-06-18 | 2005-12-22 | Fujitsu Limited | Image display system and image processing device |
US20050285980A1 (en) * | 2004-06-25 | 2005-12-29 | Funai Electric Co., Ltd. | Digital broadcast receiver |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101651442B1 (ko) | 이미지 기반 3d 비디오 포맷 | |
US11284055B2 (en) | Method and an apparatus and a computer program product for video encoding and decoding | |
CN105120187B (zh) | 一种激光电视的图像处理方法、系统及激光电视 | |
US20100026783A1 (en) | Method and apparatus to encode and decode stereoscopic video data | |
MX2021011021A (es) | Imágenes con tipos de unidad nal mezclados. | |
US20060209181A1 (en) | 3D video conferencing | |
GB2366114B (en) | Improvements in and relating to method and apparatus for producing anaglyphic 3-D images. | |
CN201887901U (zh) | 一种立体视频播放系统 | |
KR20090079959A (ko) | 듀얼 지스크린 프로젝션 | |
US20090207237A1 (en) | Method and Device for Autosterioscopic Display With Adaptation of the Optimal Viewing Distance | |
JP6331882B2 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
US20100302235A1 (en) | efficient composition of a stereoscopic image for a 3-D TV | |
CN102547313A (zh) | 一种立体视频播放系统及其方法 | |
CN102740158A (zh) | 一种供用户上传3d视频到视频网站的系统和方法 | |
JP2011242773A (ja) | 立体映像表示装置およびその駆動方法 | |
CN102752620A (zh) | 3d视频的电视播放方法 | |
JP2015517236A (ja) | 表示オブジェクトの表示位置を提供し、3次元シーン内の表示オブジェクトを表示するための方法および装置 | |
CN101917639A (zh) | 一种生成立体图像的方法及系统 | |
CN1848966B (zh) | 小窗口立体图像制作与显示方法 | |
ITMO20080267A1 (it) | Sistema per codificare e decodificare immagini stereoscopiche | |
ITBS20110048A1 (it) | Metodo per arricchire il contenuto informativo di immagini videografiche | |
CN111866479B (zh) | 液晶偏振隐形提词dlp投影机系统及视频数据处理方法 | |
EP2697707A1 (en) | Method of improving the content of videographic images with encoding of additional contents on a main videographic image | |
KR101567710B1 (ko) | 특수 안경을 착용한 관찰자만 정보를 볼 수 있는 디스플레이 시스템 | |
KR101846857B1 (ko) | 3차원 비디오 전송을 위한 자막들에 있어서의 개선 |