[go: up one dir, main page]

BRPI0316174B1 - método e aparelho para composição de legendas para apresentações de áudio/vídeo e meio de armazenamento óptico relacionado - Google Patents

método e aparelho para composição de legendas para apresentações de áudio/vídeo e meio de armazenamento óptico relacionado Download PDF

Info

Publication number
BRPI0316174B1
BRPI0316174B1 BRPI0316174A BR0316174A BRPI0316174B1 BR PI0316174 B1 BRPI0316174 B1 BR PI0316174B1 BR PI0316174 A BRPI0316174 A BR PI0316174A BR 0316174 A BR0316174 A BR 0316174A BR PI0316174 B1 BRPI0316174 B1 BR PI0316174B1
Authority
BR
Brazil
Prior art keywords
subtitle
data
audio
clipping
video
Prior art date
Application number
BRPI0316174A
Other languages
English (en)
Other versions
BR0316174A (pt
Inventor
Dirk Adolph
Harald Schiller
Hartmut Peters
Jobst Hörentrup
Ralf Ostermann
Original Assignee
Thomson Licensing Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing Sa filed Critical Thomson Licensing Sa
Priority to BR122013022769A priority Critical patent/BR122013022769B1/pt
Publication of BR0316174A publication Critical patent/BR0316174A/pt
Publication of BRPI0316174B1 publication Critical patent/BRPI0316174B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0882Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of character code signals, e.g. for teletext
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Circuits (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Television Systems (AREA)
  • Adornments (AREA)
  • Manufacture, Treatment Of Glass Fibers (AREA)

Abstract

"método e aparelho para composição de legendas". a essência da invenção é um formato de legendação abrangendo elementos de sintaxe e semântica intensificadas para melhorar as capacidades de animação. os elementos revelados melhoram o desempenho de legenda sem forçar a taxa de bit de legenda disponível. isto tornará essencial para conteúdo de autorização de legendas de hdtv final alto em formato pré-gravado, que pode ser difundido ou armazenado em meios ópticos de capacidade alta, e.g. disco de raio azul. a invenção inclui capacidades para possibilidades de autorização melhoradas para a produção de conteúdo para animar legendas. para legendas que estão separadas do material av, o método inclui usar uma ou mais camadas de legenda sobrepostas, e exibir apenas uma parte selecionada das legendas transferidas de cada vez. também, as cores de uma parte selecionada das legendas exibidas podem ser modificadas, e.g. realçadas.

Description

"MÉTODO E APARELHO PARA COMPOSIÇÃO DE LEGENDAS PARA APRESENTAÇÕES DE ÁUDIO/VÍDEO e MEIO DE ARMAZENAMENTO ÓPTICO RELACIONADO" A invenção diz respeito a um método e a um aparelho para composição de legendas para apresentações de áu-dio/video que podem ser usadas, por exemplo, para legendas de HDTV em formatos pré-gravados como o assim chamado Disco Blue-ray.
ANTECEDENTES A técnica de legendagem para material Audiovisual (AV) tem sido usada começando com os primeiros filmes cinematográficos celulóides e também até os recentes meios digitais aparecerem. 0 alvo principal de legendagem tem sido o suporte de pessoas deficientes ou grupos de linguagem etnográfica pequenos. Portanto, legendagem frequentemente visa a apresentação de informação de texto até mesmo quando tendo sido codificado como mapas de pixels de dados gráficos. Portanto, material de AV pré-produzido para transmissão (Closed Caption, Teletexto, legenda de DVB etc.) e discos de filme (Legendas de DVD etc.) primariamente são otimizados para legendas representando informação textual estática simples. Porém, progressos no desenvolvimento de software de PC para apresentação e animação de informação textual induz a uma demanda correspondente por possibilidades e recursos dentro da técnica de legendagem digital usada para pré-gravação e transmissão. Usando métodos diretos sem qualquer precaução especial, estes requerimentos aumentados por legendagem consumiríam uma porção muito grande da largura da banda geral limitada. Os requerimentos contraditórios para uma legenda de 'recurso total' abrangendo desde karaokê até animações genuínas são por um lado a eficiência de codificação e por outro lado o controle total para qualquer autor de legenda.
Para o estado da técnica de hoje de legendar digi-talmente material AV com informação de legendagem separada, dois métodos principais existem: Legendagem pode ser com base em dados de pixel ou em dados de caractere. Em ambos os casos, os esquemas de legendagem compreendem uma estrutura geral, que por exemplo trata da sincronização dos elementos de legendagem ao longo do eixo geométrico de tempo AV.
Legendagem com base em dados de caractere: No método de legendagem baseada em caractere, e.g. no sistema de teletexto ETS 300 706 de TV analógica ou digital européia, as cadeias são descritas por sequências de códigos de letra, e.g. ASCII ou UNICODE, que intrinsicamente permitem uma codificação muito eficiente. Mas das cadeias de caracteres sozinhas, a legendagem não pode ser convertida em uma representação gráfica a ser superposta em vídeo. Para isso, o conjunto de caracteres intencionado, fonte e alguns parâmetros de fonte, mais notavelmente o tamanho da fonte, ou deve ser codificado explicitamente dentro do fluxo de bit de legendagem ou uma suposição implícita deve ser feita sobre eles dentro de um contexto de legendagem adequadamente definido. Também, qualquer legendagem neste método é confinada ao que pode ser expresso com as letras e símbolos da(s) fonte(s) específica(s) em uso. A especificação de Legendagem de DVB ETS 300 743, neste modo de "objetos de caractere", constitui outro exemplo de estado da técnica de legendagem com base em caractere.
Legendagem com base em dados de pixel: No método de legendagem baseada em pixel, as estruturas de legendagem são transportadas diretamente na forma de representações gráficas as descrevendo como regiões (tipicamente retangulares) de valores de pixel na tela AV. Sempre gue qualguer coisa é significado ser visível no plano de legendagem sobreposto no vídeo, seus valores de pixel devem ser codificados e fornecidos no fluxo de bit de legendagem, junto com informação de sincronização apropriada, e consequentemente para a animação de recurso total das legen-dações todo pixel alterado deve ser transportado. Obviamente, ao remover qualquer limitação inerente às animações de recursos totais de teletexto, o método baseado em pixel carrega a penalidade de uma largura da banda consideravelmente aumentada para os dados de legendagem. Exemplos de esquemas de legendagem com base em pixel podem ser encontrados no conceito de sub-imagem de DVD "Especificação de DVD para disco exclusivo de leitura", Parte 3: Vídeo, como também no conceito de "objeto de pixel" de Legendagem de DVB, especificado em ETS 300 743.
INVENÇÃO A essência da invenção é um formato de legendagem que abrange elementos de sintaxe e semântica intensificadas para fornecer capacidades de animação melhoradas. Os elementos descritos melhoram o desempenho de legenda sem forçar a taxa de bits de legenda disponível. Isto se tornará essenci- al para a autoria de conteúdo de legendas de HDTV de alto desempenho em formato pré-gravado gue pode ser difundido ou impresso em meios ópticos de capacidade alta, e.g. Disco Blue-ray. A invenção inclui capacidades para possibilidades de autoria melhoradas para a produção de conteúdo animar legendas .
Introduzidos pela descrição são elementos de sintaxe e semântica que descrevem a alteração de cor para partes de gráficos a exibir. Isto pode ser usado para efeitos de destaque em aplicações como por exemplo karaokê, evitando a transferência repetida de dados de pixel.
Outros elementos descritos de sintaxe e semântica facilitam a capacidade de recortes partes das legendas antes de exibi-las. Usando a técnica de parâmetros recortados subsequentemente transferida para um objeto a exibir, animação econômica de bit das legendas torna-se disponível. Tal parâmetro recortado pode ser usado por exemplo para gerar alterações de texto mediante caixas deslizantes, venezianas, função de deslocamento, limpezas, caixas de validação, etc.
Além disso, os elementos descritos podem ser usados para interativamente fornecer informação textual e gráfica. Especialmente, o posicionamento e/ou ajustes de cor das legendas podem ser manipulados com base na solicitação do usuário.
DESENHOS
Modalidades exemplares da invenção são descritas com referência aos desenhos e tabelas em anexo, que mostram: Fig. 1: valores de tipo de segmento para PCS e RCS intensificados;
Fig. 2: Segmento de composição de página intensificado;
Fig. 3: Segmento de composição de região intensificado;
Fig. 4: Exemplo para a definição de uma região de legenda e sua localização dentro de uma página;
Fig. 5: Exemplo para a definição de uma região de sub-CLUT e região de recorte;
Fig. 6: Exemplo de exibição resultante;
Fig. 7: Uso interativo de legendas;
Fig. 8: Planos de video e gráficos;
Fig. 9: Mistura e comutação de video e gráficos.
MODALIDADES EXEMPLARES A invenção pode preferivelmente ser incorporada com base na sintaxe e semântica da especificação de legenda de DVB (DVB-ST). Para fornecer capacidades melhoradas para a manipulação de elementos gráficos de legenda, a semântica do segmento de composição de página de DVB-ST (PCS) e do segmento de composição de região (RCS) são expandidas. DVB_ST usa segmentos de composição de página (PCS) para descrever as posições de uma ou mais regiões retangulares na tela de exibição. Os segmentos de composição de região (RCS) são usados para definir o tamanho de qualquer tal área retangular e identifica a tabela de consulta de cores (CLUT) usada dentro. A invenção proposta mantém a compatibilidade anterior com DVB-ST usando diferentes tipos de segmentos para os elementos intensificados de PCS e RCS, como listados na Fig.l mostrando valores de tipo de segmento de acordo com DVB-ST, com valores adicionais para PCS intensificados e RCS intensificados. Seria também possível do contrário selecionar outros valores. Outro método para manter a compatibilidade anterior seria manter os tipos de segmentos existentes e aumentar o version_number da especificação, e.g. incrementando o subtitle_stream_id na estrutura de PES_data_field.
Fig. 2. mostra a estrutura de dados de um segmento de composição de página intensificado (PCS) contendo uma seção region_cropping e uma seção region_sub_CLUT. Fig. 3 mostra a estrutura de dados de um segmento de composição de região intensificado (RCS), contendo um identificador sub_CLUT_id para uma sub-tabela de consulta de cores. Com respeito ao DVB-ST original, todas as estruturas mostradas são expandidas. Nas tabelas as entradas adicionais são as linhas 15-28 na Fig. 2 e a linha 16 na Fig. 3.
Os PCS intensificados mostrados na Fig. 2 portam informação opcional acerca da region_cropping e informação opcional sobre a region_sub_CLUT para cada região listada.
Os dois valores de region_cropping e re-gion_sub_CLUT indicam se tal informação opcional está disponível para a região atual no processo. Portanto recorte e sub-CLUT podem ser definidos separadamente para cada região. Embora region_cropping seja usada como um flag, como indicado por "if region_cropping==0x01", a region_sub_CLUT mostra o valor de quantas posições de sub-CLUT são descritas. Isto é feito para fornecer alternativas diferentes dentro do flu- xo. Posições de sub-CLUT alternativas podem ser usadas para definir diferentes posições de botão de menu para a tela de exibição. Apenas uma delas - a primeira como uma predefini-ção - é ativa e o usuário pode alterar a posição para navegar pelas diferentes posições predefinidas pressionando o controle remoto por exemplo.
Os RCS intensificados mostrados na Fig. 3 portam o sub_CLUT_id identificando a família de CLUTs que se aplica a esta região. Isto é feito para re-usar CLUTs para regiões diferentes e sub_CLUTs de região diferente também.
Os elementos intensificados de PCS e RCS fornecem a capacidade que as legendas podem ser manipuladas independente do método de codificação i.e. independente se elas são codificadas como dados de caractere ou dados de pixel.
Os PCS e RCS intensificados podem ser usados para executar muitos efeitos de animação diferentes para as legendas. Aqueles poderíam ser caixas deslizantes, venezianas, função de deslocamento, limpezas, caixas de validação, etc. As figuras a seguir mostram um exemplo de aplicação para karaokê. Fig. 4 mostra a definição de uma região R contendo letras de uma música exibida para karaokê. As letras da legenda podem ser codificadas como dados de pixel ou como dados de caractere também. 0 region_vertical_address RVA e o region_horizontal_address RHA definem a localização da legenda dentro da estrutura, ou página PG, a exibir.
Fig. 5 descreve na parte superior a região de recorte e na parte inferior a localização da região sub-CLUT. Região de recorte define que parte da região é exibida efi- cazmente. Isto é alcançado através de quatro parâmetros RHC, RVC, RCH, RCW indicando as coordenadas de inicio e o tamanho do fragmento a exibir. region_horizontal_cropping RHC especifica o endereço horizontal do pixel esquerdo do topo deste recorte, region_vertical_cropping RVC especifica o endereço vertical da linha de topo deste recorte, re-gion_cropping_width RCW especifica o comprimento horizontal deste recorte e region_cropping_height RCH especifica o comprimento vertical deste recorte, em que recorte significa aquela parte das legendas que está visível em uma exibição. A localização da região sub-CLUT mostrada na parte inferior da Fig. 5 define que parte da região tem que ser exibida usando uma tabela de consulta de cores (CLUT) diferente da região CLUT. Isto é alcançado através de quatro parâmetros SCHA, SC VA, SCH, SCW indicando as coordenadas de início e o tamanho da sub-região usada pela sub-CLUT. Todos os parâmetros de coordenada serão entendidos com relação à região que a sub-CLUT pertence. sub_CLUT_vertical_address SC VA especifica o endereço horizontal do pixel esquerdo do topo desta sub-CLUT, sub_CLUT_vertical_address SCVA especifica o endereço vertical da linha de topo desta sub-CLUT, sub_CLUT_width SCW especifica o comprimento horizontal desta sub-CLUT e sub_CLUT_height SCH especifica o comprimento vertical desta sub-CLUT.
Apanhando todos os parâmetros definidos com as figuras anteriores resulta na legenda exibida como descrito na Fig. 6. A legenda não é descrita ao todo na exibição mas apenas na parte recortada dela. Além disso, a sub-CLUT foi usada para fornecer um destaque HT, de forma que o usuário sabe o que cantar no momento.
Como os PCS intensificados são enviados dentro dos pacotes de fluxo elementar (PES) de pacote de MPEG marcados pelos selos de tempo de apresentação (PTS), qualquer efeito pode ser sincronizado ao AV.
Outra idéia da invenção é a substituição dos parâmetros de animação de legenda pelo usuário. Isto oferece um modo para perceber legendas interativas. Os parâmetros de PCS intensificados são transferidos como uma predefinição, e o usuário pode alterá-los por meio de um controle remoto por exemplo. Desse modo o usuário é capaz de mover, colher ou destacar a legenda.
Isto pode ser uma vantagem para um reposicionamento definido pelo usuário de um texto de legendagem, de forma que o usuário pode subjetivamente minimizar o contratempo pela colocação de texto de legenda em cima do filme. Também a cor das legendas pode ser ajustada de acordo com as preferências dos usuários. Fig. 7 mostra um diagrama de blocos para modificações de legenda interativas. Os parâmetros pre-definidos DD lidos de um disco D são substituídos substituindo os dados de sobreposição SD que são gerados na ação do usuário UA e processados por um processador P.
Outra aplicação para anular os parâmetros de animação de legenda como posição, retângulo de recorte, CLUTs e sub-CLUTs é a realização de algum tipo muito básico de jogo interativo. A legenda pode portar dados de pixel de um ca-ractere animado. Este caractere é subsequentemente movido na tela de exibição acionado ou por interação do usuário, controle programático ou ambos. A anulação dos parâmetros de animação de legenda pode ser implementada em pelo menos dois modos. A primeira opção é que os parâmetros de anulação SD substituem o envio de parâmetros DD no fluxo de bit. A segunda opção é que os parâmetros de anulação SD são usados como uma compensação que é adicionada ou subtraída do envio de parâmetros DD de animação de legenda no fluxo de bit.
Os PCS e RCS intensificados fornecem muito mais capacidades de animação não explicadas. A seguir é uma lista não-exaustiva de exemplos: caixas deslizantes, venezianas, função de deslocamento, limpezas, caixas de validação em detalhes .
Planos de vídeo e gráficos exemplares são mostrados na Fig. 8 de uma maneira esquemática exemplar. Uma base é fornecida ou por uma camada de vídeo de MPEG-2 MVL ou uma camada de imagem estática SPL. Elas são mutuamente exclusivas, que significa que ambas não necessitam ser mantidas em um buffer de cada vez. As próximas duas camadas compreendem uma camada de legenda SL e uma camada de gráficos do tipo de sincronização AV AVSGL. Estas duas camadas são neste exemplo alternáveis, significando que ou a camada de legenda SL ou a camada de gráficos do tipo de sincronização AV AVSGL pode ter prioridade uma sobre a outra. A camada frontal é uma camada de gráficos de sincronização não-AV NAVSGL, contendo gráficos que não necessitam ser sincronizados com o conteúdo AV, como e.g. menus ou outras exibições na tela. 0 método inventivo pode preferivelmente ser usado para a camada de legenda SL, a camada de gráficos de sincronização AV AVSGL e/ou a camada de gráficos de sincronização Não-AV NAVSGL.
Fig. 9 mostra os componentes relevantes de um aparelho para mistura e comutação de video e gráficos. Dados compreendendo quaisquer dados de imagem estática ou dados de video de MPEG-2, outros dados para legendas, dados para animações e dados para gráficos de sincronização não-AV como botões de menu, são recuperados de um disco D. Adicional ou alternativamente, dados para legendas, animações e/ou gráficos de sincronização de não-AV podem ser recebidos de uma rede NW, e.g. Internet. Uma unidade de processamento CPU processa os dados de gráficos de sincronização não-AV e envia os dados resultantes para um dispositivo de transmissão para gráficos de sincronização não-AV RNAVG. 0 aparelho contém um decodificador de imagem estática SPDec e um decodificador de video de MPEG-2 MVDec, mas uma vez que apenas um deles é usado de cada vez, um comuta-dor sl pode selecionar quais dados serão usados para outro processamento. Além disso, dois decodificadores idênticos AVSGDecl, AVSGDec2 são usados para decodificar os dados de legenda e animação. As saídas destes dois decodificadores AVSGDecl, AVSGDec2 podem ser comutadas por comutações independentes s2, s3 ou para um misturador MX ou para pré-processamento para um misturador e escalonador MXS, que produzem seus dados resultantes para o dito misturador MX. Estas duas unidades MX, MXS são usadas para executar a sobreposição de seus vários dados de entrada, desse modo contro- lando a ordem de exibição das camadas. 0 misturador MX tem entradas para uma camada frontal f2, uma camada frontal intermediária mf, uma camada posterior intermediária mb e uma camada de base b2. A camada frontal f2 pode ser nova, se o comutador correspondente s3 estiver em uma posição para conectar o segundo decodificador de gráficos de sincronização AV AVSGDec2 ao misturador e escalonador MXS. Esta unidade MXS tem entradas para a camada frontal fl, camada intermediária m e camada de base b. Ela sobrepõe estes dados correspondentemente e envia os dados de imagem resultante para a entrada de base b2 do misturador MX. Desse modo, estes dados representam e.g. uma estrutura compreendendo até três camadas de imagem e legendas, gue podem ser escaladas e movidas juntas dentro da imagem final. A entrada de base bl do misturador e escalonador MXS é conectada ao comutador SI acima mencionado, de forma que a base pode ser gerada de uma imagem estática ou um video de MPEG-2. A saída do primeiro decodificador de gráficos de sincronização AV AVSGDecl é conectada a um segundo comutador s2, que pode comutá-la para a entrada de camada intermediária m do misturador e escalonador ou para a entrada da camada posterior intermediária mb do misturador MX. A saída do segundo decodificador de gráficos de sincronização AV AVSGDec2 é conectada a um terceiro comutador s3, que pode comutá-la para a entrada de camada frontal fl do misturador e escalonador MXS ou para a entrada da camada frontal intermediária mf do misturador MX.
Dependendo das posições dos segundo e terceiro co- mutadores s2, s3, ou a saida do primeiro ou do segundo deco-dificador de gráficos de sincronização AV AVSGDecl, AVSGD2 pode ter prioridade uma sobre a outra, como descrito acima. Para ter os dados do primeiro decodificador AVSGDecl no primeiro plano, o segundo comutador s2 pode rotear os dados de legenda para a entrada posterior intermediária mb do misturador MX, enquanto o terceiro comutador s3 roteia os dados de gráficos de animação para a entrada frontal fl do misturador e escalonador MXS, de modo que termina na entrada de base b2 do misturador MX. Do contrário, para ter os dados do segundo decodificador AVSGDec2 no primeiro plano, os comuta-dores s2, s3 podem rotear suas saídas para a mesma unidade, ou o misturador e escalonador MXS ou o misturador MX, como mostrado na Fig. 9.
REIVINDICAÇÕES

Claims (8)

1. Método para composição de legendas para apresentações de áudio/video, em que os fluxos de dados contendo informação de video, áudio e de legenda são transferidos de um meio de armazenamento, como um disco, compreendendo as etapas de: recuperar do dito meio de armazenamento dados da camada de legenda, os dados da camada de legenda contendo elementos gráficos de legenda; CARACTERIZADO por extrair dos ditos dados da camada de legenda recuperados informação de recorte (RHC, RVC, RCH, RCW); e permitir o recorte das partes dos elementos de legenda a serem exibidas, em que as partes recortadas são definidas pela dita informação de recorte.
2. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que as partes recortadas dos elementos de legenda são sincronizadas com a apresentação de áudio/video através de selos de tempo de apresentação.
3. Método de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que os dados da camada de legenda compreendem dados para uma primeira tabela de consulta de cores a ser usada dentro de uma sub-região das ditas partes recortadas das legendas, a sub-região sendo especificada por parâmetros (SCHA, SCVA, SCH, SCW) inclusos nos ditos dados da camada de legenda, e adicionalmente compreendem dados para uma segunda tabela de consulta de cores diferente a ser usada no restante da camada de legenda.
4. Método de acordo com qualquer uma das reivindicações 1 a 3, CARACTERIZADO pelo fato de que um usuário pode interativamente mover, recortar ou destacar as legendas ou modificar as cores das legendas.
5. Aparelho para composição de legendas para apresentações de áudio/video, em que os fluxos de dados contendo informação de video, áudio e de legenda são transferidos de um meio de armazenamento, compreendendo um dispositivo para recuperar do dito meio de armazenamento dados da camada de legenda, em que os dados da camada de legenda contêm elementos gráficos de legenda; CARACTERIZADO por um dispositivo para extrair dos ditos dados da camada de legenda recuperados a informação de recorte (RHC, RVC, RCH, RCW); e um dispositivo para permitir recorte das partes dos elementos de legenda a serem exibidas, em que as partes recortadas são definidas pela dita informação de recorte.
6. Aparelho de acordo com a reivindicação 5, CARACTERIZADO pelo fato de que adicionalmente compreende um dispositivo para sincronizar as partes recortadas das legendas para a apresentação de áudio/video através de selos de tempo de apresentação.
7. Aparelho de acordo com a reivindicação 5 ou 6, CARACTERIZADO pelo fato de que adicionalmente compreende um decodificador de legenda (ST-DEC) que é capaz de substituir os parâmetros de legenda predefinidos (DD) pelos outros parâmetros de legenda (SD) gerados sob ação do usuário, para interativamente modificar ou realçar as legendas.
8. Meio de armazenamento óptico, contendo dados para apresentação de áudio/video e dados para composição de legendas para a dita apresentação de áudio/video, em que os dados para composição de legendas contêm: dados representando elementos gráficos de legenda a serem renderizados em uma camada de legenda; e CARACTERIZADO por informação de recorte (RHC, RVC, RCH, RCW) definindo as partes dos elementos gráficos de legenda a serem recortadas antes de exibir as legendas compostas pelo método definido na reivindicação 1.
BRPI0316174A 2002-11-15 2003-11-03 método e aparelho para composição de legendas para apresentações de áudio/vídeo e meio de armazenamento óptico relacionado BRPI0316174B1 (pt)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BR122013022769A BR122013022769B1 (pt) 2002-11-15 2003-11-03 aparelho para composição de legendas

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP02025474 2002-11-15
PCT/EP2003/012261 WO2004047430A1 (en) 2002-11-15 2003-11-03 Method and apparatus for composition of subtitles

Publications (2)

Publication Number Publication Date
BR0316174A BR0316174A (pt) 2005-09-27
BRPI0316174B1 true BRPI0316174B1 (pt) 2016-12-06

Family

ID=32319536

Family Applications (2)

Application Number Title Priority Date Filing Date
BRPI0316174A BRPI0316174B1 (pt) 2002-11-15 2003-11-03 método e aparelho para composição de legendas para apresentações de áudio/vídeo e meio de armazenamento óptico relacionado
BR122013022769A BR122013022769B1 (pt) 2002-11-15 2003-11-03 aparelho para composição de legendas

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR122013022769A BR122013022769B1 (pt) 2002-11-15 2003-11-03 aparelho para composição de legendas

Country Status (14)

Country Link
US (3) US7852411B2 (pt)
EP (1) EP1576809B1 (pt)
JP (10) JP4553248B2 (pt)
KR (2) KR101034969B1 (pt)
CN (1) CN100377582C (pt)
AT (1) ATE365423T1 (pt)
AU (1) AU2003279350B2 (pt)
BR (2) BRPI0316174B1 (pt)
CA (1) CA2506521C (pt)
DE (1) DE60314544T2 (pt)
ES (1) ES2289339T3 (pt)
MX (1) MXPA05005133A (pt)
WO (1) WO2004047430A1 (pt)
ZA (1) ZA200503868B (pt)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100377582C (zh) 2002-11-15 2008-03-26 汤姆森许可贸易公司 字幕合成方法和装置
US8737810B2 (en) * 2002-11-15 2014-05-27 Thomson Licensing Method and apparatus for cropping of subtitle elements
KR100939711B1 (ko) * 2002-12-12 2010-02-01 엘지전자 주식회사 텍스트 기반의 서브타이틀 재생장치 및 방법
WO2004090885A1 (en) * 2003-04-09 2004-10-21 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses of recording and reproducing
KR101033593B1 (ko) * 2003-04-29 2011-05-11 엘지전자 주식회사 그래픽 데이터 재생을 관리하기 위한 데이터 구조를 갖는기록 매체, 그에 따른 기록 및 재생 방법 및 장치
EP1652184A4 (en) * 2003-07-24 2007-05-23 Lg Electronics Inc RECORD MEDIA WITH A DATA STRUCTURE FOR MANAGING THE PLAYING OF TEXT SUBTITLE DATA RECORDED THEREFOR AND RECORDING AND PLAYBACK METHOD AND DEVICES
EP1721319A2 (en) * 2004-01-06 2006-11-15 LG Electronics Inc. Recording medium and method and apparatus for reproducing and recording text subtitle streams
KR20050072255A (ko) * 2004-01-06 2005-07-11 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 구성방법 및 재생방법과기록재생장치
KR20050078907A (ko) * 2004-02-03 2005-08-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치
RU2377669C2 (ru) * 2004-02-10 2009-12-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, имеющий структуру данных для управления различными данными, и способ и устройство записи и воспроизведения
EP1716567A2 (en) * 2004-02-10 2006-11-02 Lg Electronics Inc. Recording medium and method and apparatus for decoding text subtitle streams
WO2005076273A1 (en) * 2004-02-10 2005-08-18 Lg Electronic Inc. Recording medium having a data structure for managing font information for text subtitles and recording and reproducing methods and apparatuses
WO2005074394A2 (en) * 2004-02-10 2005-08-18 Lg Electronics Inc. Recording medium having a data structure for managing various data and recording and reproducing methods and apparatuses
EP1716573A1 (en) * 2004-02-10 2006-11-02 LG Electronic Inc. Recording medium having a data structure for managing data streams associated with different languages and recording and reproducing methods and apparatuses
EP1716701A1 (en) * 2004-02-10 2006-11-02 LG Electronic Inc. Text subtitle decoder and method for decoding text subtitle streams
US20050196146A1 (en) * 2004-02-10 2005-09-08 Yoo Jea Y. Method for reproducing text subtitle and text subtitle decoding system
JP2007522596A (ja) 2004-02-10 2007-08-09 エルジー エレクトロニクス インコーポレーテッド 記録媒体及びテキスト・サブタイトル・ストリームのデコード方法と装置
WO2005081643A2 (en) * 2004-02-26 2005-09-09 Lg Electronics Inc. Recording medium and method and apparatus for reproducing and recording text subtitle streams
WO2005088634A1 (en) * 2004-03-17 2005-09-22 Lg Electronics Inc. Recording medium, method, and apparatus for reproducing text subtitle streams
WO2005091722A2 (en) * 2004-03-26 2005-10-06 Lg Electronics Inc. Recording medium and method and apparatus for reproducing text subtitle stream recorded on the recording medium
CN101114500B (zh) * 2004-03-26 2010-06-09 Lg电子株式会社 用于再现和记录文本字幕流的记录介质以及方法和设备
JP4673885B2 (ja) * 2004-03-26 2011-04-20 エルジー エレクトロニクス インコーポレイティド 記録媒体及びテキストサブタイトルストリームの再生方法及びその装置
KR20060047266A (ko) * 2004-04-26 2006-05-18 엘지전자 주식회사 기록매체, 기록매체의 재생방법과 재생장치
JP4724710B2 (ja) * 2004-05-03 2011-07-13 エルジー エレクトロニクス インコーポレイティド テキストサブタイトルデータを再生管理するためのデータ構造を有する記録媒体及びこれと関連する方法及び装置
CN1328905C (zh) * 2004-06-29 2007-07-25 乐金电子(沈阳)有限公司 电视机的字幕错误修正装置及其方法
WO2006018786A1 (en) * 2004-08-20 2006-02-23 Koninklijke Philips Electronics N.V. Method of storing and transferring image signals
GB2419975A (en) * 2004-11-09 2006-05-10 Nokia Corp Auxiliary content handling
US20080238938A1 (en) * 2005-08-29 2008-10-02 Eklund Don Effects for interactive graphic data in disc authoring
US8015200B2 (en) * 2005-12-24 2011-09-06 Phil Seiflein Multimedia platform synchronizer
CN101005609B (zh) * 2006-01-21 2010-11-03 腾讯科技(深圳)有限公司 生成互动视频图像的方法及系统
US10267033B2 (en) * 2007-03-20 2019-04-23 Juan Garcia Universal barrier system panels
CN100471237C (zh) * 2007-11-19 2009-03-18 新奥特(北京)视频技术有限公司 一种视音频与图形分离播出系统
CN101616269B (zh) * 2008-06-27 2012-11-28 新奥特(北京)视频技术有限公司 一种基于字的结构生成阴影字幕的方法
CN101616270A (zh) * 2008-06-27 2009-12-30 新奥特(北京)视频技术有限公司 一种使用滤镜的字幕生成方法
CN101616274B (zh) * 2008-06-27 2013-09-18 新奥特(北京)视频技术有限公司 一种利用纹理坐标生成阴影字幕的装置
CN101616268A (zh) * 2008-06-27 2009-12-30 新奥特(北京)视频技术有限公司 一种利用纹理坐标生成阴影字幕的方法
CN101635804B (zh) * 2008-07-23 2011-07-06 晨星软件研发(深圳)有限公司 应用于电视系统上的字幕窗口输出方法与相关装置
CN102439980B (zh) * 2009-02-12 2014-12-10 Lg电子株式会社 广播接收机及其3d字幕数据处理方法
US9056249B2 (en) 2009-04-01 2015-06-16 Activision Publishing, Inc. Device and method for a streaming video game
JP4985807B2 (ja) 2009-04-15 2012-07-25 ソニー株式会社 再生装置および再生方法
KR20110018261A (ko) * 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
CN102082923A (zh) * 2009-11-30 2011-06-01 新奥特(北京)视频技术有限公司 字幕模板的字幕替换方法及装置
TWI400943B (zh) * 2010-03-01 2013-07-01 Matsushita Electric Tw Co Ltd A method and a system for adjusting the control of the border / subtitle color of the media screen
CN103140940B (zh) 2010-10-08 2014-04-23 三井化学株式会社 太阳能电池密封材料及太阳能电池模块
CN102724417B (zh) * 2011-05-09 2015-05-27 新奥特(北京)视频技术有限公司 一种百叶窗式实现字幕特效的方法及系统
CN102739976B (zh) * 2011-05-17 2017-06-13 新奥特(北京)视频技术有限公司 一种阴影的动态二维字幕的实现的方法及系统
JP2013032483A (ja) 2011-06-28 2013-02-14 Nitto Denko Corp 光学用両面粘着シート、光学部材、タッチパネル、画像表示装置、及び剥離方法
CN103945140B (zh) * 2013-01-17 2017-11-28 联想(北京)有限公司 视频字幕的生成方法及系统
CN103301881B (zh) * 2013-06-06 2014-11-05 山东科技大学 用于甲醛聚糖反应的交联聚苯乙烯固载苯并噻唑催化剂的制备方法
JP6398185B2 (ja) 2013-12-18 2018-10-03 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US20150255121A1 (en) * 2014-03-06 2015-09-10 Thomson Licensing Method and apparatus for composition of subtitles
CN107466477B (zh) * 2015-11-12 2021-08-10 松下电器(美国)知识产权公司 显示方法、计算机可读取记录介质以及显示装置
US10230812B1 (en) * 2016-01-29 2019-03-12 Amazon Technologies, Inc. Dynamic allocation of subtitle packaging
KR101961750B1 (ko) 2017-10-11 2019-03-25 (주)아이디어콘서트 단일 화면에서의 자막데이터 편집 시스템
CN108989876B (zh) * 2018-07-27 2021-07-30 青岛海信传媒网络技术有限公司 一种字幕显示的方法及装置
US10489496B1 (en) 2018-09-04 2019-11-26 Rovi Guides, Inc. Systems and methods for advertising within a subtitle of a media asset

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3891792A (en) 1974-06-25 1975-06-24 Asahi Broadcasting Television character crawl display method and apparatus
JPS6016777A (ja) * 1983-07-08 1985-01-28 Victor Co Of Japan Ltd 文字信号発生装置
JPS63175583A (ja) 1987-01-14 1988-07-19 Nec Corp 複数入力画像編集記録方式
DE3702220A1 (de) 1987-01-26 1988-08-04 Pietzsch Ibp Gmbh Verfahren und einrichtung zur darstellung eines gesamtbildes auf einem bildschirm eines bildschirmgeraetes
US4961153A (en) 1987-08-18 1990-10-02 Hewlett Packard Company Graphics frame buffer with strip Z buffering and programmable Z buffer location
JPS6480181A (en) * 1987-09-21 1989-03-27 Nippon Denki Home Electronics Teletext receiver
US4853784A (en) 1988-02-19 1989-08-01 The Grass Valley Group, Inc. Video switcher with independent processing of selected video signals
JPH0251489A (ja) 1988-08-12 1990-02-21 Sumitomo Electric Ind Ltd 分子線結晶成長装置
JPH0251502A (ja) 1988-08-15 1990-02-21 Idemitsu Petrochem Co Ltd 石油樹脂の製造方法
US5260695A (en) 1990-03-14 1993-11-09 Hewlett-Packard Company Color map image fader for graphics window subsystem
JPH0484708A (ja) 1990-07-27 1992-03-18 Mitsumi Electric Co Ltd 座標位置検出方式
US5214512A (en) 1991-02-11 1993-05-25 Ampex Systems Corporation Keyed, true-transparency image information combine
US5351067A (en) 1991-07-22 1994-09-27 International Business Machines Corporation Multi-source image real time mixing and anti-aliasing
JPH0537873A (ja) 1991-07-31 1993-02-12 Sanyo Electric Co Ltd 画像分割表示システム
JP2512250B2 (ja) 1991-09-13 1996-07-03 松下電器産業株式会社 動画表示ワ―クステ―ション
US5530797A (en) 1992-04-09 1996-06-25 Matsushita Electric Industrial Co., Ltd. Workstation for simultaneously displaying overlapped windows using a priority control register
DE69414275T2 (de) 1993-09-16 1999-05-06 Toshiba Kawasaki Kk Vorrichtung zur Synchronisierung von komprimierten Video- un Audiosignalen
JPH07203396A (ja) 1993-12-28 1995-08-04 Sony Corp 字幕データ復号化装置
JPH07226920A (ja) * 1994-02-10 1995-08-22 Matsushita Electric Ind Co Ltd カラオケ装置
JPH07250279A (ja) * 1994-03-08 1995-09-26 Sony Corp 字幕データ復号化装置
CA2168641C (en) 1995-02-03 2000-03-28 Tetsuya Kitamura Image information encoding/decoding system
JPH08234775A (ja) * 1995-02-24 1996-09-13 Victor Co Of Japan Ltd 音楽再生装置
US5930450A (en) 1995-02-28 1999-07-27 Kabushiki Kaisha Toshiba Recording medium, apparatus and method of recording data on the same, and apparatus and method of reproducing data from the recording medium
JPH08275205A (ja) * 1995-04-03 1996-10-18 Sony Corp データ符号化/復号化方法および装置、および符号化データ記録媒体
AU698969B2 (en) 1995-04-14 1998-11-12 Kabushiki Kaisha Toshiba Recording medium, device and method for recording data on the medium, and device and method for reproducing data from the medium
JPH08317301A (ja) * 1995-05-22 1996-11-29 Hitachi Ltd 映像出力装置
JP3326670B2 (ja) * 1995-08-02 2002-09-24 ソニー株式会社 データ符号化/復号化方法および装置、および符号化データ記録媒体
JPH0951489A (ja) * 1995-08-04 1997-02-18 Sony Corp データ符号化/復号化方法および装置
JP3446473B2 (ja) * 1996-04-12 2003-09-16 ソニー株式会社 文字情報伝送システムおよび伝送方法、文字情報送信および受信装置、ならびに、記録媒体
JP3962114B2 (ja) * 1996-09-17 2007-08-22 株式会社エクシング カラオケ装置
JPH10108129A (ja) 1996-09-26 1998-04-24 Kenwood Corp ビデオディスク再生装置
JP3966571B2 (ja) * 1997-04-02 2007-08-29 エルエスアイ ロジック コーポレーション デジタル・ビデオ・ディスクにおけるサブ・ピクチャ・ユニットの高速再生システム及び方法
JPH10304308A (ja) * 1997-04-23 1998-11-13 Sony Corp サブピクチャデータ作成方法および装置、ならびにサブピクチャデータ作成用プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000023061A (ja) 1998-07-02 2000-01-21 Sony Corp テレビジョン受信機
US6415437B1 (en) 1998-07-23 2002-07-02 Diva Systems Corporation Method and apparatus for combining video sequences with an interactive program guide
EP1365385B1 (en) 1998-11-09 2012-06-13 Broadcom Corporation Graphics display system with processing of graphics layers, alpha blending and composition with video data
US6741794B1 (en) 1999-01-29 2004-05-25 Sony Corporation System and method for flexibly blending multiple image planes in a video device
US6466220B1 (en) 1999-03-05 2002-10-15 Teralogic, Inc. Graphics engine architecture
US7623140B1 (en) 1999-03-05 2009-11-24 Zoran Corporation Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics
JP2001078149A (ja) * 1999-09-08 2001-03-23 Toshiba Corp メディア再生装置とメディア再生方法
DE19950490A1 (de) 1999-10-20 2001-04-26 Thomson Brandt Gmbh Verfahren zur Kodierung einer Bildsequenz sowie Teilbilddateneinheit zur Verwendung in einem elektronischen Gerät und Datenträger
US6493036B1 (en) 1999-11-17 2002-12-10 Teralogic, Inc. System and method for scaling real time video
GB2356999B (en) * 1999-12-02 2004-05-05 Sony Uk Ltd Video signal processing
DE10001369A1 (de) * 2000-01-14 2001-07-19 Infineon Technologies Ag Verfahren und Schaltungsanordnung zur Grafikdarstellung, insbesondere in einem digitalen Fernsehgerät
WO2001054400A1 (fr) * 2000-01-24 2001-07-26 Matsushita Electric Industrial Co., Ltd. Synthetiseur d'images, support enregistre et programme
JP4541482B2 (ja) 2000-02-29 2010-09-08 キヤノン株式会社 画像処理装置及び画像処理方法
TW522379B (en) * 2000-05-26 2003-03-01 Cyberlink Corp DVD playback system for displaying two types of captions and the playback method
TW505866B (en) 2000-06-04 2002-10-11 Cradle Technology Corp Method and system for creating multimedia document through network
JP2002016885A (ja) * 2000-06-30 2002-01-18 Pioneer Electronic Corp 映像再生装置及び映像再生方法
JP4978760B2 (ja) * 2000-08-23 2012-07-18 ソニー株式会社 画像処理方法および画像処理装置
WO2002019309A1 (en) * 2000-09-01 2002-03-07 Mixed Signals Technologies, Inc. System and method for displaying closed captions in an interactive tv environment
JP2002091409A (ja) 2000-09-19 2002-03-27 Toshiba Corp 副映像処理機能付き再生装置
JP2002216585A (ja) 2001-01-18 2002-08-02 Minebea Co Ltd 表示装置用タッチパネル
US7050109B2 (en) 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
DE10126790A1 (de) 2001-06-01 2003-01-02 Micronas Munich Gmbh Verfahren und Vorrichtung zur Darstellung von wenigstens zwei Bildern in einem Gesamtbild
AU2002348584B2 (en) 2001-10-23 2007-05-10 Samsung Electronics Co., Ltd. Information storage medium including markup document and AV data, recording method, reproducing method, and reproducing apparatus therefor
US7676142B1 (en) 2002-06-07 2010-03-09 Corel Inc. Systems and methods for multimedia time stretching
JP3794355B2 (ja) 2002-07-25 2006-07-05 カシオ計算機株式会社 再生制御装置および再生制御処理プログラム
US8737810B2 (en) * 2002-11-15 2014-05-27 Thomson Licensing Method and apparatus for cropping of subtitle elements
CN100377582C (zh) 2002-11-15 2008-03-26 汤姆森许可贸易公司 字幕合成方法和装置
JP5037873B2 (ja) 2006-08-07 2012-10-03 株式会社リコー 位置決め制御装置

Also Published As

Publication number Publication date
KR101034969B1 (ko) 2011-05-17
ATE365423T1 (de) 2007-07-15
JP2006506868A (ja) 2006-02-23
US20060013563A1 (en) 2006-01-19
US20140328572A1 (en) 2014-11-06
JP2011097593A (ja) 2011-05-12
EP1576809A1 (en) 2005-09-21
JP4553248B2 (ja) 2010-09-29
US20160323538A9 (en) 2016-11-03
CN1711756A (zh) 2005-12-21
JP2011142649A (ja) 2011-07-21
JP2011097592A (ja) 2011-05-12
ES2289339T3 (es) 2008-02-01
JP2010252371A (ja) 2010-11-04
KR20050089005A (ko) 2005-09-07
CA2506521C (en) 2010-04-27
JP5517318B2 (ja) 2014-06-11
DE60314544T2 (de) 2008-02-21
JP5108126B2 (ja) 2012-12-26
KR20100066591A (ko) 2010-06-17
BR122013022769B1 (pt) 2016-07-19
JP5201698B2 (ja) 2013-06-05
JP2013146099A (ja) 2013-07-25
EP1576809B1 (en) 2007-06-20
DE60314544D1 (de) 2007-08-02
CN100377582C (zh) 2008-03-26
JP5263842B2 (ja) 2013-08-14
MXPA05005133A (es) 2005-07-22
JP2011172221A (ja) 2011-09-01
JP5110715B2 (ja) 2012-12-26
US9503678B2 (en) 2016-11-22
JP4707125B2 (ja) 2011-06-22
CA2506521A1 (en) 2004-06-03
ZA200503868B (en) 2006-07-26
JP5108125B2 (ja) 2012-12-26
KR100989503B1 (ko) 2010-10-22
US20140327824A1 (en) 2014-11-06
JP2011015409A (ja) 2011-01-20
US7852411B2 (en) 2010-12-14
AU2003279350A1 (en) 2004-06-15
BR0316174A (pt) 2005-09-27
JP2011139496A (ja) 2011-07-14
US9462221B2 (en) 2016-10-04
JP4587338B1 (ja) 2010-11-24
WO2004047430A1 (en) 2004-06-03
JP2011091811A (ja) 2011-05-06
AU2003279350B2 (en) 2008-08-07
JP4707124B2 (ja) 2011-06-22

Similar Documents

Publication Publication Date Title
BRPI0316174B1 (pt) método e aparelho para composição de legendas para apresentações de áudio/vídeo e meio de armazenamento óptico relacionado
US9595293B2 (en) Method and apparatus for composition of subtitles
US20150255121A1 (en) Method and apparatus for composition of subtitles

Legal Events

Date Code Title Description
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 06/12/2016, OBSERVADAS AS CONDICOES LEGAIS.

B25D Requested change of name of applicant approved
B25G Requested change of headquarter approved
B25G Requested change of headquarter approved
B25A Requested transfer of rights approved