[go: up one dir, main page]

ES2808177T3 - Optimización de imágenes de alto rango dinámico para pantallas particulares - Google Patents

Optimización de imágenes de alto rango dinámico para pantallas particulares Download PDF

Info

Publication number
ES2808177T3
ES2808177T3 ES16822989T ES16822989T ES2808177T3 ES 2808177 T3 ES2808177 T3 ES 2808177T3 ES 16822989 T ES16822989 T ES 16822989T ES 16822989 T ES16822989 T ES 16822989T ES 2808177 T3 ES2808177 T3 ES 2808177T3
Authority
ES
Spain
Prior art keywords
image
peak
brightness
color
hdr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16822989T
Other languages
English (en)
Inventor
Mark Jozef Willem Mertens
Rutger Nijland
Mourik Johannes Gerardus Rijk Van
Johannes Yzebrand Tichelaar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Application granted granted Critical
Publication of ES2808177T3 publication Critical patent/ES2808177T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • G09G2320/0276Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping for the purpose of adaptation to the characteristics of a display device, i.e. gamma correction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0673Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Discrete Mathematics (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Color Image Communication Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Un aparato de transformación de color (201) para calcular colores resultantes (R2, G2, B2) de píxeles de una imagen de salida (IM_MDR) que se ajusta para una pantalla con un brillo pico de pantalla (PB_D) empezando desde colores de entrada (R,G,B) de píxeles de una imagen de entrada (Im_in) que tiene un código de luma máxima que corresponde a un primer brillo pico de imagen (PB_IM1) que es diferente del brillo pico de pantalla (PB_D), caracterizado por que el aparato de transformación de color comprende: - una unidad de determinación de transformación de color (4201,102; 2501) dispuesta para determinar una transformación de color (TMF) de datos de especificación de procesamiento de color (MET_1) que comprenden al menos una función de mapeo de luminancia (CC) recibida mediante una entrada de metadatos (116), datos de especificación de procesamiento de color que especifican cómo las luminancias de píxeles de la imagen de entrada (Im_in) han de convertirse en luminancias para aquellos píxeles de una segunda imagen (Im_RHDR) que tiene en correspondencia a su código de luma máxima un segundo brillo pico de imagen (PB_IM2), que es diferente del brillo pico de pantalla (PB_D) y el primer brillo pico de imagen (PB_IM1), y mediante el cual la división del primer brillo pico de imagen entre el segundo brillo pico de imagen es mayor que 2 o menor que 1/2; -una unidad de determinación de factor de escalamiento (4205, 200; 1310) dispuesta para determinar un factor multiplicativo común resultante (gt; Ls), estando dispuesta la unidad para determinar este factor multiplicativo común resultante: estableciendo en primer lugar a lo largo de una dirección predeterminada (DIR) que es ortogonal a una diagonal que representa una función de transformación de identidad de luminancias de imagen de entrada, una métrica prestablecida (1850, METR) para ubicar brillos pico de pantalla, y una posición (M_PB_D) en esa métrica que corresponde con el valor del brillo pico de pantalla (PB_D), empezando la métrica en la posición de la diagonal que representa una función de transformación de identidad, y en segundo lugar: establecer una segunda transformación de color (1803; F_M) para determinar al menos luminancias de los colores resultantes (R2, G2, B2) de píxeles de la imagen de salida (IM_MDR), segunda transformación de color que está basada en la transformación de color (TMF) y la posición (M_PB_D); y en tercer lugar: determinar el factor multiplicativo común resultante (gt; Ls) basándose en la segunda transformación de color (1803; F_M); y en donde el aparato de transformación de color (201) comprende adicionalmente - un multiplicador de escalamiento (114) dispuesto para multiplicar cada uno de los tres componentes de color de una representación de color de los colores de entrada por el factor multiplicativo común resultante (gt) para obtener los colores resultantes (R2, G2, B2); y en donde dos puntos exteriores (PBEH, PBE) de la métrica corresponden a un brillo pico (PB_H) de la imagen de entrada recibida (im_in) respectivamente mediante la imagen codificada de las funciones de transformación de color de otro brillo pico (PB_L) que puede reconstruirse a partir de esa imagen aplicando las funciones de transformación de color recibidas en metadatos que comprenden al menos una función de mapeo de tono (CC), y en donde el aparato calcula la imagen de salida (IM_MDR) para una pantalla con un brillo pico de pantalla (PB_D) que cae dentro de ese rango de brillos pico (PB_L a PB_H).

Description

DESCRIPCIÓN
Optimización de imágenes de alto rango dinámico para pantallas particulares
Campo de la invención
La invención se refiere a métodos y aparatos para optimizar los colores de píxeles, y en particular sus luminancias, en una entrada que codifica una imagen de escena de alto rango dinámico (HDR), en particular un vídeo que comprende un número de imágenes de HDR consecutivas, para obtener una apariencia artística correcta con un brillo pico de pantalla particular según se desea por un clasificador de color que crea el contenido de imagen, correspondiendo la apariencia a una apariencia de HDR de referencia de la imagen de HDR según se clasifica para una pantalla de referencia, por ejemplo una pantalla de masterización de alto brillo pico (PB), cuando la imagen optimizada se representa en cualquier pantalla real de un brillo pico (PB_D) de manera no igual a la de la pantalla de referencia que corresponde a la que se realizó la clasificación de la imagen de HDR. El lector entenderá que una apariencia correspondiente no significa necesariamente una apariencia que es exactamente la misma para un observador, puesto que las pantallas de brillo pico inferior (o rango dinámico) nunca pueden representar realmente todas las apariencias de imagen representables en una pantalla de brillo pico superior de manera exacta, sino que en su lugar habrá alguna compensación en los colores de al menos algunos píxeles de objeto, ajustes de color que la tecnología permite entonces que haga el clasificador. Pero la imagen pretendida codificada y la imagen representada realmente parecerán suficientemente similares. Se describen tanto los métodos como los aparatos del lado de codificación para especificar una apariencia de este tipo, así como los aparatos del lado de recepción, tales como, por ejemplo, una pantalla o televisión, dispuestos para calcular y representar la apariencia optimizada, así como métodos y tecnologías para comunicar información usada para controlar la optimización haciendo transformaciones de color.
Antecedentes de la invención
Recientemente varias compañías han empezado a investigar y publicar (véase el documento WO2007082562 [Max Planck], un método de dos imágenes con una capa residual, y el documento WO2005104035 [Dolby Laboratories], que enseña un método en cierto modo similar en el que se puede formar una imagen de relación para potenciar una reclasificación de bajo rango dinámico (LDR) de una escena de HDR) sobre cómo puede codificar al menos una imagen fija, o un vídeo de varias imágenes temporalmente sucesivas, denominadas imágenes de alto rango dinámico, imágenes de HDR que están caracterizadas por lo que típicamente codifican o pueden codificar al menos algunas luminancias de objeto de al menos 1000 nits, pero también luminancias oscuras de por ejemplo por debajo de 0,1 nits, y son de suficiente calidad para representarse en denominadas pantallas de HDR, que tienen brillos pico (que son la luminancia del blanco de visualización, es decir el color más brillante representable) típicamente por encima de 800 nits, o incluso 1000 nits, y potencialmente por ejemplo 2000 o 5000 o incluso 10.000 nits. Por supuesto, estas imágenes de digamos una película pueden y deben ser mostrables en una pantalla de LDR con un brillo pico típicamente alrededor de 100 nits, por ejemplo cuando el observador desea continuar viendo la película en su pantalla portátil, y típicamente son necesarias algunas luminancias de objeto diferente y/o colores en el LDR frente a la codificación de imagen de HDR (por ejemplo, la luminancia relativa en un rango [0,1] de un objeto en un clasificador de HDR puede ser necesario que sea mucho inferior en la imagen clasificada de LDR, puesto que se visualizará con una retroiluminación mucho más brillante). Huelga decir también que la codificación de vídeo puede tener requisitos adicionales en comparación con la codificación de imagen fija, por ejemplo para permitir procesamiento en tiempo real económico, etc.
Por lo que típicamente el creador de contenido hace una versión o apariencia de imagen de HDR, que es típicamente la clasificación maestra (el punto de inicio desde el cuál pueden crearse clasificaciones adicionales, que son apariencias en la misma escena cuando se necesita representar en pantallas con capacidades de brillo pico diferentes, y que típicamente se hace proporcionando los diversos objetos en una imagen directa de colores artísticos bonitos de cámara, para transportar, por ejemplo, algún estado anímico). Es decir con "una clasificación" indicamos que una imagen se ha adaptado así por un clasificador de color humano para que los colores de los objetos parezcan artísticamente correctos para el clasificador (por ejemplo, él puede hacer un sótano oscuro en el que los objetos en las sombras son difícilmente visibles, sin embargo, también hay una única lámpara en el techo que brilla de manera brillante, y aquellas diversas luminancias representadas pueden necesitar coordinarse de manera inteligente para proporcionar al observador la experiencia óptima) para un escenario de representación pretendido dado, y a continuación enseñamos los componentes técnicos para posibilitar un proceso de clasificación de este tipo que produce una imagen clasificada también denominada una clasificación, dadas nuestras limitaciones de codificación de HDR. Y a continuación el clasificador típicamente también hace una imagen de LDR heredada (también denominada imagen de SDR convencional), que puede usarse para dar servicio a las pantallas de LDR heredadas, que pueden aún estar en el campo durante mucho tiempo. Estas pueden transmitirse como alternativa como comunicaciones de imagen separadas, por ejemplo, una red de comunicación de vídeo como internet, o un canal DVB-T. O los documentos WO2007082562 y WO2005104035 enseñan métodos de codificación escalables, en los que la imagen de HDR puede reconstruirse en un lado de recepción de la imagen de LDR, algún mapeo de tono en ella, y una imagen HDR de residual para llegar suficientemente cerca del HDR original (pero únicamente esa imagen de HDR con aquellos colores de píxel particulares y luminancia de objeto que pueden reconstruirse a partir de la imagen de LDR de capa de base). Una codificación escalable de este tipo podría a continuación almacenarse conjuntamente en un producto de memoria como por ejemplo un lápiz de memoria de estado sólido, y los aparatos de lado de recepción, por ejemplo una televisión, o un decodificador de salón (STB), pueden a continuación determinar cuál sería la versión más apropiada para su televisión conectada.
Es decir, se almacena en un sector de la memoria las imágenes de LDR básicas, y en otro sector las imágenes de HDR, o las imágenes de corrección tal como imagen de potenciación de luminancia a partir de la cual puede empezarse a calcular a partir de las correspondientes imágenes de LDR los mismos momentos de tiempo de las imágenes de HDR. Por ejemplo para televisiones de hasta 700 nits sea cual sea la unidad que haga el cálculo de la imagen última a representarse en la televisión, pueden usar la imagen clasificada de LDR, y por encima de 700 nits pueden usar la imagen de HDR (por ejemplo, consultando qué pantalla de cuál PB está conectada, o sabiendo si esa pantalla hace la mejor selección de imagen por sí misma).
Aunque esto permite hacer dos clasificaciones de referencia artísticamente perfectas de una escena de HDR para dos escenarios de representación específicos, por ejemplo una televisión de 5000 nits, y una LDR (norma que tiene PB de 100 nits), se ha realizado poca investigación y poca publicación sobre cómo pueden manejar las televisiones intermedias de brillo pico intermedio el brillo pico que corresponde a las dos imágenes de clasificación artísticas que pueden recuperarse o determinarse en un lado de recepción de datos de imagen (definiéndose el correspondiente brillo pico de una codificación como la luminancia a representarse en una pantalla de referencia cuando se introduce el código máximo, por ejemplo 1023 para 10 bit, por ejemplo 5000 nits para una apariencia clasificada de 5000 nits) que sin ninguna duda se implementará también pronto en el mercado, por ejemplo una televisión de 1800 nits. Por ejemplo, el creador de contenido puede gastar tiempo considerable para hacer una clasificación de HDR maestra de 1000 nits de su película, puesto que, por ejemplo, los 1000 nits pueden ser un brillo pico de contenido acordado PB_C (es decir el color de píxel más brillante que pueda definirse, que será un color acromático blanco) para esa norma de codificación de vídeo HDR particular que él usa, y él puede gastar más o menos tiempo derivando un correspondiente conjunto de imágenes de LDR (o también denominado recientemente rango dinámico convencional SDR, puesto que era la norma habitual para hacer vídeo heredado de LDR, por ejemplo de acuerdo con la rec. 709), con un brillo relacionado, respectivamente, de apariencia de contraste. Pero significa que hay únicamente un vídeo de apariencia buena disponible en el caso de que el observador tenga exactamente una pantalla de PB_D HDR de 1000 nits específica, o una pantalla de SDR heredada. Pero ni se espera que todas las personas tendrán pantallas con exactamente la misma clase de pantalla con el mismo brillo pico de pantalla PB_D, ni que en el futuro todo el vídeo se codificará con exactamente el mismo contenido o brillo pico de codificación PB_C (es decir, alguien que compre la pantalla óptima para contenido de BD, puede aún tener una pantalla subóptima cuando el mercado se mueva hacia entrega basada en internet con PB_C=5000 nits), y hay aún influencia del entorno de visualización, en particular, su brillo e iluminancia promedio. Por lo que mientras que todos los intentos en la codificación de HDR se han centrado esencialmente en obtener contenido a través de un medio de comunicación, y no pudiendo decodificar en absoluto las imágenes de HDR en un lado de recepción, el solicitante piensa que cualquier sistema de manejo de HDR pragmático necesita tener más capacidades. El solicitante ha hecho experimentos que muestran que para tener una apariencia artística convincente realmente buena para cualquier pantalla intermedia o incluso una fuera de rango (por ejemplo, obtener una apariencia de 50 nits que está por debajo de la clasificación más baja que puede ser típicamente 100 nits), ni la imagen de HDR ni la de LDR son realmente buenas para esa pantalla de brillo pico intermedio (que llamaremos en este punto a continuación una pantalla de rango dinámico medio (MDR)). Y dicho esto, qué clase de pantalla de MDR se tiene, incluso depende del PB_C de las imágenes de HDR que se están recibiendo o solicitando. También, podría ocurrir que el consumidor tenga una televisión real u otra pantalla presente en su sala de estar que es más brillante que el brillo pico de la pantalla de referencia como una pantalla pretendida óptima para la clasificación de imagen de h Dr recibida, es decir por ejemplo 10000 nits frente a 5000 nits, y a continuación puede ser deseable tener una clasificación mejorada para estas pantallas más brillantes también, a pesar del hecho de que el creador de contenido pensara que era únicamente necesario especificar su apariencia en la escena de HDR para pantallas de PB de hasta 5000 nits. Por ejemplo, el solicitante halló que en escenas críticas, por ejemplo una cara de una persona en la oscuridad, pueden' volverse demasiado oscuras' usando la imagen de HDR debido al contraste inapropiadamente alto de esa imagen de HDR para una representación de pantalla de brillo pico inferior, además la imagen de LDR es demasiado brillante en muchos lugares, lo que desafía drásticamente el estado anímico de, por ejemplo, una escena nocturna. La Figura 14 muestra un ejemplo de un manejo de imagen de escena de HDR típico que deseamos poder conseguir. 1401 muestra la escena original, o al menos, cómo se ha aproximado en un clasificador de HDR maestro (puesto que típicamente no codificará el sol como se representaría en una pantalla en su brillo de 1000 millones de nits, sino en su lugar como, por ejemplo, píxeles de 5000 nits). Observamos una escena que tiene algunos objetos de interiores, que pueden ser relativamente más oscuros, pero típicamente no realmente oscuros, por ejemplo entre 1 y 200 nits, y algunos objetos de exteriores soleados observados a través de la ventana, como la casa, que pueden tener en la vida real luminancias de varios 1000 de nits, pero que para visualización de televisión en interiores en momento nocturno se representan mejor alrededor de, por ejemplo, 1000 nits. En una primera clasificación, que solicitaremos una clasificación de HDR con un brillo pico de la primera imagen en su simple ejemplo PB_IM1 que corresponde a un brillo pico de HDR PB_H de por ejemplo 5000 nits, hallaremos útil situar los objetos de interiores relativamente por debajo en un eje de luminancia relativo (de modo que en un eje de luminancia absoluto representaría luminancias alrededor de 30 nits), y los objetos exteriores estarían en algún lugar alrededor o por encima del medio del rango de luminancia, dependiendo de las preferencias del clasificador para esta captura en, por ejemplo, la película, o difusión, etc., (en caso de difusión en directo, la clasificación puede ser tan sencilla como simplemente ajustar unos pocos parámetros antes de emitir en directo, por ejemplo usando un mapeo en mayor medida fijo entre la apariencia de HDR y LDR, pero añadiendo, por ejemplo, un único parámetro gpm para posibilitar el ajuste de pantalla). Qué códigos reales corresponden a las luminancias deseadas no depende únicamente del PB de la codificación, sino también de la forma de la función de asignación de código usada, que en ocasiones también se denomina una conversión opto-electrónica o función de transferencia (OECF; también denominada OETF), y que para codificación de HDR típicamente tiene una forma empinada, más empinada que las funciones de gamma 1/2,2 de LDR (el experto en la materia entenderá que pueden formularse las tecnologías en cualquier representación, por lo que donde por simplicidad en este punto a continuación aclaramos nuestros conceptos en representaciones de luminancia, al menos algunas de las etapas pueden aplicarse de manera análoga haciendo los cambios necesarios en lumas, es decir, por ejemplo, las codificaciones de 10 bits de las luminancias).
Se necesita una apariencia de LDR correspondiente (en este ejemplo sencillo denominada IM_GRAD_LXDR), para la cual por supuesto todos los diversos objetos del rango dinámico de luminancia mayor tienen que comprimirse en un rango dinámico menor, que corresponde a PB de 100 nits. El clasificador definirá estrategias de transformación de color, típicamente funciones sencillas para mantener los circuitos integrados de comunicación de vídeo sencillos al menos para los años venideros, que definen cómo reposicionar las luminancias de todos los objetos (por ejemplo como puede observarse se necesitaría colocar la casa cerca del máximo del rango de luminancia y correspondiente rango de código para mantener que parezca suficientemente brillante en comparación con los interiores, que puede hacerse, para ciertas realizaciones por ejemplo, con un mapeo de tono de recorte suave). Esto es lo que se especifica en el lado de creación de contenido, en un aparato de clasificación 1402, y un aparato que usa contenido puede necesitar determinar, basándose en información de las apariencias clasificadas (S_im) que recibe a través de algún medio de comunicación de imagen (1403), qué luminancias óptimas deberían tener los diversos objetos para una pantalla real que tiene un brillo pico que es desigual al brillo pico que corresponde a cualquiera de las dos clasificaciones artísticas recibidas (o al menos datos de estas imágenes). En este ejemplo eso puede implicar diversas estrategias. Por ejemplo, los objetos de interiores oscuros pueden representarse bien en pantallas de cualquier PB, incluso de 100 nits, por lo tanto la optimización de color puede mantenerlos a o cerca de 30 nits para sea cual sea el PB pretendido. La casa puede que necesite obtener un poco más de luminancia para representarse entre las clasificaciones de LDR y HDR, y al sol puede proporcionársele el color más brillante posible (es decir PB) en cualquier pantalla conectada o que se vaya a conectar.
Ahora deseamos destacar ya, como se hará evidente más tarde, que hemos desarrollado una estrategia que puede codificar de manera sorprendente una escena de HDR (que es por lo que introducimos la nomenclatura escena) en realidad como una imagen de LDR (+ metadatos de transformación de color), así, mientras que por simplicidad de entendimiento de diversos de nuestros conceptos y meta-estructuras técnicas podemos aclarar con un escenario donde Im_1, la imagen a comunicarse a un lado de recepción es una imagen de HDR, que puede reclasificarse en una imagen de LDR, los mismos principios son también usables, y se usarán en otros escenarios de mercado importantes, en el caso Im_1 es realmente una clasificación de LDR (que puede ser en un lado de recepción que va a reclasificarse en una imagen de HDR, o cualquier imagen de rango dinámico medio MDR, o cualquier imagen fuera del rango de las clasificaciones de LDR y HDR comunicadas).
La Figura 29 resume esquemáticamente lo que parecería un sistema de codificación de acuerdo con las invenciones anteriores del solicitante en la dirección que ahora se desarrollará más.
Hay alguna fuente de imagen 2901 de las imágenes originales de HDR, que pueden ser, por ejemplo, una cámara para la realización de programa de vídeo al vuelo, suponemos para centrar la mente, que será, por ejemplo, un almacenamiento de datos que crea la película clasificada previa al color, es decir todos los colores y en particular brillos de los píxeles se han hecho óptimos para presentarse en, por ejemplo, una pantalla de referencia PB_D de 5000 nits, por ejemplo, por un clasificador de color humano. A continuación, la codificación de estos datos puede significar, en este ejemplo lo siguiente (pero nos gustaría destacar que podemos codificar también algunas imágenes de HDR, y en particular el ajuste para obtener las imágenes óptimas para una pantalla de MDR puede no funcionar basándose en degradar las imágenes de HDR recibidas igual de bien, basándose en la filosofía de tener información específica de contenido muy importante en las funciones de transformación de color relacionadas con dos apariencias de rango dinámico diferentes en la misma escena, típicamente algunas bastante aptas, es decir imagen o imágenes de HDR de alto PB_C, y una imagen o imágenes de SDR). El codificador 2921 comprime en primer lugar una unidad de transformación de color 2902, dispuesta para convertir las imágenes de HDR maestras en una imagen de SDR adecuada. Adecuada, típicamente significa que la apariencia será una aproximación cercana a la apariencia de HDR, mientras mantenga suficiente información de color para hacer en un lado de recepción la reconstrucción de las imágenes de apariencia de HDR de 5000 nits de las imágenes de SDR recibidas. En la práctica eso significará que un clasificador humano, o algún algoritmo inteligente después de analizar los detalles específicos de la imagen de HDR, como por ejemplo cantidades y potencialmente posiciones de clases de píxeles con valores particulares de su luminancia de HDR, seleccionará las curvas de degradación apropiadas, para las que en el sistema más sencillo habrá únicamente una, por ejemplo la curva CC, o solamente, de manera análoga haciendo los cambios necesarios, otra curva de degradación aproximada Fcrs. Esto posibilita que el codificador haga imágenes de SDR Im_LDR, que son solamente imágenes de SDR normales (aunque cuando se acoplan con las funciones relacionadas con esta apariencia de SDR a la apariencia de HDR maestra original, contienen de manera precisa la información correcta también de la imagen de h Dr , es decir para poder reconstruir la imagen o imágenes de HDR. Ya que estas son simplemente imágenes SDR, pueden no únicamente representarse bien en pantallas heredadas (es decir de 100 nits PB_D), sino también, pueden codificarse mediante técnicas de codificación de vídeo de SDR normales, y eso es muy útil, puesto que ya hay un despliegue de hardware de miles de millones de dólares en el campo (por ejemplo en satélites) que entonces no necesita cambiarse. Por lo tanto, hemos desacoplado de manera inteligente la información de1HDR en funciones para codificación funcional, pero, en cuanto a la presente invención, que permite una segunda aplicación importante, en concreto, la capacidad de contenido optimizado inteligente para reclasificar las imágenes sea cual sea lo necesario para obtener una apariencia correspondiente en una imagen de MDR con cualquier PB_D. Esto obvia la necesidad de que el clasificador haga realmente todas tales terceras apariencia o apariencias, aunque aún se generarán de acuerdo con su visión artística, es decir, las necesidades particulares de este contenido, puesto que podemos usar las formas de sus funciones de transformación de color F_ct (en particular funciones de transformación de luminancia, puesto que la conversión de HDR a MDR está preocupada principalmente con la obtención del brillo correcto para todos los objetos de imagen, por lo que esta aplicación se centrará principalmente en ese aspecto), sea cual sea lo que hagan, que puede comunicarse conjuntamente también con las imágenes en píxeles de SDR como metadatos, cuando se derivan las imágenes de MDR óptimas. Por lo tanto, las imágenes de SDR reclasificadas (Im LDR) pasan a una unidad de codificación de vídeo 2903, que suponemos por simplicidad de aclaración que es un codificador de HEVC según está normalizado, pero el experto lector entenderá que puede ser cualquier otro codificador diseñado para comunicar las imágenes del rango dinámico seleccionado, es decir, en este ejemplo SDR. Esto produce imágenes de SDR codificadas, 1m_COD, y mensajes correspondientes, por ejemplo, SEI, SEI(F_ct), que comprenden todos los datos necesarios de las funciones de transformación, sin embargo, fueron diseñados para comunicarse (por ejemplo en diversas formulaciones paramétricas de las realizaciones, o LUT, que permiten diferente manejo de la derivación de las imágenes MDR de pantalla óptima, aunque pueden diseñarse realizaciones adecuadas para cualquier variante). Un formateador 2904 formatea cualquier cosa en un formato de señal necesario, por ejemplo ATSC para comunicarse a través de un canal por satélite, o algún formato adecuado para internet, etc. Por lo tanto, el medio de transmisión 2905 puede ser cualquier cosa, desde una red de cable, o alguna red de comunicación especializada, o alguna memoria empaquetada como un disco blu-ray, etc. En cualquier lado de recepción, si el aparato de recepción es un decodificador de salón, o pantalla, u ordenador, o receptor de cine de película profesional, etc., el aparato de recepción contendrá un desformateador 2906, que recrea el vídeo codificado de la señal decodificada. El decodificador de vídeo 2920 comprenderá de manera análoga haciendo los cambios necesarios una unidad de decodificación de vídeo 2907, por ejemplo un decodificador de HEVC, que también comprende un lector de datos de función (2911) dispuesto para recopilar metadatos de las funciones F_ct, y construir y presentarlos en el formato apropiado para su uso adicional, en esta solicitud la determinación optimizada de la imagen de MDR, de acuerdo con los diversos posibles algoritmos aclarados a continuación o sus equivalentes. A continuación la unidad de transformación de color 2908 estaría en una decodificación de HDR normal solo para crear una reconstrucción Im_RHDR de la imagen o imágenes de HDR maestras originales, sea cual sea como puedan ser, por ejemplo PB_C definidas de 1000 nits o 5000 nits. Ahora, sin embargo, en nuestras realizaciones a continuación, la unidad de transformación de color 2908 también tiene la posibilidad de reclasificar imágenes de manera óptima para sea cual sea la pantalla que tenga (por ejemplo, el usuario introduce en el STB que ha comprado una TV de 3000 nits 2910, o, si este decodificador ya está comprendido en la TV, por supuesto la TV tendrá conocimiento de sus propias capacidades). Hemos indicado esto esquemáticamente como que una unidad de ajuste de color 2902 está comprendida, que obtendrá información sobre todos los detalles específicos de la situación de visualización (en particular la PB_D de la pantalla que va a ser servida con imágenes), y a continuación usamos cualquiera de los métodos aclarados para ajustar de manera óptima los colores para llegar a una imagen de MDR, Im3000nit. Aunque esto puede parecer algo que uno desea hacer, poder realmente hacerlo de una manera razonable es una tarea compleja.
El solicitante ha pensado de manera genérica en el concepto de generar diversas clasificaciones adicionales (que son necesarias para hacer que las imágenes de escena de HDR recibidas parezcan óptimas sea cual sea el brillo pico de una pantalla conectada, y no por ejemplo demasiado oscuras o demasiado brillantes para al menos una parte de la imagen) basándose en imágenes clasificadas recibidas disponibles en los documentos WO2011/107905 y WO2012/127401, que enseñan los conceptos principales necesarios en el ajuste de pantalla, necesarios para todas o al menos una clase mayor de las realizaciones reales. Sin embargo, era aún un problema encontrar variantes de codificación sencillas, que se adapten a las limitaciones prácticas de, por ejemplo, complejidad de CI, capacidad de trabajo del clasificador, etc., que los inventores podrían hacer después de fijar algunos principios de terreno común para tal manejo de imagen de HDR práctico. En correspondencia, había aún un problema de cómo llegar con una tecnología sencilla coincidente para permitir al creador de contenido ajustar la clasificación optimizada de manera artística a al menos una pantalla presente real en un lado de recepción, y las diversas necesidades de ajuste de pantalla basadas en lo mismo.
Excepto donde y hasta el punto que se indique específicamente en esta descripción, cualquier análisis anteriormente con respecto a la técnica anterior o incluso creencias o interpretaciones particulares del solicitante de la técnica anterior para explicar alguna cosa, no se pretende que especifiquen de manera inadvertida ninguna limitación que, por ejemplo, deba estar, o podría estar en alguna de las realizaciones de nuestra presente invención. También, cualquier cosa no explícitamente mencionada no se pretende como alguna opción específica en la cual las características o variantes puedan o no estar razonadas en cualquier realización específica por una mera primera vista del conocimiento de la técnica anterior, o cualquier declaración implicada en la obviedad, etc. Debería quedar claro que algunas enseñanzas se añaden simplemente para un fin particular de dar algo de luz particular en algún aspecto que puede ser interesante a la luz de las múltiples realizaciones a continuación, y que dado la totalidad de las enseñanzas y lo que puede entenderse bien a partir de estas, algunos ejemplos de lo anterior pueden hacer referencia únicamente a algunas realizaciones ventajosas particulares.
Sumario de la invención
En particular, hemos desarrollado una tecnología de mapeo de luminancia muy útil (al menos mapeo de luminancia, puesto que dado los ya muchos factores y variantes de la realización por simplicidad de explicación ignoramos ahora la dimensión cromática de nivel de rojo y nivel de azul) que está basado en la multiplicación de los tres componentes de color por un único multiplicador común que está así optimizado en que contiene toda la inteligencia según es necesaria para crear la apariencia óptima de esa imagen de MDR de cualquier escena de HDR que es necesaria para representar la apariencia de esa escena en cualquier pantalla realmente disponible de un brillo pico de pantalla particular PB_D (el experto en la materia entiende que pueden tener lugar los mismos cálculos en un servidor, para dar servicio a una pantalla PB_D particular más tarde, es decir pantalla que no está realmente físicamente conectada al aparato de cálculo de color o luminancia). Si se procesan señales de color de RGB lineales, pero también potencias no lineales de estas como preferentemente los componentes Y'CbCr habituales de vídeo, pueden potenciarse (multiplicando los componentes por un único multiplicador resultante gt) de una manera similar como se potenciarían las luminancias de estos colores. Es decir, el creador de contenido puede a continuación especificar de acuerdo con sus deseos una estrategia de mapeo de luminancia, que puede estar formada en las realizaciones de diversas sub­ estrategias de mapeo, por ejemplo una potenciación de brillo general, una función arbitrariamente conformada de ajuste preciso (CC), etc., y este deseo puede a continuación calcularse realmente como varias estrategias multiplicativas. No hace falta decir, y ciertamente para nuestras técnicas actuales, que se necesita en las variantes más básicas únicamente una de tal especificación de función, en algunas realizaciones, ni siquiera para todas las posibles luminancias de la imagen de entrada, y cuando la llamamos CC en las explicaciones, puede ser también alguna otra función. En cualquier caso, sin embargo, por complejo que desee el creador especificar su mapeo de luminancia, puede observarse como diversas multiplicaciones que conducen a una multiplicación final, que puede ser realizable como una optimización de luminancia final, de la cual puede pensarse como componentes de color normalizados. Presentamos diversas realizaciones reales posibles basadas en ese principio, que a continuación separan el manejo de la luminancia del manejo de color.
Puesto que no es comúnmente conocido o usado de manera convencional por los ingenieros de codificación de vídeo, antes de sumergirse en detalles de la optimización de imagen de MDR, para asegurar que el lector obtenga los conocimientos y principios de los antecedentes, aclaramos el principio en la Figura 16. Supónganse que tenemos en este punto una función sigmoidal, para transformar cualquier luminancia de entrada posible Y_in (que corresponde a un código de luma de la imagen de entrada recibida y que va a procesarse Im_in, por ejemplo 950) en un valor de luminancia de salida, que también supondremos por simplicidad que será un valor normalizado entre 0,0 y 1,0. Puede escribirse a continuación esta función también como una multiplicación, que puede derivarse en comparación con la transformación unitaria (es decir, la diagonal). Si transformáramos, por ejemplo, un HDR Im_in en sí mismo, aplicaríamos también esa transformación unitaria. Si deseamos transformar las luminancias relativas de HDR en luminancias relativas de LDR (o luminancias en abreviatura), podemos aplicar la función sigmoidal. Pero podemos multiplicar de manera equivalente ese valor Y_in por el factor g de la curva derecha. Una estrategia multiplicativa de este tipo hace a la tecnología de HDR relativamente más sencilla, por ejemplo poniendo en cascada diversas transformaciones deseables, pero también es la importancia de esta solicitud, visualizar escenarios de ajuste, para llegar a una imagen de apariencia óptima, que corresponde en su mayoría a la apariencia de HDR maestra, para cualquier pantalla realmente conectada.
Como una imagen de HDR práctica (y de hecho al mismo tiempo una apariencia clasificada de LDR, usable para visualización directa en pantallas de l Dr heredadas) y en particular un método de codificación de vídeo, el solicitante inventó un sistema que almacena (o transmite) únicamente una del par de imágenes de HDR y LDR como una imagen principal que son los únicos datos de color de píxel transmitidos realmente (comunicándose la otra imagen paramétricamente como especificaciones de función de procesamiento de color para derivarla a partir de la imagen o imágenes realmente recibidas, y que adicionalmente puede, cuando se deriva, codificarse técnica, correcta y, a continuación, realmente, de acuerdo con técnicas de compresión clásicas (hágase lectura para un entendimiento rápido en, por ejemplo, un contenedor de luma de 8 bits de AVC o de 10 bits de HEVC, y realizar la compresión de DCT etc., como si no fuera una imagen de HDR de una escena de HDR sino alguna representación de SDR estúpida de la misma), es decir que contiene las texturas de color de píxel de los objetos capturados de la escena de HDR, es decir contiene la composición geométrica de todas las formas de objeto y alguna codificación de las texturas en estas, y permite cualquier representación deseada o correspondiente ajuste de color para reconstruir ese aspecto geométrico de las imágenes. Por lo tanto, realmente en cuanto a lo que puede establecerse en cualquier lado de recepción, nuestra codificación de imágenes de escena de HDR contiene además de las imágenes realmente comunicadas al menos una (y típicamente en vista del coste de clasificación a menudo exactamente una) clasificación adicional (por ejemplo se comunican imágenes de SDR 100 nits PB_C, pero las funciones de comunicación de color comunicadas conjuntamente permiten la reconstrucción de exactamente una clasificación adicional, por ejemplo una reconstrucción de una imagen de HDR maestra 5000 nits PB_C), que se codifica típicamente no como una segunda imagen sino como un conjunto (típicamente limitado puesto que los CI de decodificación necesitan entender e implementar todas las transformaciones de color), de transformaciones funcionales para los colores de píxel de la imagen principal. Por lo tanto, si la imagen principal (Im_in) fuera una imagen de HDR (por ejemplo referenciada a un brillo pico de 5000 nits), las funciones de transformación de color (o algoritmos) podrían calcularla a partir de una imagen de LDR (típicamente como SDR normalizada de 100 nits). Y el experto en la materia conocerá cómo puede codificarse fácilmente tal transformación con tan pocos bits como se requieren, por ejemplo, puede codificarse una función con una primera parte lineal y a continuación una parte de curvatura hacia (1,0, 1,0) por un parámetro con valor real u otro que proporciona una pendiente (pendiente negra) y un punto de parada de la parte lineal, y sean cuales sean parámetros necesarios para definir la forma de la parte superior. Varias variantes prácticas transmitirán reclasificaciones de SDR de la imagen de HDR maestra como imagen o imágenes solamente comunicadas, ya que esto es útil para todas estas situaciones en las que pantallas de SDR ya desplegadas necesitan una imagen que puedan representar directamente, si necesitar hacer transformación de color adicional (como una pantalla de HDR o el aparato que prepara las imágenes para las que la necesitaría hacer en esa realización).
La Figura 1 proporciona una posible realización típica aunque simplemente ilustrativa no limitante de una transformación de color de este tipo y la correspondiente codificación basada en transformación de (al menos una) clasificación adicional, que el experto lector debería entender que no es el único sistema que podemos usar con nuestras realizaciones novedosas a continuación. En particular, aclaramos algunos de los principios que pueden aplicarse ventajosamente en una representación de color lineal (en particular f(Max), o f(Y) donde Y es la luminancia en el numerador y Max resp. Y en el numerador de g; y el multiplicador que multiplica componentes de RGB lineales), los principios pueden aplicarse también en espacios de color no lineales (tanto la parte que conduce al cálculo de g, y/o la multiplicación, que puede multiplicar, por ejemplo, componentes de color R', G' y B', donde la línea discontinua indica que son leyes de potencia con una potencia de 1/N donde N es un número real o entero de los lineales, por ejemplo R'=sqrt(R)).
Se supone en este ejemplo que una imagen de HDR se codifica como una imagen de textura (y se recibe como Im_in), y puede construirse una clasificación de LDR a partir de ella en cualquier lado de recepción de vídeo aplicando transformaciones de color a sus colores de píxel. Sin embargo, se aplica el mismo razonamiento técnico cuando, por ejemplo, se reconstruye una imagen de HDR basándose en una imagen principal que es una imagen de LDR, es decir adecuada para dirigir la representación en una pantalla de LDR, es decir cuando se representa en una pantalla de LDR que muestra los brillos y contrastes apropiados para los diversos objetos en la imagen dada la limitación de brillo pico de la pantalla de LDR. En ese caso la transformación de color definirá una imagen de HDR a partir de la imagen de LDR. Obsérvese que en algunas realizaciones (aunque no necesariamente) el orden de las unidades de procesamiento puede invertirse en el codificador y decodificador, por ejemplo, cuando el codificador reduce el rango dinámico y codifica la imagen principal como una imagen de LDR, entonces el orden de procesamiento de luminancia (o luma) puede invertirse cuando se reconstruye en el lado del decodificador de la clasificación de HDR a partir de la correspondiente imagen principal de LDR, es decir primera aplicación de la curva personalizada, a continuación el ajuste de exposición de la unidad 110 se aplica en la dirección inversa, etc.
Supóngase para fines de explicación que por ahora el aparato de transformación de color 201 es parte de cualquier aparato de recepción (que puede ser una televisión, un ordenador, un teléfono móvil, un servidor de cine digital dentro de un cine, una cabina de visualización de una sala de control de sistema de seguridad, etc.), pero en un lado de codificación en cualquier aparato de codificación o transcodificación, pueden estar presentes los mismos componentes tecnológicos para comprobar lo que es factible y puede codificarse para la transmisión. Una señal de imagen, o más típicamente, una señal de vídeo S_im, se recibe mediante una entrada 103, conectable a diversas fuentes de imagen, como por ejemplo un lector de BD, una antena, una conexión a internet, etc. La señal de vídeo S_im comprende por un lado una imagen (o un vídeo de varias imágenes para diferentes instantes de tiempo) de píxeles Im_in con colores de entrada, y por otra parte metadatos MET, que pueden comprender diversos datos, pero, entre otros, los datos para construir de manera inequívoca en un lado de recepción las funciones de mapeo de color, posiblemente algún dato de descripción relacionado con, por ejemplo, para qué brillo pico está clasificada la imagen de entrada, y sea cual sea lo necesario para posibilitar las diversas realizaciones a continuación. La codificación de las imágenes de vídeo puede hacerse típicamente en una estrategia de codificación similar a MPEG, por ejemplo MPEG-HEVC existente, es decir una codificación basada en DCT de colores de píxel YCbCr, puesto que nuestra tecnología de codificación de apariencia de rango dinámico por reclasificación basada en transformación de color es esencialmente agnóstica de la estrategia de compresión realmente usada en la parte de la compresión que tiene en cuenta el formato de manera adecuada de las imágenes para su almacenamiento o transmisión. Por lo tanto, aunque las diversas realizaciones de nuestra invención pueden funcionar en diversas otras definiciones de color de entrada como, por ejemplo, ventajosamente Yuv, en este ejemplo un primer convertidor de color 104 está dispuesto para convertir la representación de YCbCr a una representación de RGB lineal (en esta realización, como mostramos a continuación pueden formularse también con los mismos principios de la invención realizaciones que funcionan directamente en componentes YCbCr o YUV). Un segundo convertidor de color 105 puede hacer un mapeo de una primera representación de RGB a una segunda. Esto es debido a que el clasificador de color puede hacer la clasificación y observar qué está ocurriendo en un primer espacio de color, es decir, por ejemplo, Rec. 709, sin embargo, los datos de imagen se codifican de acuerdo con un segundo espacio de color. Por ejemplo, pueden usarse los primarios de las Iniciativas de Cine Digital P3: Rojo=(0,68,0,32), Verde=(0,265,0,69), Azul=(0,15,0,06), Blanco=(0,314,0,351). O, podría codificarse en el formato de color Rec. 2020 reciente, etc. Por ejemplo, la imagen puede transmitirse en una representación de color definida en un espacio de color de Rec. 2020, pero el clasificador ha hecho su clasificación de color en espacio de color DCI-P3, que significa que los receptores convertirán en primer lugar a espacio de color P3 antes de hacer todas las transformaciones de color, por ejemplo, para obtener una clasificación de LDR de una imagen de HDR o viceversa. Puesto que el clasificador ha reclasificado su imagen de HDR en una imagen de LDR (suponemos todos los valores normalizados a [0,1]) en su espacio de color de clasificación como se dijo, por ejemplo, en Rec. 709, antes de las matemáticas para recalcular la clasificación en el extremo de recepción, el segundo convertidor de color 105 transforma a este espacio de color Rec. 709 (el experto en la materia conoce que pueden aplicarse diversas estrategias de transformación, por ejemplo puede usarse un mapeo colorimétrico relativo en algunos casos, o puede haberse usado alguna estrategia de compresión de saturación que puede invertirse, etc.). A continuación, típicamente los metadatos aplican una estrategia de optimización de color, que suponemos que se realiza en esta realización práctica sencilla por un procesador de saturación de color 106. Puede haber diversas razones para que el clasificador aplique una estrategia de saturación particular (por ejemplo para desaturar colores brillantes de una manera particular para hacerlos que se adapten a una posición de luminancia superior en la gama de RGB, o para aumentar el colorido de los colores que se han vuelto más oscuros debido al mapeo de HDR a LDR, etc.). Por ejemplo, el clasificador puede hallar que los azules oscuros de dicha una escena nocturna en el cielo están un poco desaturados, y por lo tanto ya puede aumentar previamente su saturación en la imagen de HDR lineal, antes de hacer la transformación de optimización de luminancia para obtener la apariencia de LDR (esto es interesante, en particular, puesto que nuestras realizaciones típicas hacen las transformaciones de luminancia que dejan la cromaticidad del color sin variar, es decir afectan totalmente el aspecto de luminancia del color). En la realización de ejemplo simplificada, suponemos que la saturación es un simple escalamiento de los colores (es decir, el mismo sea cual sea su tono, luminancia o saturación inicial), con un valor s que se lee desde los metadatos MET comunicados y recibidos. En las realizaciones más sencillas nos centraremos únicamente en aspectos de luminancia de las transformaciones de color, dejando el procesamiento de color como esta única etapa de pre-procesamiento, pero el experto en la materia entiende que son posibles otras estrategias de saturación, y pueden coordinarse de manera inteligente con el procesamiento de luminancia. Los colores ahora tienen sus valores correctos (R,G,B) para hacer un procesamiento de luminancia-dirección puro.
Una propiedad clave de tales realizaciones de transformación de color como se muestra en la Figura 1, es que puede hacerse un escalamiento puro de los colores (es decir cambiando únicamente la propiedad de color que es una correlación de la luminancia, es decir cualquier medida que mida la longitud de vector de color, del color mientras mantiene las relaciones de los componentes de color que determinan la cromaticidad del color, en donde las matemáticas de la transformación de color pueden realizarse por supuesto de diversas maneras, por ejemplo, en los componentes de RGB lineales, como se muestra), transformación de color que podemos explicar para reformular como una transformación de escalamiento múltiple común (con un número real g, por ejemplo 0,753, o cualquier codificación del mismo que puede convertirse a un número real, por ejemplo INT(1000*g)) en los tres componentes de color de manera similar. Esto define nuestro mapeo de HDR a LDR (o de manera similar nuestro mapeo de LDR a HDR, o un mapeo de cualquier primera imagen clasificada de un primer rango dinámico a un segundo rango dinámico significativamente diferente, diferenciándose los dos en su brillo pico asociado de su pantalla de referencia asociada, es decir la luminancia que corresponde al código máximo en la codificación de N bits, de típicamente al menos un factor de 4, es decir, 2 paradas, o al menos un factor 1,5 o 2, y posiblemente varias más paradas), al menos en lo que respecta a los aspectos de la luminancia de los objetos de la imagen, que es el asunto dominante en conversiones de rango dinámico.
En el ejemplo aclarativo (simple) de la Figura 1, el procesamiento es como sigue. El calculador máximo 107 calcula para cada píxel color cuál de los componentes de RGB es el más alto, por ejemplo, siendo el componente rojo 0,7 (que llamaremos Rmax). Esto será una medida de la longitud del vector de color, es decir una realización de una correlación de luminancia. El mapeador de luminancia 102 aplica una secuencia de transformaciones en ese componente máximo, recibiéndose la codificación de estas transformaciones en los metadatos MET, que finalmente equivalen a una transformación funcional de luminancia total. Esta transformación codifica cómo las luminancias normalizadas a 1 de la imagen de HDR deben todas cambiar para obtener la imagen de LDR, que tiene la apariencia de LDR clasificada corregida artísticamente. Por ejemplo, típicamente se aplican las siguientes transformaciones, que el clasificador en el lado de creación de codificación/contenido se ha especificado como que proporciona una buena apariencia de LDR, clasificando en su software de clasificación, y haciendo clic en el botón de grabación cuando se satisface con la apariencia de LDR. En primer lugar, un multiplicador de ganancia 108 multiplica el componente máximo (es decir Rmax) por un factor de ganancia recibido (gai), que produce Rmax_1, un valor diferente entre 0 y 1 para cada píxel (por ejemplo en algunas realizaciones el clasificador podría establecer el nivel del 70 % de las luminancias de HDR al nivel del 100 % de las luminancias de LDR, o alguna otra clasificación deseada). Obsérvese que el procesamiento se hace realmente en el máximo de los tres componentes de color, no, por ejemplo, en la luminancia del color, a pesar del hecho de que pueda haberse comunicado un comportamiento de transformación de luminancia. A continuación, una unidad de aplicación de función de potencia 109 eleva el resultado actual Rmax_1 a una potencia gam, número gam que se lee de nuevo desde los metadatos recibidos, que produce el resultado Rmax_2. A continuación una unidad de ajuste de exposición 110 aplica una transformación de modificación de exposición global como, por ejemplo, aplicando la siguiente ecuación:
Rmax_3= ln( (lg-1)*Rmax_2+1)/ln(lg),
donde lg es de nuevo un número optimizado por el clasificador recibido y In el logaritmo neperiano con base 2,71, que produce Rmax_4. A continuación se aplica una curva personalizada por el mapeador de luminancia 111, que produce Rmax_4=CC(Rmax_3). Es decir, esta curva puede transmitirse, por ejemplo, como un número de (es decir 6) puntos característicos (pares de coordenadas de luma de entrada/luma de salida), entre los cuales pueden calcularse puntos intermedios en el lado de recepción por alguna estrategia de interpolación transmitida o previamente acordada (por ejemplo interpolación lineal), y a continuación se aplica esta función: por ejemplo si Rmax_3=0,7, la función comunicada específica produce para ese valor Rmax_4=0,78. Finalmente, un conformador de transformación de visualización 112 transforma de acuerdo con la gamma usada de una pantalla de LDR típica (este último conformador de transformación de visualización también puede ser opcional, para pantallas que obtienen la entrada en coordenadas lineales), es decir la gamma inversa de la Rec. 709 típicamente. El experto entiende cómo pueden calcularse estas ecuaciones por estrategias equivalentes, por ejemplo formando una única LUT para aplicar a todos los posibles valores de entrada de max(R,G,B) en [0,1]. Debería entenderse que algunas de las unidades pueden omitirse, por ejemplo, la ganancia gai puede establecerse a 1,0, que la eliminan de manera eficaz como si tuviera un procesamiento de identidad como resultado. Por supuesto, pueden usarse también otras funciones de transformación, por ejemplo, aplicando únicamente una curva personalizada, pero nuestra investigación ha hallado que el ejemplo parece ser una manera pragmática para que los clasificadores lleguen de manera eficaz a una apariencia de LDR buena. Lo que es importante para nuestras realizaciones a continuación, es que se pueda construir cualquier estrategia de procesamiento según se desee, siendo la descrita con el presente documento simplemente una muy buena en la práctica.
A continuación, finalmente, se calcula un factor multiplicativo común g dividiendo el resultado de todas estas transformaciones, es decir por ejemplo f(Rmax) entre el máximo de los componentes de RGB de entrada mismo, es decir, por ejemplo, Rmax. Este factor g se calcula para que pueda presentar la transformación de luminancia como una estrategia de multiplicación. Finalmente para obtener el color de salida deseado y su brillo de LDR deseado de manera relativa, un multiplicador de escalamiento 114 multiplica los valores de RGB de entrada, o en este ejemplo los valores resultantes del procesamiento (procesador de saturación de color 106) de saturación (opcional), por el factor multiplicativo común g para producir los colores de luminancia ajustada correctos para todos los objetos de imagen, o de hecho todos los píxeles de imagen en estos objetos. Es decir, en este ejemplo esto produce la apariencia clasificada de LDR como una imagen de RGB lineal, empezando desde una imagen de HDR introducida en S_im, de la cual se emiten los colores de píxel (R2,G2,B2) a través de una salida de imagen 115. Por supuesto, el experto en la materia entiende que tener la apariencia colorimétrica correcta para la imagen de LDR, sus colores pueden a continuación aún codificarse de acuerdo con sea cual sea el principio para su uso adicional, como puede la misma imagen (por ejemplo una aplicación enviará la señal al controlador de válvulas de LCD a través de un bus a partir del CI de cálculo, pero otra aplicación puede enviar la imagen a través de una conexión de HDMI a una televisión para su representación, directamente o con procesamiento de ajuste preciso específico de distribuidor de la pantalla adicional, mediante el cual se incluyen potencialmente algunos metadatos adicionales con la señal de vídeo comunicada para guiar el ajuste preciso).
Ahora, el lector debe entender de manera clara un principio importante adicional de nuestra codificación de HDR y tecnología de uso. Hasta ahora, con la Figura 1 hemos explicado únicamente cómo podemos codificar dos apariencias de diferente rango dinámico (es decir con todos los brillos de objeto coordinados de manera correspondiente) de una escena de HDR, es decir cómo codificar dos imágenes originales clasificadas por un creador de contenido. ¿Y por qué hicimos eso? Todo sería sencillo si hubiera únicamente una pantalla de LDR (100 nits), y en particular únicamente una clase de pantalla de HDR (por ejemplo 5000 nits) de las que hay en el mundo en las instalaciones de los diversos visualizadores de contenido. La pantalla de LDR visualizaría a continuación la clasificación de LDR, y la pantalla de HDR, sea cual sea, visualizaría "la clasificación de HDR". Funcionarían bien para visualizar brillos pico que se desvían de manera moderada del brillo pico de la imagen que recibe para su representación, pero probablemente no proporcionarían buenos resultados para desviaciones grandes. En particular, qué imagen necesitaría visualizar una pantalla de 1000 nits, la de 100 nits o la de 5000 nits. Ahora se puede clasificar bien al menos una imagen con exactamente la misma tecnología que en la Figura 1, por ejemplo determinar funciones de transformación de color para calcular realmente la clasificación de mejor apariencia para pantallas de PB-D de alrededor de 1000 nits. Tal vez alrededor de 500 nits o 2500 nits la apariencia sería aún inapropiada, al menos para algunas escenas de HDR críticas (por ejemplo un monstruo en la oscuridad puede hacerse demasiado oscuro para que aún se observe, o a la inversa, puede hacerse brillante de manera poco realista, o el contraste de otro monstruo en la niebla gris puede hacerse demasiado bajo si se vuelve invisible, etc.). En muchos escenarios (y especialmente aplicaciones de difusión en tiempo real), el clasificador puede no preocuparse de hacer una tercera clasificación con segundas funciones de transformaciones de color en MET_TR2, ni puede incluso desear gastar demasiado tiempo en el detalle de crear la segunda apariencia clasificada (por ejemplo, la LDR de la HDR maestra). Por lo tanto introducimos el principio de que por un lado se conoce mucho acerca de las semánticas reales de la escena de HDR a partir de mirar en dos clasificaciones que se encuentran típicamente en extremos opuestos, en lo que respecta al uso previsto típico, de la escala de brillo pico. Por ejemplo, se observa que una explosión está potenciada en brillo en la escena de HDR en comparación con la escena de LDR, donde no hay muchos códigos disponibles por encima de aquellos necesarios para representar suficientemente el resto de la escena (o viceversa, puede observarse que la explosión se atenúa en LDR en comparación con su versión brillante impresionante en la imagen de HDR). Eso no indica necesariamente cómo debería potenciarse la explosión para una PB_D particular, por ejemplo si la potenciación debiera iniciar inmediatamente de manera agresiva o únicamente para pantallas de HDR de alta calidad, por ejemplo por encima de 2000 nits PB, pero al menos es conocido que para clasificaciones intermedias (MDR) se necesitaría potenciar la bola de fuego de la explosión. Ahora lo que es necesario a nivel de tecnología depende de la situación, tal como la complejidad del tipo de escena de HDR, y la criticalidad del usuario particular, equilibrada a lo que es común en ese campo de aplicación, tiempo y coste permisibles, etc. El principio es que el lado de recepción, por ejemplo el decodificador de salón o CI de TV, puede derivar por sí mismo las otras clasificaciones necesarias (entre las dos clasificaciones recibidas, o incluso fuera de ese rango), típicamente con algún guiado adicional desde el lado de creación, con metadatos que son diferentes en su naturaleza de las transformaciones de color usadas para crear una segunda clasificación original real, es decir según el material artístico original especificado y firmado por el clasificador. Debido a que los requisitos físicos y técnicos para esta denominada fase de ajuste de pantalla también serán diferentes. Obsérvese que mientras que describiremos versiones donde el creador realmente comunica parámetros que son óptimos para la escena de HDR actual de acuerdo con sus deseos particulares, también enseñamos que pueden aplicarse los mismos principios solamente en el lado de recepción, por ejemplo cuando el aparato de recepción hace un análisis de imagen para llegar a un valor de parámetro de ajuste de pantalla adecuado, por ejemplo gpr o gpm. Para algunas escenas, no es tan crítico cuál es la luminancia representada final de los diversos objetos de imagen, por ejemplo, la luz en una sala puede ser en la vida real también simplemente un poco brillante, y entonces la luz del mundo exterior que se observa a través de una ventana podría ser relativamente más brillante o más tenue. En un caso de este tipo el aparato o clasificador pueden decidir con una herramienta técnica muy sencilla, ajustar la apariencia para que sea solamente un poco más brillante (por ejemplo 3 pasos unitarios en algún rango) en comparación con lo que resultaría con un algoritmo de referencia, al menos para alguna parte del rango de luminancia. Para algunas escenas más críticas, el clasificador, o el fabricante de pantalla, por ejemplo, para mejorar automáticamente la imagen, o proporcionar al usuario un control de interfaz de usuario que influencie la apariencia más inteligente, puede desear un control más preciso a través de diversas partes de la escena de HDR (en particular diversos rangos de brillo, pero en algunos escenarios puede haber información, por ejemplo, que permite la identificación de objetos particulares, caso en el que puede realizarse un ajuste de pantalla dependiente del objeto), para diversos sub-rangos del rango de posibles brillos pico de pantalla, todo por supuesto en ajuste con las restricciones de hardware típicas para estas clases de tecnología.
Por lo tanto simplemente codificar y decodificar incluso dos posibles imágenes clasificadas de rango dinámico de una escena capturada no es una tecnología suficiente para poder manejar de manera correcta completamente el uso de imagen de HDR, se ha aprendido una lección difícil que las personas desean ir rápidamente al mercado con soluciones demasiado sencillas, por lo tanto necesitamos también una metodología de ajuste coordenada, y, en particular, una que sea pragmática dadas las necesidades típicas, limitaciones y deseos de manejo de vídeo, en particular ahora manejo de vídeo de HDR.
Por lo tanto después de la necesaria introducción larga puesto que todo en esta imagen de HDR muy reciente, en particular, codificación de vídeo, es muy nuevo, y especialmente algunos de los enfoques técnicos del solicitante que ni siquiera se conocen, y muchos menos se conocen comúnmente, llegamos a los detalles de los factores presentes, componentes, realizaciones, y líneas de pensamiento recién inventadas de ajuste de pantalla. La invención aclarada a continuación resuelve el problema de tener un método pragmático pero poderoso con respecto a las diversas necesidades de ajuste de optimización, para tal procesamiento de escalamiento (multiplicativo) común, que define la apariencia colorimétrica de al menos dos imágenes clasificadas, para obtener clasificaciones intermedias (apariencias re-clasificadas (semi)automáticamente de rango dinámico medio MDR) para pantallas reales, a conectarse y suministrarse con una imagen optimizada para su visualización, que puede calcularse en cualquier lado de recepción teniendo un aparato de transformación de color (201) para calcular colores resultantes (R2, G2, B2) de píxeles de una imagen de salida (IM_MDR) que se ajusta para una pantalla con un brillo pico de pantalla (PB_D) empezando desde los colores de entrada (R,G,B) de píxeles de una imagen de entrada (Im_in) que tiene un código de luma máxima que corresponde a un primer brillo pico de imagen (PB_IM1) que es diferente del brillo pico de pantalla (PB_D), caracterizado por que el aparato de transformación de color comprende:
- una unidad de determinación de transformación de color (4201, 102; 2501) dispuesta para determinar una transformación de color (TMF) de datos de especificación de procesamiento de color (MET_1) que comprenden al menos una función de mapeo de luminancia (CC) recibida mediante una entrada de metadatos (116), datos de especificación de procesamiento de color que especifican cómo las luminancias de píxeles de la imagen de entrada (Im_in) han de convertirse en luminancias para aquellos píxeles de una segunda imagen (Im_RHDR) que tiene en correspondencia a su código de luma máxima un segundo brillo pico de imagen (PB_IM2), que es diferente del brillo pico de pantalla (PB_D) y el primer brillo pico de imagen (PB_IM1), y mediante el cual la división del primer brillo pico de imagen entre el segundo brillo pico de imagen es mayor que 2 o menor que 1/2;
- una unidad de determinación de factor de escalamiento (4205, 200; 1310) dispuesta para determinar un factor multiplicativo común resultante (gt; Ls), estando dispuesta la unidad para determinar este factor multiplicativo común resultante:
estableciendo en primer lugar a lo largo de una dirección predeterminada (DIR) que es ortogonal a una diagonal que representa una función de transformación de identidad de luminancias de imagen de entrada, una métrica prestablecida (1850, METR) para ubicar brillos pico de pantalla, y una posición (M_PB_D) en esa métrica que corresponde con el valor del brillo pico de pantalla (PB_D), empezando la métrica en la posición de la diagonal que representa una función de transformación de identidad, y en segundo lugar: establecer una segunda transformación de color (1803; F_M) para determinar al menos luminancias de los colores resultantes (R2, G2, B2) de píxeles de la imagen de salida (IM_MDR), segunda transformación de color que está basada en la transformación de color (TMF) y la posición (M_PB_D);
y en tercer lugar: determinar el factor multiplicativo común resultante (gt; Ls) basándose en la segunda transformación de color (1803; F_M);
y en donde el aparato de transformación de color (201) comprende adicionalmente
- un multiplicador de escalamiento (114) dispuesto para multiplicar cada uno de los tres componentes de color de una representación de color de los colores de entrada por el factor multiplicativo común resultante (gt) para obtener los colores resultantes (R2, G2, B2); y en donde dos puntos exteriores (PBEH, PBE) de la métrica corresponden a un brillo pico (PB_H) de la imagen de entrada recibida (im_in) respectivamente mediante la imagen codificada de las funciones de transformación de color de otro brillo pico (PB_L) que puede reconstruirse a partir de esa imagen aplicando las funciones de transformación de color recibidas en metadatos que comprenden al menos una función de mapeo de tono (CC), y en donde el aparato calcula la imagen de salida (IM_MDR) para una pantalla con un brillo pico de pantalla (PB_D) que cae dentro de ese rango de brillos pico (PB_L a PB_H).
Como se hará más evidente para el experto lector que estudia las diversas posibilidades aclaradas a continuación, deseamos ya destacar algunos factores que no deben leerse de manera limitada, para conseguir los conceptos principales. En primer lugar, aunque todas las pantallas aditivas finalmente funcionan con componentes de color RGB, los cálculos de color pueden realizarse realmente de manera equivalente en otras representaciones de color. La transformación de color inicial que ha de determinarse o establecerse, es el mapeo entre las dos imágenes clasificadas de rango dinámico diferentes representativas comunicadas conjuntamente, por ejemplo de SDR a HDR_5000nit. Esto ya permite variantes en las diversas realizaciones, puesto que algunas variantes más sencillas pueden comunicar esta transformación necesaria como una única función de luminancia o mapeo de tono (CC), pero otras realizaciones pueden comunicar la transformación de color necesaria total, o incluso la parte de transformación de luminancia de la misma, como una secuencia de transformaciones de color, por ejemplo, en el lado de creación el clasificador de color humano que deriva de manera óptima la SDR a partir de la HDR maestra ha hecho en primer lugar volver a aplicar brillo aproximado de varias regiones de la imagen, y a continuación ha diseñado un ajuste preciso para algunos objetos en la imagen (cambios de luminancia diferenciales que pueden comunicarse también en una realización alternativa de este tipo mediante la forma de curva CC). Lo que es necesario para calcular realmente es la función o funciones óptimas finales para calcular no la imagen de h Dr sino la de MDR (por ejemplo para 1650 nits PB_D) a partir de la imagen de SDR recibida.
También esto puede hacerse de diversas maneras en diversas realizaciones, por ejemplo algunas realizaciones pueden calcular una vez una función de mapeo de luminancia final para cualesquiera posibles luminancias (o lumas) de SDR en la imagen de entrada, cargar estas en la parte de cálculo de color, por ejemplo como una tabla de gt valores para usarse, y a continuación procesar la transformación de color píxel a píxel. Pero como alternativa, las determinaciones de cualquier cálculo de función parcial pueden tener lugar al vuelo a medida que llegan los píxeles, aunque el experto lector entiende cómo debe establecerse la forma de la función o funciones de reclasificación deseadas para esta imagen o escena de imágenes particulares, en primer lugar a partir de lo que se designó por el creador de contenido, y a partir de allí para lo que era necesario de manera coordinada para las limitaciones de la pantalla actualmente conectada o que va a ser servida.
Por lo tanto, podemos definir diferentes imágenes de apariencia para controlar pantallas de alguna PB_D que pueden tener muchos valores y que no corresponden al PB de la imagen recibida (ni al brillo pico de la otra imagen clasificada derivable de ella aplicando las transformaciones de color recibidas directas a la imagen de entrada, funciones que son una especificación de cómo derivar solamente este otro par de las dos imágenes, por instante de tiempo en el caso de vídeo), basándose en esa imagen recibida y una transformación de color definida de manera adecuada (que para entendimiento del lector puede suponer, sin limitación, que está designada por un clasificador de color humano) que comprende al menos una transformación de luminancia (que puede también definirse realmente y recibirse como metadatos, y/o aplicarse cuando se hacen los cálculos como una transformación de luma, como una transformación de luminancia que puede convertirse de manera inequívoca en una transformación de luma equivalente). Cualquier lado de receptor puede decidir, al menos parcialmente, sobre la forma de una función de este tipo, puesto que esta forma se ajustará al menos por una propiedad de representación del lado de recepción como por ejemplo PB_D, pero preferentemente también se define mediante el creador de contenido, que puede hacerse típicamente usando las funciones de transformación de color que definen una relación entre una imagen de LDR y de HDR. Puesto que de manera ideal, el ajuste de pantalla debe tener en cuenta también los requisitos específicos de cualquier escena o imagen de HDR particular (que pueden variar enormemente en tipo, y necesidades dependientes del tipo de objeto semánticas para la representación de luminancia de diversos objetos de imagen), que es lo que pueden manejar las presentes realizaciones unidas a las funciones que ya se han definido para la codificación del dúo de imágenes. Esta transformación de color puede aplicarse en realidad a continuación finalmente como una estrategia de multiplicación en los componentes (original, o de luminancia escalada, por ejemplo en una representación normalizada a un máximo de 1,0) de color rojo, verde y azul, ya sean lineales o no lineales (o incluso en otras realizaciones en representaciones Y'CbCr o de otro color).
La relación entre una función necesaria (o de hecho sus correspondientes factores gt multiplicativos), es decir una forma desviada de esa función que empieza desde una transformación de identidad o no procesamiento (la función diagonal que mapearía las lumas de SDR a sí mismas en el caso de eje y de borde cuando teóricamente podría calcularse la clasificación de SDR a partir de la clasificación de SDR recibida, o HDR a partir de HDR, lo que en realidad no se haría, pero también debería ser correcto para cualquier diseño de tecnología de acuerdo con nuestros diversos principios, es decir una buena manera para entender y formular la tecnología) se determinará estableciendo una métrica en general. Esta métrica puede observarse como un "estiramiento" de la función de argumento exterior, en concreto si se desea calcular la imagen HDR_5000nit a partir de la imagen de SDR recibida (esto se ilustra para un escenario sencillo, entre otros, en la Figura 18). Por supuesto, los casos más complicados pueden hacer cosas como usar una métrica variable sobre las diversas posibles lumas de imagen de entrada (que puede hacerse, por ejemplo, con una realización como en la Figura 6) y/o la forma de la función puede cambiarse de la recibida, por ejemplo para ajuste de pantalla puede cambiarse el comportamiento de los píxeles más oscuros, que puede hacerse, por ejemplo, introduciendo una desviación adicional o función de guiado, etc. Pero un aspecto principal es que puede establecerse una métrica, y que el valor PB_D de la pantalla puede calcularse a continuación hasta una posición en esa métrica para cualquier luma o luminancia de entrada. La investigación de los investigadores también muestra que es ventajoso poder seleccionar diversas direcciones de la métrica, por ejemplo la dirección ortogonal a la diagonal tiene una buena influencia de control de los brillos necesarios cuando se mapea de HDR a SDR, o viceversa con funciones inversas. Para concluir, el experto puede entender a partir de nuestras enseñanzas que la capacidad para localizar un conjunto de M_PB_D (o M_PB_U en otras realizaciones) puntos para cada posible luma de entrada en un gráfico de luminancias o lumas (por ejemplo, una luminancia de SDR de entrada normalizada o no normalizada, es decir, real, (o HDR como en la Figura 18) en el eje x, y alguna luminancia en el eje y, que puede ser cualquier luminancia de MDR necesaria, por ejemplo en un eje que se extiende hasta el máximo de la imagen de HDR, es decir PB_C=5000 nits por ejemplo), establece una función óptima final (en el sentido que crea una imagen de apariencia correspondiente a la imagen de HDR dadas las limitaciones de la representación de pantalla, y las limitaciones de cálculo pragmático, elegidas, por ejemplo por la complejidad de un CI que pueda permitirse cualquier fabricante de TV o STB) para calcular las lumas de imagen de MDR a partir de las lumas de entrada (obsérvese que pueden calcularse también las imágenes de MDR fuera del rango entre las dos clasificaciones comunicadas conjuntamente).
En una realización útil, la métrica está basada en una representación logarítmica del brillo pico de la pantalla. Ya en realizaciones sencillas puede optimizarse el rango dinámico y apariencia de luminancia de los diversos objetos de imagen de una manera sencilla, por ejemplo mediante el valor gp de la ecuación superior de las ecuaciones inferiores 1, que corresponde a una realización de determinación de una posición dependiente de PB_D en la métrica, y la forma determinada correctamente consecuente de las funciones para la derivación de imagen de MDR a partir de SDR (o de MDR a partir de HDR normalmente). Pero, por supuesto, en realizaciones más complejas como se ha mencionado anteriormente, las posiciones en la métrica que corresponden a la función de transformación de luminancia necesaria pueden variar de manera más compleja, por ejemplo basándose en parámetros comunicados que especifican un comportamiento de reclasificación deseado según se determina por el creador de contenido, o parámetros del entorno como por ejemplo una medición, estimación o valor equivalente de iluminación del entorno (por ejemplo, introducido por el observador, en cuanto a lo que puede ver cómodamente bajo tal iluminación), etc., pero a continuación aún las derivaciones pueden empezar típicamente a partir de una cuantificación logarítmica del valor PB_D realmente disponible entre los valores PB_C de las dos imágenes clasificadas de LDR y HDR comunicadas.
Una realización útil tiene la unidad de determinación de factor de escalamiento (200) dispuesta adicionalmente para obtener un parámetro de ajuste (gpr; gpm) a partir de segundos datos de especificación de procesamiento de color (MET_2) que se determinaron previamente en un momento de creación de la imagen de entrada (Im_in), y está dispuesta para calcular un factor multiplicativo común resultante (gtu) que corresponde a una posición diferente en la métrica que la posición para el brillo pico de pantalla (PB_D), posición diferente que está basada en el valor del parámetro de ajuste. Es importante que el lector tome algún tiempo para reflexionar sobre esto y entenderlo. Hay un primer mecanismo que permite que el lado de creación de contenido determine la forma precisa del mapeo de funciones entre la clasificación de imagen de HDR y de LDR, es decir, aquellas imágenes creadas desde el lado de transmisión y que pueden establecerse desde el lado de recepción, (por ejemplo de 100 y 5000 nits PB_C). Esto permite, de acuerdo con el nivel de calidad que necesita cada aplicación de HDR particular, determinar cómo las luminancias de objeto de imagen de HDR deben mapearse a las luminancias de SDR, que puede ya no ser una tarea sencilla. Por ejemplo, si tenemos un escaparate bien iluminado durante la noche, y junto a él algunas bicicletas en la oscuridad, el clasificador puede usar (como se introduce con la Figura 1) una o más funciones de mapeo de luminancia para determinar de manera más o menos precisa qué luminancias deberían tener las bicicletas oscuras (de modo que sean solo visibles, por ejemplo, en una representación de imagen de SDR típica, y no demasiado brillantes para estropear la ilusión, ni se inunden de forma invisible en el negro). Por otra parte, para el objeto brillante bajo los reflectores en el escaparate, también puede que no sea una tarea trivial seleccionar luminancias óptimas, que al mismo tiempo crea una diferencia de brillo buena con las partes oscuras de la imagen, y buen contraste intra-región y colorido para los objetos detrás de la ventana (al mismo tiempo que el lector debe no olvidar también garantizar cuando se envía una imagen clasificada de SDR de este tipo seleccionando estas funciones la capacidad de reconstrucción de la ImRHDR). De modo que, ya es una tarea qué tecnología debería poder manejar suficientemente bien incluso solamente creando dos imágenes clasificadas (por ejemplo 100 y 1000 nits). La idea detrás de nuestra solución pragmática para derivar las imágenes de MDR, es que haya demasiada información importante en aquellas funciones de transformación de color, que esta pueda usarse mediante algoritmos del lado de recepción para crear correspondientes imágenes de MDR bonitas. Pero dependiendo de la imagen, y, en particular, de la complejidad de la escena de HDR, cuando pasamos a un algoritmo de creación de MDR automático de este tipo podemos perder alguna precisión en comparación con este par de imágenes representativas de LDR y HDR tal vez clasificadas realmente de manera perfeccionista. Por lo tanto en el caso de que el creador de contenido (es decir, típicamente el deseo del clasificador de color), él puede enviar un segundo conjunto de metadatos de acuerdo con sus deseos, para controlar de manera precisa la manera real en la que se deriva la función o funciones de transformación de MDR, por ejemplo, cómo se construye la métrica y se calculan los puntos dependientes de PB_D en la métrica, como se ejemplifica, por ejemplo, con la Figura 6. Por lo que destacamos: los primeros metadatos de función de transformación de color (para calcular por ejemplo la reconstrucción de HDR maestra Im RHDR a partir de las imágenes de SDR recibidas Im in), especifican cómo debería funcionar la reclasificación de manera aproximada y empezar de manera global a partir de dos clasificaciones ejemplares bastante alejadas (siendo HDR PB_C, por ejemplo típicamente al menos 10x más alta que los 100 nits de la clasificación de SDR, pero preferentemente más alta, al menos para escenas de HDR de alta calidad), aunque el segundo conjunto de metadatos (MET_2) permite una especificación adicional del comportamiento de ajuste de pantalla real para diversas limitaciones de representación que podrían tener lugar por el clasificador. Él puede hacer eso de diversas maneras, por ejemplo conociendo que alguna región de sombra crítica debería manejarse con cuidado puesto que hay acción importante que está ocurriendo allí, y brillar rápidamente para la mayoría de los escenarios de representación, o como alternativa que algunas regiones brillantes pueden recortarse de manera intensa (suave) etc., o el clasificador puede, por ejemplo, mirar el comportamiento en alguna pantalla de referencia de MDR típica (por ejemplo 500 nits para codificaciones de HDR de 1000 nits).
En una realización útil la unidad de determinación de factor de escalamiento (200) está dispuesta para determinar la posición diferente aplicando una función monótona que proporciona como una salida una posición normalizada en la métrica como una función de al menos un parámetro de entrada (gpr), función monótona que puede determinarse mediante la transformación de color de manera autónoma, o basándose en metadatos de prescripción que prescriben qué forma de función usar que se ha determinado previamente en un momento de creación de la imagen de entrada (Im_in). Puede ser útil determinar el comportamiento de colocación como alguna función. Esto permite algún comportamiento similar a lo largo de las métricas, en caso de que se desee, a pesar de la longitud de aquellas métricas que varían a lo largo de la función, es decir las posibles lumas de entrada. Por ejemplo, permite pretender que todas las pantallas por encima de algún umbral, por ejemplo el 90 % de PB_C_HDR (es decir por ejemplo 4500 nits) se supone que son idénticas a la pantalla de referencia de HDR de PB_D=5000 nits, y representar una imagen de MDR que esté tan cerca como sea posible a la clasificación de HDR maestra. Una función de este tipo podría establecerse mediante el aparato de recepción mismo (como un comportamiento innato, por ejemplo de algún modo de representación de película que puede seleccionarse), o puede comunicarse alguna información sobre la función desde el lado de creación, por ejemplo la función monótona completa misma. Destacamos que esta función es la que sitúa el punto M_PB_D a lo largo de la métrica, es decir dependiendo de PB_D pero aún, por ejemplo, más cerca de la función de mapeo de SDR a HDR maestra que, por ejemplo, lo que prescribiría el cálculo logarítmico (como se ilustra, por ejemplo, con la Figura 15), y esta función no debería confundirse con las funciones para calcular la imagen de HDR a partir de la imagen de SDR, es decir la función o funciones de transformación de luminancia.
Una realización útil comprende una unidad de análisis de imagen (1110) dispuesta para analizar los colores de objetos en la imagen de entrada (Im_in), y a partir de los mismos determinar un valor para al menos uno de los parámetros que controlan el cálculo de la imagen de salida (IM_MDR), por ejemplo, el parámetro de ajuste (gpm), o la dirección (DIR), o la forma de la función monótona que proporciona como una salida una posición normalizada en la métrica a usarse en el cálculo del factor multiplicativo común resultante (gt). Algunas realizaciones pueden hacer buen uso del conocimiento de las funciones de transformación de luminancia creadas en el lado de creación de contenido, y determinar aún el ajuste de pantalla en gran parte por sí mismas. Pueden evaluar a continuación, por ejemplo, qué clase de regiones oscuras, medias y brillantes hay en la imagen, y por ejemplo determinar una dirección DIR, que influencia cómo se cambian las regiones de luminancias medias promedio (por ejemplo su luminancia y contraste de salida) frente al manejo, por ejemplo compresión de los aspectos más destacados (esto puede hacerse de manera diferente para el escaparate anteriormente mencionado, que contiene objetos significativos que debería reconocer el observador, en particular si hay objetos comerciales importantes, como por ejemplo una marca comercial grabada o grabada por arena en una ventana, es decir con bajo contraste pero que aún necesita ser reconocible en todas las pantallas de MDR, frente a, por ejemplo, algunas lámparas que pueden recortarse también a un solo color blanco para la mayoría de los usuarios).
Otra realización útil del aparato comprende una unidad de determinación de cantidad de recorte (3710) dispuesta para determinar una cantidad mínima de recorte intenso al brillo pico de pantalla (PB_D) para un subrango de las luminancias más brillantes de la imagen de entrada (Im_in), en donde el cálculo del factor multiplicativo común resultante (gt) se determina para luminancias de la imagen de entrada en el subrango para mapear la luminancia de entrada al brillo pico de pantalla (PB_D). En caso de que el creador de contenido o los fabricantes de TV deseen o permitan alguna cantidad mínima de recorte (para un pequeño subrango, por ejemplo, el 10 % más brillante de las luminancias del 3 % más brillante de las lumas), esta unidad 3710 puede especificar esto. Una realización para la realización de esto puede ser mediante alguna función auxiliar F_ALT, que guía el cálculo de la función de mapeo final de luminancia a emplearse (F*) según se determina por la unidad de determinación de función de luminancia (3712), un ejemplo de un método de este tipo puede ser usar una función F_ALT que es una función de recorte, es decir una función que proporciona un resultado de salida de PB_D (por ejemplo 1500 nits para una pantalla que puede representar de manera máxima 1500 nits de blanco) independientemente de la luma de entrada, y esta es solamente una de las funciones alternativas que puede generar el generador de función 3711.
Las siguientes realizaciones son también de interés. La unidad de determinación de función de luminancia 3712 puede a continuación determinar la función final a cargarse, por ejemplo, en una LUT que hace directamente un cálculo de las lumas de MDR a partir de las lumas de imagen de entrada de SDR (es decir, carga, por ejemplo, en la unidad 2501 de esa topología ejemplar) una función resultante que es una conmutación definitiva o desvanecimiento gradual hacia la estrategia de ajuste alternativa de recorte intenso (véase un ejemplo de aclaración de las posibilidades ilustradas en la Figura 38).
Otra realización interesante más, interesante especialmente para hacer ajuste dependiente de la iluminación circundante, tiene una unidad de estimación de nivel de negro (3702) para establecer una estimación de un nivel de negro, en donde el cálculo del factor multiplicativo común resultante (gt) es dependiente del nivel de negro. Esta puede ser otra unidad en una unidad de determinación de función óptima (3701), que puede ser, por ejemplo, software que funciona en correspondencia con una parte de transformación de color principal en un CI (esto permite actualizar mediante firmware, por ejemplo para permitir estrategias de ajuste nuevas o mejores, o diversos niveles de calidad dependiendo del canal de entrega de contenido, o una suscripción, etc.). La estimación de nivel de negro, que indica típicamente un nivel de luminancia o nivel de luma en la pantalla de MDR realmente disponible, es decir en la imagen de MDR, por debajo de cual los detalles de imagen no serán visibles o difícilmente, puede determinarse realmente de diversas maneras, por ejemplo, pidiendo un valor de funcionamiento pragmáticamente bueno al observador mediante una interfaz de usuario como un control remoto, es decir alguna entrada 3755 para obtener la estimación de nivel, que también podría estar conectada a un contador de iluminancia, o a una cámara, etc.
También es interesante variar las realizaciones en una dirección que controla el comportamiento de ajuste para ajuste de múltiples etapas, por ejemplo una realización en la que el cálculo del factor multiplicativo común resultante (gt) está basado en una función de mapeo de luminancia aproximada (Fcrs) y una función de mapeo de luminancia precisa (CC), caracterizado por que en primer lugar, se determina una función de mapeo aproximada optimizada (FCrs_opt) basándose en al menos el brillo pico de pantalla (PB_D) para determinar subrangos óptimos de las luminancias que corresponden a la situación de representación de pantalla real, y este mapeo aproximado se aplica a la imagen de entrada que produce lumas aproximadas (Y'CG), y a continuación se optimiza una función de mapeo precisa basándose en la función de mapeo de luminancia precisa (CC) y al menos el brillo pico de pantalla (PB_D), y esta función de mapeo precisa se aplica a las lumas aproximadas. Esto permite, por ejemplo, que el mapeo de luminancia aproximado y preciso que corresponde al brillo pico de pantalla se determine a lo largo de una métrica (1850) con una dirección diferente (DIR), en donde preferentemente el mapeo aproximado se realiza de manera diagonal, y el mapeo preciso de manera vertical. Por supuesto, realizaciones adicionales pueden adicionalmente ajustar de manera precisa y controlar la manera en la que estas al menos dos subetapas se ajustan para diversas pantallas de MDR, recibiendo segundos metadatos MET_2 que especifican eso (por ejemplo valor o valores gpm o metadatos similares).
Para realizaciones que se adaptan a propiedades adicionales del entorno de visualización, es decir más allá de simples características de visualización, es ventajoso si se establece una primera función de luminancia de acuerdo con una situación de visualización de referencia con un nivel de iluminación fijo, y posteriormente esta función se ajusta para el valor del nivel de negro, función ajustada a partir de la cual se calcula el factor multiplicativo común resultante (gt), por ejemplo, en la unidad 3701.
Todas estas unidades o aparatos de ajuste pueden realizarse físicamente después de un decodificador (es decir, cuáles, por ejemplo, derivan la Im_RHDR que corresponde de manera más cerca de la clasificación de HDR maestra), o integrarse con él, es decir derivar inmediatamente una imagen de MDR a partir de la imagen de SDR (la imagen de HDR puede a continuación usarse en el cálculo de software de la función óptima para usar en el motor de transformación principal).
Otras realizaciones interesantes y variantes son, por ejemplo, las siguientes.
Una realización ejemplar de un cálculo del factor multiplicativo común resultante (gt) necesario para calcular los colores resultantes de la imagen de salida comprende en primer lugar calcular una relación (gp) de: el logaritmo de una relación de un brillo pico de una pantalla (PB_D), en particular la pantalla conectada en la que representar la imagen o imágenes y un brillo pico de referencia (PB_IM1 por ejemplo PB_H) que corresponde a la imagen de entrada, dividido entre el logaritmo de una relación del brillo pico de referencia (PB_H) y un brillo pico (PB_IM2 por ejemplo que es un PB_L de una clasificación de LDR) que corresponde a una imagen (Im_LDR) de un rango dinámico de luminancia al menos un factor de 1,5 diferente del rango dinámico de luminancia de la imagen de entrada, que es típicamente la segunda clasificación recibida de la escena de HDR. Posteriormente la transformación del aparato de color calcula el factor multiplicativo común resultante (gt) como el factor multiplicativo común inicial g (que se determinó de la totalidad de todas las transformaciones de color parciales usadas para convertir la primera y la segunda clasificación, que puede ser típicamente una imagen de apariencia HDR y LDR) elevado a una potencia que es la relación (gp).
Puede haber otras tales métricas, pero la métrica no puede ser cualquier cosa: cuando se usa para ubicar dónde debería caer exacta o aproximadamente el brillo pico intermedio de la pantalla (PB_D) entre el PB_H y PB_L, de modo que la apariencia de m Dr es satisfactoria cuando se representa en una pantalla PB_D (y en particular también es útil si la métrica proporciona buenos resultados cuando se extrapolan apariencias fuera del rango [PB_IM1, PB_IM2]).
Por lo tanto el aparato o método en primer lugar determina cuál es la transformación de color entre las dos imágenes de apariencia codificadas/recibidas (Im_in y IM_GRAD_LXDR, en las que IM_GRAD_LXDR puede ser una imagen de HDR o LDR, y la otra imagen tiene a continuación un rango dinámico considerablemente diferente), transformación de color que puede representarse realmente y comunicare en diversas realizaciones a la unidad haciendo los cálculos como, por ejemplo, una función (entre una entrada normalizada y luminancia de salida), o uno o un conjunto de factores multiplicativos g.
En muchas realizaciones solamente pueden calcularse todos los colores de la imagen de salida de MDR mediante este método, pero en otras realizaciones únicamente se recalculan algunos de los píxeles. Por ejemplo, el método puede copiar alguno de los escenarios, o algunos elementos de texto o de gráficos, desde dicha imagen de LDR, y únicamente potenciar aquellos píxeles que corresponden a una bola de fuego o ventana que mira hacia los exteriores, etc. En un caso de este tipo puede definirse también una función a través de únicamente una parte del rango de posibles luminancias, etc.
Finalmente, sea cual sea el cálculo del procesamiento de color necesario para derivar la imagen de MDR de dicha imagen de HDR, el aparato convertirá este en un conjunto de valores de multiplicación, para multiplicar por los colores de entrada, que típicamente pueden estar en una representación de color de RGB lineal (o de manera similar se podría por ejemplo multiplicar el componente L de una representación Lu'v' en la que u' y v' son las coordenadas de cromaticidad de CIE 1976, pero estos detalles son irrelevantes para entender las diversas realizaciones de ajustes de pantalla).
Por lo que el aparato necesita en primer lugar una unidad de determinación de métrica de capacidad (1303), para determinar cuál métrica es necesaria para ubicar el valor PB_D entre los valores PB_IM1 y PB_IM2. Esta métrica típicamente es no lineal, y con algunos de los parámetros de ajuste el aparato, en algunos escenarios ventajosos bajo el guiado del clasificador de contenido, puede influenciar adicionalmente la forma de la no linealidad. Esto es, entre otras cosas, puesto que un ajuste de pantalla no es simplemente de manera sencilla una adaptación basada en la física de la pantalla, incluso bajo la apariencia de la visión humana no lineal, sino puesto que en particular para moverse de HDR (especialmente DR muy alto) a LDR, puede necesitarse hacer optimizaciones complejas para comprimir todas las luminancias de objeto juntas y aún obtener una apariencia coordinada bonita (las cosas pueden ser más fáciles en caso de que la segunda imagen sea también una imagen de HDR, o al menos una imagen de MDR con PB suficientemente alto). Sin embargo, lo ideal es que las realizaciones de nuestro sistema sean razonablemente sencillas, con unos pocos parámetros obtener rápidamente al menos la mayoría del control de ajuste de apariencia que es necesario para clases de contenido de HDR.
La unidad de determinación de métrica de capacidad (1303) puede hacer algo tan sencillo como simplemente usar una métrica prefijada (que está, por ejemplo, previamente codificada en el CI), o en otras realizaciones puede determinar la apariencia necesaria a partir de un indicador de tipo de métrica (COD_METR) que lo recibe desde el creador de contenido mediante la señal recibida S_im en un campo de metadatos acordado previamente. Como diversas escenas de HDR pueden manejarse de manera diferente, el clasificador puede comunicar por ejemplo, que para una primera escena en la película de un acto de exteriores soleado la métrica a usarse sea la relación logarítmica (y tal vez, la dirección, la dirección vertical, ortogonal al eje de luminancias de entrada, véase a continuación), pero a continuación, cuando la siguiente escena se vuelve una escena de noche, para obtener en cierto modo una apariencia más brillante, el creador de contenido puede dictar que el ajuste de pantalla debería hacerse con una métrica basada en OETF (y por ejemplo en la ortogonal a la dirección diagonal de identidad, o en otras palabras a 135 grados del eje de luminancia de entrada). O, dependiendo de si el contenido debe ser MDR reclasificado en tiempo real (o, por ejemplo, procesarse para un visualizador posterior y almacenarse en un HDD en las instalaciones del observador), el aparato de transformación de color en, por ejemplo, un STB, puede hacer algún cálculo, mirar en las estadísticas de imagen, y considerar que debería cambiarse la métrica un poco, o debería cambiarse la PB_D, como si la visualización pretendida fuera simplemente un poco más oscura, dando como resultado en cierto modo una imagen más brillante, o se determina satisfactorio cualquier cambio de los parámetros de influencia de ajuste de pantalla hasta la apariencia de MDR, ya sea por un ser humano o por un algoritmo de análisis de calidad de imagen automático. La unidad de determinación de métrica de capacidad del aparato de lado de recepción puede construir su propia métrica, por ejemplo a partir de análisis estadístico de conjuntos de imágenes de la película, pero típicamente se elegirá simplemente de un conjunto de opciones preprogramadas.
La unidad de determinación de multiplicador resultante (1310) será en general como se aclara por los ejemplos a continuación, entonces la posición de la métrica en el mapeo de transformación de luminancia (o hace realmente algo equivalente en sus cálculos), determina dónde cae el brillo pico de pantalla entre las imágenes codificadas (es decir si es necesaria una imagen de MDR más de tipo HDR o más de tipo LDR, al menos para algún sub-rango de colores de píxel, o algún subconjunto de píxeles de la imagen de entrada Im_in), y a continuación mirando en la forma de la función de transformación de luminancia total determina para cada posible luminancia de entrada qué factor multiplicativo común resultante gt es necesario para calcular la correspondiente luminancia de salida o en color de salida de factor para el correspondiente píxel en la imagen de MDR.
Por lo tanto, en lugar de usar el factor multiplicativo común inicial (g), que codifica un mapeo de luminancia para los objetos de la imagen de acuerdo con sea cual sea el deseo artístico de un clasificador en cuanto a cómo él desea que parezcan dos apariencias de rango dinámico, usando nuestros parámetros de función de transformación de color técnica que transforman de una primera apariencia de rango dinámico de una escena capturada (por ejemplo 5000 nits HDR como una imagen principal) a una segunda, por ejemplo LDR (para controlar pantallas heredadas de 100 nits), y lo que se aclara con la Figura 1, lo que por lo tanto produce simplemente la segunda clasificación de referencia artística a partir de las imágenes de la primera clasificación de referencia, se calcula un nuevo factor multiplicativo común resultante (gt), que caracteriza una versión ajustada de pantalla o de brillo escalado de manera adecuada de la reclasificación que proporciona una imagen de MDR. Por ejemplo el aparato o método pueden degradar de una imagen principal de h Dr (que como se dice puede formularse como una única acción multiplicativa en colores de píxel de RGB con un factor común). Esto produce una imagen clasificada intermedia (MDR) que tiene una apariencia adecuada para una pantalla conectable de brillo pico intermedio, por ejemplo 1250 nits, es decir, todos los objetos de escena de HDR en la imagen capturada se representan en esa pantalla con un brillo razonable (como sería deseable para el creador del contenido, y placentero de ver, ya sean regiones de sombra frías, estanques de ensueño, la cara brillantemente iluminada de un criminal interrogado por la policía, etc.), y eso en cualquier pantalla dada, y potencialmente teniendo en cuenta otros factores como el entorno de visualización, etc., y en las realizaciones además de los brillos de los colores de píxel de los objetos de imagen, también puede optimizarse el colorido de los colores de píxel según sea deseable, aplicando una versión escalada de manera adecuada de, por ejemplo, una desaturación necesaria para crear objetos con color brillante en la clasificación de LDR. Un requisito principal para obtener imágenes correctamente clasificadas para pantallas de brillo pico considerablemente diferente, es que al menos las luminancias de los diversos objetos se optimizan correctamente para cada pantalla. De otra manera, el observador puede ver, por ejemplo, algunas partes de una imagen que son demasiado oscuras, y pueden incluso ser insuficientemente discriminables. O algunos objetos pueden tener el contraste incorrecto, por ejemplo tener poco contraste. Pero puesto que hemos hallado una manera para formular transformaciones de luminancia como una multiplicación con un factor g, los mismos conceptos pueden aplicarse a procesamiento de saturación de color también. Y la transformación de saturación de color también es un procesamiento útil cuando se necesita convertir entre imágenes para pantallas de rango dinámico de luminancia considerablemente diferente, puesto que, por ejemplo, el clasificador puede desear aumentar el colorido de las partes más oscuras de una escena cuando se representan en pantallas de brillo pico bajo, por ejemplo entre 100 y 600 nits.
El cálculo de gt se hace en el lado de recepción, pero puede hacerse también típicamente en un lado de creación para verificar cuáles receptores lo harían. Incluso en algunas realizaciones, el lado de creación podría anular cualesquiera cálculos de lado de recepción de los valores gt, y especificarlos directamente para, por ejemplo, una o más capturas de una película, pero nos centrarnos en las realizaciones de cálculo más sencillas en la aclaración.
Puede realizarse una distinción entre una apariencia "nativa", o de manera más precisa una familia de apariencias para pantallas asociadas de diverso brillo pico (y/o rango dinámico), y una apariencia reajustada, que se ha ajustado adicionalmente de acuerdo con algunos principios. Puede haber diversas razones para reajustar en un lado de recepción, para el que los parámetros de visualización de la pantalla, entorno, adaptación de visualizador, etc., finalmente determinan qué apariencia debería ser, pero típicamente en las cadenas de imagen de HDR o de manejo de vídeo al menos el brillo pico de la pantalla en la que ha de representarse la imagen o imágenes es de más importancia en primer lugar. Por otra parte, varias partes en la cadena de creación a consumo de la imagen podrían opinar sobre cuál será una apariencia óptima (por ejemplo el consumidor final puede tener una vista especial sobre el asunto o la necesidad). Puede suponerse que algunos sistemas que podemos usar para aclarar nuestras realizaciones permitirán que el creador de contenido tenga algo que decir sobre cuál debería ser, en última instancia, la apariencia "nativa" óptima en sea cual sea la pantalla final de recepción donde se visualizará el contenido, si él así lo desea. Nuestras realizaciones más sencillas permiten esto, puesto que una parte principal de la apariencia ya está codificada en las especificaciones de transformación de color que se comunican en primeros metadatos MET_1 asociados con la imagen (por ejemplo en el mismo disco óptico o medio que contiene la imagen, o mediante una misma conexión de comunicación de imagen), y si uno a continuación simplemente ajusta estos al brillo pico particular de la pantalla de recepción, entonces la mayoría de la visión del clasificador en la escena representada estará aún presente y podrá percibirse en la apariencia finalmente representada. De hecho, si el aparato de transformación de color simplemente aplica la métrica como está, es decir sin ajuste preciso adicional con parámetros de definición de variabilidad de apariencia como gpr, y a continuación determina las funciones de transformación de color de HDR a MDR basándose en la transformación de color recibida (TMF que determina el mapeo a partir de, por ejemplo, de HDR a LDR), entonces el MDR se determina solamente mediante la diferencia en clasificación según se codifica en las funciones de transformación de HDR-LDR.
Sin embargo, otras partes podrían también tener que decir sobre la apariencia típica, y esto podría determinarse con exactamente los mismos componentes técnicos de nuestras diversas realizaciones, como una redeterminación de la apariencia nativa. Por ejemplo, un fabricante de aparato, es decir un fabricante de televisión, puede también tener mucho conocimiento, y/o una visión preferida sobre cómo deberían parecer ciertos tipos de representaciones de escena de HDR (o las representaciones de MDR que corresponden con las mismas). Por ejemplo, él puede desear hacer los sótanos oscuros un poco más brillantes, o incluso más oscuros, puesto que él desea destacar las capacidades de representación de oscuro por encima de la media de su pantalla. O él puede desear una apariencia más saturada o, a la inversa, menos, que la media. O él puede procesar el color para otras peculiaridades de hardware de visualización, o preferencias de distribuidor como una apariencia de color típica del distribuidor, etc. En el pasado eso se haría de manera completamente ciega en la imagen recibida después del análisis de la misma por la televisión, o solamente con funciones fijas que proporcionan siempre un resultado razonable, por ejemplo de saturación aumentada, independientemente de lo que el creador pensara acerca de cómo deberían variar las apariencias en una misma escena representada entre diversos escenarios de representación (por lo que los colores podrían volverse sobresaturados en lugar de pastel), pero con nuestro enfoque actual el procesamiento adicional del fabricante del aparato puede coordinarse con lo que el creador artístico piensa acerca de la escena (según se codifica en sus transformaciones de color para pasar de una apariencia según se codifica en una primera imagen de apariencia, es decir 5000 nits HDR, a una segunda apariencia de referencia, es decir 100 nits LDR heredada). Y en particular, a partir de esta re-especificación funcional de al menos una o más clasificaciones de rango dinámico de la escena de HDR, el fabricante del aparato (por ejemplo un fabricante de TV) tiene información semántica mucho más relevante, puesto que el clasificador humano realizó sus elecciones basándose en particularidades inteligentes de la escena y su imagen o imágenes, basándose en las cuales el aparato de recepción puede hacer cálculos de reclasificación óptimos más inteligentes. Hay incluso una tercera parte genérica que podría ofrecer una opinión sobre la apariencia final de la imagen mediante nuestra nueva tecnología de reclasificación de apariencia. El observador puede ajustar de manera precisa la apariencia, por ejemplo típicamente un poco (puede incluso con un gran paso de decir hasta un cambio de 3 paradas, pero entonces únicamente en una parte del rango de luminancia, por ejemplo el 10 % de los colores más oscuros), mediante su control remoto 1122, si él piensa que, por ejemplo, la imagen actualmente está parcialmente demasiado oscura, puesto que su esposa está leyendo un libro cerca de él.
Por lo tanto nuestro aparato de transformación de color se basa predominantemente en lo que el clasificador ha especificado como sus funciones de transformación de color (en metadatos MET, de manera más precisa los MET_1 asociados con las imágenes comunicadas Im_in), y que son sencillas de implementar en un CI, y que pueden no necesitar atención de clasificación adicional por parte del clasificador. Su única acción en algunas realizaciones no necesita ser más que él compruebe (rápidamente) si un vídeo de MDR de pantalla ajustada de este tipo, por ejemplo una película de ciencia ficción con planetas brillantes chamuscados por el sol, o un espectáculo de TV con diversos efectos de luz, aparezca bien en una pantalla de brillo pico intermedio elegida por el clasificador, siendo por ejemplo 1000 nits una buena pantalla intermedia (MDR) para una codificación 5000HDR/100LDR, puesto que es aproximadamente 2 paradas por debajo de 5000 y aproximadamente 3 paradas por encima de LDR, e incluso esa comprobación podría dispensarse con, si el clasificador se basa puramente en el extremo de recepción para ajuste adicional de su apariencia nativa (es decir, él simplemente especifica sus transformaciones de color para clasificar únicamente una apariencia de referencia adicional además de su apariencia principal maestra, es decir LDR 100 nits, y a continuación todas las reclasificaiones adicionales se tienen en cuenta por un fabricante de dispositivos, por ejemplo, software de mejora de color que se ejecuta en un ordenador, etc.).
En caso de que él haga alguna verificación o una especificación más o menos específica sobre cómo debería ocurrir preferentemente la reclasificación en un lado de recepción, el clasificador a continuación acepta el método de optimización de clasificación adicional actualmente seleccionado por él (o una sugerencia automática) que proporciona imágenes de MDR placenteras, almacenando, por ejemplo, las funciones de transformación de color y la imagen principal en un disco blu-ray, o un servidor intermedio para suministro posterior a clientes, junto con sea cual sea la información necesaria para aplicar en un lado de recepción el método de optimización de clasificación ajustado a una pantalla conectable particular (que en las realizaciones más sencillas sería únicamente las funciones para clasificar la segunda imagen a partir de la imagen principal, es decir los datos para calcular el factor multiplicativo común (g) o la función de mapeo de luminancia TMF que corresponde con el mismo, pero en realizaciones más avanzadas serían parámetros adicionales que especifican estrategias de optimización más precisas). El lado de recepción puede a continuación determinar de manera autónoma una tercera clasificación para, por ejemplo, el brillo pico de 1250 nits, y por ejemplo cuando el aparato de transformación de color se incorpora en un servidor de suministro de vídeo profesional mediante internet, almacenar esta tercera imagen o imágenes clasificadas para cuando sea necesario por un cliente, o un grupo o clase de clientes.
El aparato de transformación de color obtiene un valor de un brillo pico PB_D para que se suministre a una pantalla con imágenes de MDR optimizadas, por ejemplo si únicamente está conectada una única imagen (por ejemplo el aparato está incorporado en una televisión) PB_D puede ser un número fijo almacenado en alguna parte de memoria de CI. Si el aparato es, por ejemplo, un STB, entonces puede interrogar la Pb_D a partir de la TV conectada. El aparato de transformación de color a continuación evalúa cómo esta PB_D está relacionada con los brillos pico que corresponden a las dos imágenes de HDR y LDR clasificadas, es decir el PB de correspondientes pantallas de referencia para las que se crearon estas clasificaciones para parecer óptimas. Esta relación puede calcularse, por ejemplo, como una relación logarítmica gp, o de manera equivalente como una diferencia relativa. Esta relación se usa para llegar a la estrategia de reclasificación (semi)automática intermedia de buena apariencia óptima. Por lo tanto, los principios de nuestra invención pueden aplicarse tanto en únicamente una ruta de transformación de luminancia, o únicamente una ruta de procesamiento de saturación de color, o tanto aplicando el mismo principio de ajuste dependiente de la pantalla apropiado dos veces pero con diferentes especificaciones de transformación de color, dependiendo de qué situación o las necesidades del clasificador para cualquier imagen o vídeo de HDR.
Ventajosamente el aparato de transformación de color (201) comprende una unidad de datos de pantalla (117), dispuesta para recibir el brillo pico de una pantalla (PB_D) a partir de una pantalla conectada, de modo que puede determinar la clasificación correcta para cualquier pantalla disponible y/o conectada en el lado de recepción, potencialmente haciendo los cálculos al vuelo cuando se ve un vídeo. Esta realización puede residir también dentro de una pantalla, por ejemplo una televisión misma, de modo que esta pantalla puede determinar su propia clasificación optimizada a partir de los datos de nuestra codificación de HDR (por ejemplo PB_D que se almacena en una memoria). De tal manera, nuestra tecnología de codificación de HDR de hecho codifica una agrupación de apariencias en una escena de HDR, que pueden compararse, por ejemplo a cómo un sistema de múltiples vistas puede codificar diversas vistas con ángulos de manera diferente en una escena, pero ahora las diferencias muy diferentes ocurren en el espacio de color. Las realizaciones en contraste pueden residir, por ejemplo, en servidores de vídeo profesionales, que calculan previamente un número de clasificaciones para diversos tipos de pantalla con brillos pico alrededor de valores de clase de PB_D particulares, para suministro posterior a un consumidor, o ajuste preciso en cuanto a su apariencia por clasificadores de color adicionales, etc.
Las realizaciones pueden determinar variables adicionales del ajuste de pantalla, por ejemplo el aparato de transformación de color (201) puede comprender adicionalmente una unidad de determinación de dirección (1304) dispuesta para determinar una dirección (DIR) con respecto al eje de luminancia de los colores de entrada, y hacer que la unidad de determinación de factor de escalamiento (200) comprenda una unidad de interpolación direccional (1312) dispuesta para determinar una luminancia para un píxel de la imagen de salida (IM_m Dr ) a partir de una luminancia de un pixel de la imagen de entrada (Im_in) situando la métrica a lo largo de la dirección (DIR). Como un ejemplo útil, nuestra tecnología puede interpolar en la dirección horizontal, es decir determinar en el mapa de la transformación de luminancia qué luminancia de salida corresponde a una luminancia de entrada en el eje x. Nuestra investigación adicional ha mostrado que puede ser útil girar la dirección de interpolación para determinar dónde debería ubicarse un MDR intermedio que corresponde a PB_D, y cómo debe procesarse en color, puesto que diversas transformaciones de luminancia tienen diversa definición y comportamiento, y tal diferente ajuste puede crear, por ejemplo, una apariencia más brillante en al menos algún sub-rango de las luminancias (por ejemplo, pueden definirse algunas funciones con nodos entre segmentos que tienen diverso comportamiento de transformación de luminancia, tal como el tramo de grises oscuros, con posición de luminancia de entrada fija, y a continuación una interpolación direccional puede cambiar esto). En particular hemos hallado la posición de 135 grados a partir del eje de luminancia de entrada una posición interesante, puesto que a continuación se ajusta de manera ortogonal en comparación con la transformación de identidad, y por ejemplo a continuación pueden definirse las extrapolaciones inicialmente como simétricamente reflejadas en gran medida en comparación con esta diagonal). Mostraremos a continuación cómo desplegar la métrica entonces a lo largo de esta dirección DIR, y el experto debe entender a continuación cómo pueden derivarse ecuaciones matemáticas a partir de esto, haciendo geometría.
De nuevo esta dirección puede determinarse, por ejemplo, por el aparato de lado de recepción de manera autónoma, por ejemplo basándose en su clasificación del tipo de imagen de HDR, o puede comunicarse como un indicador de dirección COD_DIR desde el lado de creación de contenido. Mostraremos una realización ventajosa que puede hacer los cálculos aplicando una rotación del mapa que contiene la función de transformación de luminancia, realizada por la unidad de interpolación direccional 1312.
Una unidad de determinación de multiplicador común (1311) convertirá a continuación la transformación de color requerida para obtener la apariencia de Md R en los diversos factores gt necesarios para la multiplicación de los colores de entrada.
Ventajosamente el aparato de transformación de color (201) tiene su unidad de determinación de factor de escalamiento (200) adicionalmente dispuesta para obtener un parámetro de ajuste (gpr; gpm) desde los segundos datos de especificación de procesamiento de color (MET_2), y está dispuesta para calcular el factor multiplicativo común resultante (gt) que corresponde a una posición diferente en la métrica que la posición para el brillo pico de pantalla (PB_D) posición diferente que está basada en el valor del parámetro de ajuste. Como se ha dicho anteriormente, la métrica determina cuál debería ser una apariencia de MDR en mayor medida razonable, si no recibe nada más, por ejemplo, el creador de contenido o el análisis de imagen adicional y el conocimiento general de HDR específico del distribuidor genérico, es decir entonces la apariencia de MDR ya es buena en gran medida para muchas clases de escena de HDR, precisamente puesto que ya está determinada óptimamente basándose en las funciones de transformación de color recibidas (por ejemplo curva personalizada CC), que determinan cómo deberían cambiar las diversas clasificaciones de la escena de HDR, al menos desde el primer punto terminal de rango de PB (por ejemplo PB_H) al segundo (PB_IM2 es, por ejemplo, entonces PB_L). Sin embargo, puede necesitarse un cambio más agresivo más rápido a la apariencia de LDR para algunas imágenes, o incluso algunas partes de algunas imágenes que corresponden a alguna clase de regiones u objetos como sótanos oscuros, y un cambio menos agresivo que el "promedio" (según se determina usando simplemente la métrica y la dirección) dependiendo de la desviación de Pb_D de PB_IM1 para otras situaciones. Esto debería especificarse por el clasificador de una manera tan fácil como sea posible. En las realizaciones más sencillas de nuestra tecnología el clasificador puede usar un único parámetro (gpr) para indicar cuánto debería radicar el punto de M_PB_U a usarse que corresponde al punto de cálculo de MDR más cerca de, por ejemplo, PB_H en la métrica, que cuando se calcula "de manera ciega" por el aparato del lado de recepción poniendo PB_D en la métrica.
Por ejemplo, en algunas realizaciones la unidad de determinación de factor de escalamiento (200) está dispuesta para determinar la diferente posición aplicando una función monótona que proporciona como una salida una posición normalizada entre un mínimo, por ejemplo un mn_gpr negativo para extrapolación o 0 y un máximo (mx_gpr), y por supuesto dependiente también de algún valor de entrada correlacionado con la situación de pantalla es decir PB_D (gpr podría ser, por ejemplo, una medida de curvatura de una curva que se curva alrededor de la lineal de la Figura 15, etc.). En caso de determinación directa de la posición en la métrica, el valor de entrada puede ser la misma PB_D, o puede ser alguna función de esta PB_D, por ejemplo la métrica que se usa. Este valor gpr puede establecerse por el clasificador, por ejemplo, mediante una perilla 1510, o calcularse mediante análisis de imagen de inteligencia artificial en el extremo de recepción. Puesto que puede formularse el cambio necesario para obtener la apariencia de MDR, (al menos para interpolación, y este puede adaptarse en correspondencia cuando es necesaria extrapolación), como una transformación de color que es una identidad cuando se calcula teóricamente la clasificación de HDR, o en general la clasificación principal recibida, a partir de sí mismo, y el otro extremo del rango, es decir, puede obtenerse la apariencia de LDR de, por ejemplo, 100 nits aplicando la transformación de luminancia comunicada (es decir "en su totalidad"), puede observarse esto como aplicar el cambio multiplicativo, ya sea entre nada, es decir multiplicación por 1,0, o hasta la mayor medida posible, es decir multiplicación por g que corresponde a los metadatos recibidos para calcular la apariencia de LDR a partir de la imagen de HDR recibida. A partir de esto, para sea cual sea el valor de multiplicación real para las diversas luminancias de entrada, puede definirse una función continua como la ejemplificada en la Figura 15, que aplica la transformación de color hasta la mayor medida posible (m_MT _norm = 1) o nada en absoluto, o algo intermedio, dependiendo de una entrada que caracteriza el escenario de visualización, y el al menos un valor gpr que caracteriza la clase de reclasificación que uno desearía.
En caso de que se tenga una realización del aparato de transformación de color (201) en la que la unidad de determinación de factor de escalamiento (200) usa la métrica logarítmica, y calcule el factor gt elevando el valor g a esa relación de corrección calculada, el experto lector puede entender que puede ser ventajoso corregir esta relación. Esto puede hacerse pragmáticamente obteniendo un parámetro de ajuste (gpm) por ejemplo a partir de los datos de especificación de procesamiento de color (MET), y calculando a continuación un valor de potencia ajustada (gpp) que es la relación (gp) que proviene del cálculo de métrica logarítmica de lo que PB_D corresponde, elevado a una potencia que es el parámetro de ajuste (gpm), y a continuación se calcula una versión ajustada adicional del factor multiplicativo común (gtu) que es el factor multiplicativo común inicial (g) elevado a una potencia igual al valor de potencia ajustado (gpp), gtu que se usará como es habitual por el multiplicador de escalamiento (114) para multiplicar (por ejemplo) con los colores de entrada de RGB lineal. Debería ser evidente, pero lo diremos para aclarar completamente la razón experta, que aunque este valor de potencia gpm parece como un valor de gamma, no tiene absolutamente nada que ver con las gammas conocidas de las pantallas, o del brillo de la imagen general, puesto que este es ahora un parámetro de control para la agresividad del ajuste necesario hacia la otra apariencia clasificada para algún color de imagen de MDR necesario que corresponde con alguna PB_D, dependiendo de las particularidades de la escena de HDR, y por ejemplo el tipo de optimizaciones artísticas que fueran necesarias para obtener una clasificación de LDR razonable. El hecho era únicamente que una función de potencia era una manera pragmática para diseñar un comportamiento de un tipo como el aclarado en la Figura 15, y el hecho de que algunas funciones matemáticas son desplegables de manera universal es una mera coincidencia matemática.
Preferentemente, ofrecemos también una solución técnica que permite al creador de contenido opinar aún más sobre cómo parecerán las clasificaciones intermedias. Por otra parte, introducimos la solución de una restricción de que el clasificador no debería molestarse con demasiada clasificación adicional, ya que el tiempo de clasificación es costoso, y por ejemplo algunas producciones puede que ya hayan superado el presupuesto antes de la postproducción, y el clasificador ya haya gastado bastante tiempo al crear la clasificación de HDR maestra (sin embargo, si casi nadie puede ver eso en su pantalla real, tiene sentido no ignorar completamente los problemas de representación final), y entonces una apariencia de LDR asociada con ella (o una apariencia de LDR a partir de, por ejemplo, una versión de cine, y a continuación una correspondiente apariencia de HDR para visualización de televisión de HDR, u otras alternativas de flujo de trabajo). Por otra parte, aunque cuando ya se ha puesto algo de la complejidad en las clasificaciones en cualquier lado de un rango de clasificaciones intermedias requeridas para diversos valores de PB_D (obsérvese de nuevo que esta invención y sus realizaciones no están limitadas a este escenario típico de aclaración, ya que las tecnologías pueden funcionar también, por ejemplo, para clasificar hacia arriba de la clasificación de 5000 nits maestra hasta por ejemplo 20.000 nits, empezando desde las mismas funciones para degradar y cambiarlas de manera adecuada, o con funciones adicionales para mejora transmitidas en los metadatos, etc.), es decir cuando ya se tiene una clasificación de HDR y LDR, la determinación de clasificaciones intermedias puede ser más sencilla. Sin embargo, a primera vista y en general, la determinación de una clasificación intermedia puede aún ser relativamente compleja, en particular si hay un número mayor de paradas entre el brillo pico de la clasificación de MDR, y la clasificación adicional en cualquier extremo, l Dr y HDR. Por lo que de manera ideal el clasificador debería crear de manera robusta una tercera clasificación de MDR, o al menos de manera suficientemente robusta, que puede hacerlo con nuestras realizaciones más avanzadas. Sin embargo, ofrecemos un número de soluciones sencillas, que él puede usar en su lugar, solamente, o si se requiere con un ajuste preciso adicional pequeño de, por ejemplo, una parte del mapeo de luminancia global para la generación de la imagen clasificada intermedia (o como una corrección posterior en la imagen resultante de nuestro método de optimización anterior con una función adicional ), o ajuste preciso local de algún objeto que es crítico y no resulta simplemente como clasificado correctamente por nuestras realizaciones sencillas, etc.
En esta realización, el clasificador puede crear rápidamente los MDR intermedios especificando únicamente un parámetro de ajuste adicional gpm o gpr, que también se comunica en los metadatos MET, y especifica cuantas clasificaciones intermedias se parecerán a la clasificación de LDR o a la de HDR, o en otras palabras con qué rapidez al pasar a través de los diversos brillos pico intermedios de una pantalla conectada pretendida cambia la clasificación de MDR intermedia de una apariencia de HDR a una apariencia de LDR o viceversa en la otra dirección (por ejemplo cómo de brillante permanece un objeto oscuro particular cuando el brillo pico de pantalla sigue aumentando).
Por supuesto además de una función de ajuste preciso de 1 parámetro (para ir más rápido o más lento a la otra clasificación cuando se elimina PB_D del punto de inicio, por ejemplo PB_H), pueden definirse parámetros adicionales que especifican exactamente cómo debe ocurrir un ajuste de pantalla más dependiente de la escena o menos agresivo, por ejemplo como con gptt de la Figura 15. En principio, en nuestra estructura técnica pueden definirse arbitrariamente especificaciones complejas de cómo debería moverse la apariencia entre la apariencia de HDR y LDR para diversas posiciones de PB_D intermedias, a medida que se desvía del enfoque basado en métrica puro.
Ventajosamente una realización adicional del aparato de transformación de color (201) tiene la unidad de determinación de factor de escalamiento (200) dispuesta adicionalmente para obtener al menos un valor de luminancia (Lt) que demarca un primer rango de luminancias de colores de píxel (o correspondientes lumas) de la imagen de entrada a partir de un segundo rango de luminancias, y en donde la unidad de determinación de factor de escalamiento (200) está dispuesta para calcular el factor multiplicativo común ajustado (gtu), es decir, la realización determinada más específicamente del factor multiplicativo común resultante gt- para al menos uno del primer y el segundo rango de luminancias. Cuando decimos luma queremos decir cualquier codificación de una luminancia o cualquier otra medida de brillo de píxel (correlacionada con la longitud del vector de color), valores que pueden calcularse de manera equivalente entre sí. Por ejemplo en algunas realizaciones prácticas puede ser ventajoso hacer este valor Lt un valor demarcador, donde el valor se define como max(R,G,B), es decir uno de los componentes de color de un color de entrada que es el más alto. Es decir cuando el componente de color más alto, es decir el rojo, es más alto que por ejemplo 0,3, el color se clasifica en un primer régimen, y de lo contrario en un segundo régimen.
Con esta realización el clasificador puede seleccionar subrangos interesantes particulares del rango de luminancia de la imagen principal (y en consecuencia mediante la transformación de color también la imagen derivable, por ejemplo, la imagen de LDR), y tratarlos de manera diferente. En el análisis anterior nos hemos centrado principalmente en cómo de rápido debería moverse de la clasificación de HDR a la clasificación de LDR (o viceversa si la imagen principal Im_in era una imagen de LDR), y cómo puede conseguirse esto técnicamente en algunas realizaciones prácticas mediante incluso 1 único parámetro de control gpr o gpm. Esta adaptación se hará típicamente así para todos los colores de píxel en la imagen de entrada, es decir sea cual sea su brillo original, suponemos que pueden ajustarse en pantalla de manera similar, puesto que la diferencia en el enfoque ya está codificada en su mayoría en la forma de la transformación de luminancia para clasificar entre la apariencia de HDR y LDR original del clasificador. Sin embargo, puede haber varias partes semánticas en escenas de HDR, por ejemplo las ropas coloridas en las áreas relativamente más oscuras de un zoco y el brillo exterior observado a través de la entrada del zoco, y típicamente puede haber diversas optimizaciones implicadas para mapear las diversas partes en, por ejemplo, un rango de luminancia de LDR relativamente pequeño, mientras que aún se hace una imagen artísticamente convincente. O, las regiones oscuras pueden ser muy críticas en una escena nocturna, y el clasificador puede desear mantenerlas bastante brillantes manteniendo ese subrango de las luminancias cerca de la apariencia de LDR hasta brillos pico relativamente altos de, por ejemplo, 800 nits, mientras aún se mantiene un contraste de HDR bonito en las regiones superiores, por ejemplo una parte de las casas cerca de un poste de la luz, o una parte de una caverna que está iluminada por el sol que cae a través de una rotura en el tejado, o cajas comerciales de retroiluminación coloridas, etc. Por lo que en nuestra realización más avanzada, el clasificador puede desear especificar el ajuste, en particular cómo de agresivamente la clasificación de MDR se mueve hacia la segunda clasificación de imagen para sucesivas etapas PB_D, en diferentes maneras para diferentes partes de la escena, en particular partes de las imágenes de diferentes luminancias de píxel, y por lo tanto aún es ventajoso tener un mecanismo que permita que el clasificador especifique adicionalmente su control deseado sobre ese aspecto.
El clasificador típicamente especifica un valor gpm diferente para cualquier lado de la al menos una región que demarca el valor de luma (Lt), y más valores si se especifican regiones adicionales a lo largo del rango (por ejemplo oscuros, medios y brillantes e hiperbrillantes). Una de las dos regiones puede usar un valor por defecto, por ejemplo gpm=1, que significa usar la estrategia de nuestra primera realización, que significa que en algunas realizaciones el clasificador necesita especificar únicamente un valor gpm particular para una de las dos regiones con luminancias en cualquier lado de Lt. Pero él también puede especificar y transmitir un valor gpm especializado para ambos lados: gpm_1 y gpm_2.
Una realización adicional del aparato de transformación de color (201) tiene la unidad de determinación de factor de escalamiento (200) dispuesta adicionalmente para determinar un rango de suavización de lumas situadas alrededor del al menos un valor de luma (Lt), y está dispuesta para interpolar el factor multiplicativo común ajustado (gtu) entre su valor determinado en cualquier lado del al menos un valor de luma (Lt). Para garantizar un comportamiento de transición suave, que puede no necesitarse para cada escena de HDR y escenario de cálculo de MDR, y no luminancias de píxel inapropiadas para cualquier objeto de las clasificaciones intermedias (que, en particular, podría ser crítico para ciertos gradientes, por ejemplo en el cielo, o un objeto esférico encendido), esta realización permite especificar al clasificador una región de transición. Él puede especificar la interpolación dependiendo de cómo difiera la estrategia de interpolación en cualquier lado de Lt es decir cuánto difiere gpm_1, por ejemplo, las luminancias bajas de gpm_2 para las luminancias altas (valores buenos típicos para cualquiera pueden radicar entre 1,5 y 1/1,5), determina, entre otras cosas, la anchura de la región de interpolación como un parámetro adicional I_W, y si debería radicar, por ejemplo, simétricamente alrededor de Lt o aplicarse asimétricamente a únicamente las luminancias por encima de Lt (como alternativa, el aparato de recepción podría determinar de manera autónoma una estrategia de interpolación usando detalles específicos sobre la curva o curvas resultantes tales como si fuera creciente monótona, o restricciones deseadas en derivadas a través de una instantánea particular o a través de un rango particular, es decir propondrá al menos una estrategia hasta que se satisfagan las restricciones, etc.). También, él puede especificar, en algunas realizaciones, alguna estrategia de interpolación deseada, transmitiendo la función o funciones para calcular el valor gpm requerido para cada posible luminancia en la imagen principal en los metadatos, pero por defecto esta será interpolación lineal entre los valores gpp transmitidos para cualquier lado de la región de interpolación.
Habiendo aclarado ahora algunas realizaciones del aparato de transformación de color se pueden diseñar los principios de nuestra invención, describimos en este punto a continuación algunas variantes del aparato adicionales en las que puede estar comprendido este aparato de cálculo básico, en diversos escenarios de aplicación, por ejemplo aparatos en un lado del consumidor, en un lado de creador de contenido, en un sitio de compañía de transmisión de contenido, por ejemplo en un terminal de cabecera o satélite, o mediante un servicio basado en internet para reclasificar vídeos, por ejemplo de consumidores, por ejemplo un vídeo de una boda o de vacaciones, etc.
En un lado de codificador nuestras realizaciones pueden usarse en un sistema para crear una codificación de una imagen de alto rango dinámico (Im src), que comprende:
- una entrada para recibir la imagen de alto rango dinámico (Im src);
- un convertidor de imagen (303) dispuesto para convertir la imagen de alto rango dinámico (Im_src) en una clasificación maestra (M XDR) de la imagen de alto rango dinámico (Im_src);
- un aparato de transformación de color (201) de acuerdo con cualquiera de las reivindicaciones del aparato de transformación de color anteriores dispuesto para calcular el inicio de colores de entrada de píxeles de una imagen de entrada (Im_in) que es la clasificación maestra (MXDR), colores resultantes de píxeles de una segunda imagen clasificada (M_X2DR), aplicando la transformación de color (TMF; g);
- estando dispuesto el aparato de transformación de color para obtener al menos un parámetro (gpm) y para calcular usando el parámetro y la transformación de color una segunda imagen (IM_MDR) que corresponde a un brillo pico que es diferente del brillo pico que corresponde a la clasificación maestra (M XDR) y el brillo pico que corresponde a la segunda imagen clasificada (MX2DR);
- una unidad de formateo de señal (310) dispuesta para convertir la segunda imagen clasificada (MX2DR) junto con la clasificación maestra (M XDR) en una imagen de alto rango dinámico formateada (SFX2DR) adecuada para almacenamiento y/o transmisión de imagen y que comprende datos de color de píxel de la clasificación maestra (M_XDR), metadatos que codifican la transformación de color, y el al menos un parámetro (gpm); y
- una salida de imagen (320) para emitir la imagen de alto rango dinámico formateada (SF X2DR).
Típicamente los componentes copiarán aquellos en un lado de recepción, pero ahora un clasificador humano (o un sistema inteligente artificial de reclasificación automática) tiene componentes técnicos adicionales para determinar lo que debería hacer un receptor, para crear las clasificaciones intermedias más perfectas de acuerdo con el deseo del clasificador.
En este punto, el clasificador típicamente empieza a partir de material de HDR original (Im src), digamos directo desde una cámara de HDR como una cámara RED, o incluso un sistema de dos cámaras expuestas de manera diferente suministrado por la misma imagen de escena mediante un divisor de haz. El clasificador típicamente desea hacer una clasificación de HDR maestra de esto, como se explica con el ejemplo de la Figura 14, él desea situar las luminancias de los diversos objetos de imagen, y sus correspondientes códigos de luma, en el eje de luminancia de 5000 nits en la parte derecha de la Figura 14. Él también desea hacer una clasificación de l Dr que corresponde a la misma apariencia de imagen de HDR maestra. Continuando el ejemplo particular de la imagen principal (Im_in) que realmente se comunicó como DCT típicamente comprimido o descomprimido, que es una imagen de HDR, en ese escenario la imagen clasificada M_XDR que se emite desde la primera clasificación sería una imagen de HDR, y a continuación esta imagen de HDR se añadiría a la señal de imagen junto con metadatos de función de procesamiento de color, y se escribiría, por ejemplo, a un BD u otra memoria física (321), o cualquier otro medio de comunicación de imagen. En ese escenario, el clasificador crearía a partir de la clasificación de HDR maestra al menos una función de mapeo de luminancia (es decir, por ejemplo CC) para obtener M_X2DR que es en este caso una imagen de LDR, es decir una imagen para la que los códigos se mapearían a un PB_L de 100 nits.
Sin embargo, tenemos también una versión, y correspondientes realizaciones de ajuste de pantalla, que llamamos modo 2, en la que la "imagen de HDR" de la escena de HDR se codifica realmente como una imagen de LDR 100 nits. En este caso M_XDR que proviene de la clasificación inicial que determina la imagen principal, puede ser una imagen de LDR. Y en este modo, las funciones que especifica el clasificador (CC, etc.) mapearían esta imagen de LDR a una imagen de HDR, que típicamente es muy cercana, casi aproximación idéntica de la imagen de apariencia de HDR maestra deseada. En este modo 2, la Im_in que se almacena en la imagen o señal de vídeo S_im sería una imagen de LDR, y las funciones de transformación de luminancia (y transformación de saturación) serían funciones de mejora, para derivar en el lado de recepción una imagen de HDR, y también M_X2DR sería una imagen de HDR. En cualquier caso, el clasificador comprobaría típicamente la apariencia de tres imágenes, sus imágenes de apariencia de LDR y HDR original, y una imagen de MDR, en tres pantallas típicas, con brillos pico de pantalla elegidos de manera adecuada que corresponden a aquellos de las imágenes.
Por lo tanto la imagen de alto rango dinámico formateada SF_X2DR de acuerdo con nuestra tecnología de HDR de hecho codifica una apariencia de HDR en una escena, independientemente de si realmente contiene una imagen principal de HDR o de LDR.
Este sistema emitirá también típicamente al menos un parámetro de ajuste (gpm).
Puede verse implicada una de diversas iteraciones, dependiendo de si el clasificador desea gastar más o menos tiempo. Para transmisiones en tiempo real, el clasificador puede mirar únicamente si las apariencias (para las que la clasificación de HDR y LDR típicamente también implicará pocas operaciones, por ejemplo un único ajuste de transformación similar a logarítmico o curva S basándose en las características de la escena justo antes del inicio del espectáculo para generar la clasificación maestra, y uno segundo para obtener la segunda clasificación dependiente, por ejemplo LDR de una clasificación maestra de HDR) son de calidad suficientemente razonable en tres pantallas de referencia, y de manera ocasional él puede ajustar de manera aproximada un dial sencillo que cambia, por ejemplo, un parámetro gpm. Pero cuando está implicada la remasterización fuera de línea, el clasificador puede invertir una cantidad de tiempo significativa para llegar a una codificación de varias clasificaciones, por ejemplo 2 clasificaciones de MDR adicionales entre HDR y LDR, y una en cualquier lado (una ultra-HDR UHDR, y una sub-LDR SLDR), etc., alguna cualquiera de ellas mediante las realizaciones de ajuste de pantalla, alguna de ellas mediante las realizaciones de codificación conjunta de imagen de apariencia de rango dinámico original, mediante transformaciones de color completas en metadatos, y a continuación visualizar el ajuste por encima de esas para posiciones de PB_D intermedias entre más de dos clasificaciones comunicadas originales. Especialmente para algunos programas más conocidos, en compañías intermedias en una cadena de comunicación de imagen, por ejemplo las compañías que tienen un negocio de venta adicional, transmisión, optimización, etc., el contenido existente, en una acción de remasterización para diversas categorías de receptores, puede haber un presupuesto de clasificación adicional para que un clasificador humano invierta más tiempo en crear varios escenarios de clasificación más avanzados, y los parámetros matemáticos de estas diversas transformaciones de color.
El lector entiende que todas las variantes o combinaciones de aparato pueden realizarse también como métodos de procesamiento de imagen, por ejemplo un método correspondiente de cálculo de colores resultantes (R2, G2, B2) de píxeles de una imagen de salida (IM_MDR) que se ajusta para una pantalla con un brillo pico de pantalla (PB_D) empezando desde los colores de entrada (R,G,B) de píxeles de una imagen de entrada (Im_in) que tienen un código de luma máxima que corresponde a un primer brillo pico de imagen (PB_IM1) que es diferente del brillo pico de pantalla (PB_D), caracterizado por que el método comprende:
- determinar una transformación de color (TMF) de datos de especificación de procesamiento de color (MET_1) que comprende al menos una función de mapeo de luminancia (CC) recibida mediante una entrada de metadatos (116), datos de especificación de procesamiento de color (MET_1) que especifican cómo las luminancias de píxeles de la imagen de entrada (Im_in) han de convertirse en luminancias para aquellos píxeles de una segunda imagen (Im_RHDR) que tiene en correspondencia a su código de luma máxima un segundo brillo pico de imagen (PB_IM2), que es diferente del brillo pico de pantalla (PB_D) y el primer brillo pico de imagen (PB_IM1), y mediante el cual la división del primer brillo pico de imagen entre el segundo brillo pico de imagen es mayor que 2 o menor que 1/2; - determinar un factor multiplicativo común resultante (gt; Ls):
a) estableciendo a lo largo de una dirección predeterminada (DIR), que es ortogonal a una diagonal que representa una función de transformación de identidad de luminancias de imagen de entrada, una métrica prestablecida (1850, METR), y una posición (M_PB_D) en esa métrica que corresponde con el valor del brillo pico de pantalla (PB_D), empezando la métrica en la posición de una diagonal entre los ejes de luminancia de entrada y salida,
b) estableciendo una segunda transformación de color (1803; F_M) para determinar al menos luminancias de los colores resultantes (R2, G2, B2) de píxeles de la imagen de salida (IM_MDR), segunda transformación de color que está basada en la transformación de color (TMF) y la posición (M_PB_D), y
c) calcular el factor multiplicativo común resultante (gt; Ls) basándose en la segunda transformación de color (1803; F_M); y
- multiplicar cada uno de los tres componentes de color de una representación de color de los colores de entrada por el factor multiplicativo común resultante (gt) para obtener los colores resultantes (R2, G2, B2); y
en donde dos puntos exteriores (PBEH, PBE) de la métrica corresponden a un brillo pico (PB_H) de la imagen de entrada recibida (im_in) respectivamente mediante la imagen codificada de las funciones de transformación de color de otro brillo pico (PB_L) que puede reconstruirse a partir de esa imagen aplicando las funciones de transformación de color recibidas en metadatos que comprende al menos una función de mapeo de tono (CC), y en donde el método calcula la imagen de salida (IM_MDR) para una pantalla con un brillo pico de pantalla (PB_D) que cae dentro de ese rango de brillos pico (PB_L a PB_H).
Típicamente puede ser útil si el método determina la posición (M_PB_D) también dependiendo de la forma de la transformación de luminancia para transformar la imagen de entrada en la segunda imagen (IM_HDR) que comprende al menos una función de mapeo de tono (CC) según se recibe mediante metadatos.
También es útil un método de cálculo de colores de píxeles resultantes que empiece de colores de entrada de píxeles de una imagen de entrada (Im_in), caracterizado por que el método comprende:
- determinar un factor multiplicativo común inicial (g) basándose en datos de especificación de procesamiento de color (MET) recibidos mediante una entrada de metadatos (116),
- determinar un factor multiplicativo común resultante (gt), calculando en primer lugar una relación (gp) de los logaritmos de, en primer lugar, una relación de un brillo pico de una pantalla (PB_D) y un brillo pico de referencia (PB_H) que corresponde a la imagen de entrada, y, en segundo lugar una relación del brillo pico de referencia (PB_H) y un brillo pico (PB_L) obtenido de los datos de especificación de procesamiento de color (MET) y que corresponde a una imagen (Im_LDR) que resulta cuando se aplican los datos de especificación de procesamiento de color a los colores de píxel de la imagen de entrada, y calcular posteriormente el factor multiplicativo común resultante (gt) como el factor multiplicativo común inicial (g) elevado a una potencia que es la relación (gp), y - multiplicar una representación de color RGB lineal de los colores de entrada por un factor multiplicativo que es el factor multiplicativo común resultante (gt).
También es útil un método de cálculo de colores de píxeles resultantes de acuerdo con la reivindicación 7, que comprende la etapa de recibir el brillo pico de una pantalla (PB_D) de una pantalla conectada.
También es útil un método de cálculo de colores de píxeles resultantes que comprende obtener un parámetro de ajuste (gpm) a partir de los datos de especificación de procesamiento de color (MET), calcular el valor de potencia ajustado (gpp) que es la relación (gp) elevada a una potencia que es el parámetro de ajuste (gpm), determinar un factor multiplicativo común ajustado (gtu) que es el factor multiplicativo común inicial (g) elevado a una potencia igual al valor de potencia ajustado (gpp), y multiplicar una representación de color de RGB lineal de los colores de entrada por un factor multiplicativo que es el factor multiplicativo común ajustado (gtu).
También es útil un método de cálculo de colores de píxeles resultantes que comprende obtener al menos un valor de luma (Lt) que demarca un primer rango de lumas de colores de píxel de la imagen de entrada a partir de un segundo rango de lumas, y calcular el factor multiplicativo común ajustado (gtu) para al menos uno del primero y el segundo rango de lumas. El otro subrango puede a continuación usar, por ejemplo, el parámetro gt por defecto determinado a partir de la relación de logaritmos que especifican la relación de luminancia de PB_D, PB_H, y PB_L anteriormente mencionada para las realizaciones más amplias. Algunas realizaciones del método o aparato pueden usar cualquiera de las realizaciones prefijadas, o cualquiera de ellas seleccionables, dependiendo de la situación a mano, que típicamente se codificarán con códigos de caracterización adicionales en metadatos.
También es útil un método de cálculo de colores de píxeles resultantes que comprende determinar un rango de lumas transitorias situadas alrededor de al menos un valor de luma (Lt), e interpolar el factor multiplicativo común ajustado (gtu) entre su valor determinado en cualquier lado del al menos un valor de luma (Lt).
Como se dará cuenta el experto lector, todas las realizaciones pueden realizarse como muchas otras variantes, métodos, señales, ya se transmitan a través de conexiones de red o se almacenen en algún producto de memoria, programas informáticos, y en diversas combinaciones y modificaciones, etc.
Por ejemplo, en algunas realizaciones, el lado de creación de contenido puede controlar cómo debería parecer la representación de cualquier pantalla del lado de recepción (intermedia) basándose en lo que determine el clasificador sobre cómo deberían parecer las diversas clasificaciones de rango dinámico, comunicando esto como una señal de imagen de alto rango dinámico codificada (S_im) que comprende:
- datos de color de píxel que codifican una imagen principal que es una clasificación maestra (M_XDR);
- metadatos (MET) que comprenden parámetros que especifican transformaciones de color para calcular una segunda imagen clasificada (M_X2DR) a partir de la clasificación maestra (M XDR), caracterizado por que la señal de imagen de alto rango dinámico codificada (S_im) comprende adicionalmente un parámetro de ajuste (gpm) para usarse para calcular colores de píxeles resultantes empezando desde colores de píxeles de entrada de la clasificación maestra (M XDR):
- determinar un factor multiplicativo común inicial (g) basándose en transformaciones de color;
- calcular en primer lugar una relación (gp) de los logaritmos de, en primer lugar, una relación de un brillo pico de una pantalla (PB_D) y un brillo pico de referencia (PB_H) que corresponde a la imagen de entrada, y, en segundo lugar una relación del brillo pico de referencia (PB_H) y un brillo pico (PB_L) obtenido de los metadatos (MET) y que corresponde a una imagen (Im_LDR) que resulta cuando se aplican los datos de especificación de procesamiento de color a los colores de píxel de la imagen de entrada;
- calcular un valor de potencia ajustado (gpp) que es la relación (gp) elevada a una potencia que es el parámetro de ajuste (gpm);
- determinar un factor multiplicativo común ajustado (gtu) que es el factor multiplicativo común inicial (g) elevado a una potencia igual al valor de potencia ajustado (gpp); y
- multiplicar una representación de color de RGB lineal de los colores de entrada de la clasificación maestra (M XDR) siendo un factor multiplicativo el factor multiplicativo común ajustado (gtu). Esta señal puede comprender especificar adicionalmente metadatos para posibilitar que cualquier aparato del lado de recepción aplique cualquiera de nuestras realizaciones, tal como por ejemplo uno o más demarcadores de luminancia Lt, etc. También es útil un sistema para crear una codificación de una imagen de alto rango dinámico que comprende una interfaz de usuario (330) que permite que un clasificador humano especifique el al menos un parámetro (gpm), y una salida de imagen (311) para conectar a una pantalla (313) que tiene el brillo pico de pantalla (PB_D).
También es útil un sistema (1130) para determinar colores que van a representarse, que comprende un aparato de transformación de color (201) y una interfaz de usuario (1120) para introducir al menos un parámetro especificado por el usuario que cambia al menos una de la métrica, el parámetro de ajuste (gpr; gpm) o el brillo pico de pantalla (PB_D) para usarse por el aparato de transformación de color.
También es útil un método de cálculo de colores resultantes (R2, G2, B2) de píxeles de una imagen de salida (IM_MDR) para una pantalla con un brillo pico de pantalla (PB_D) empezando desde tres colores de entrada de componente lineales (R,G,B) de píxeles de una imagen de entrada (Im_in) que tienen un código de luma máxima que corresponde a un primer brillo pico de imagen (PB_IM1) que es diferente del brillo pico de pantalla, que comprende: - determinar una transformación de color (TMF; g) a partir de datos de especificación de procesamiento de color (MET_1) que comprenden al menos una función de mapeo de tono (CC) para al menos un rango de luminancias de píxel, transformación de color que especifica el cálculo de al menos algunos colores de píxeles de una imagen (IM_GRAD_LXDR) que tienen en correspondencia a su código de luma máxima un segundo brillo pico de imagen (PB_IM2), que es diferente del brillo pico de pantalla (PB_D) y el primer brillo pico de imagen (PBIM1), y mediante el cual la división del primer brillo pico de imagen por el segundo brillo pico de imagen es mayor que 2 o menor que 1/2;
- determinar un factor multiplicativo común resultante (gt), realizando:
- determinar una métrica para ubicar posiciones de brillos pico de pantalla entre el primer brillo pico de imagen (PB_IM1), y el segundo brillo pico de imagen (PB_IM2) y fuera de ese rango; y
- determinar a partir del brillo pico de pantalla (PB_D), la métrica, y la transformación de color del factor multiplicativo común resultante (gt); y
- comprendiendo el método adicionalmente multiplicar tres colores de entrada de componente (R,G,B) por el factor multiplicativo común resultante (gt) para obtener los colores resultantes (R2, G2, B2).
También es útil un método que comprende adicionalmente determinar una dirección (DIR) con respecto al eje de luminancia de los colores de entrada (R,G,B), y en el que la determinación de un factor multiplicativo común resultante (gt) comprende determinar una luminancia para un píxel de la imagen de salida (IM_MDR) a partir de una luminancia de un pixel de la imagen de entrada (Im_in) situando la métrica a lo largo de la dirección (DIR).
También es útil un método que comprende adicionalmente obtener un parámetro de ajuste (gpr; gpm) desde los segundos datos de especificación de procesamiento de color (MET_2), y calcular el factor multiplicativo común resultante (gt) que corresponde a una posición diferente en la métrica que la posición para el brillo pico de pantalla (PB_D) posición diferente que está basada en el valor del parámetro de ajuste.
También es útil un método que comprende obtener al menos un valor de luminancia (Lt, Ltr1) que demarca un primer rango de luminancias de colores de píxel de la imagen de entrada a partir de un segundo rango de luminancias, y calcular el factor multiplicativo común resultante (gt) para al menos uno del primer y el segundo rango de luminancias. Para poder comunicar la información requerida desde un lado de creación en el que se generan apariencias artísticamente apropiadas para cualquier sitio de uso de estas imágenes, es útil tener una especificación técnica de una señal de imagen de alto rango dinámico (S_im) que comprende:
- datos de color de píxel que codifican una imagen principal que es una clasificación maestra (M XDR) de una escena de alto rango dinámico;
- metadatos (MET) que comprenden parámetros que especifican una transformación de color para calcular una segunda imagen clasificada (MX2DR) a partir de la clasificación maestra (M XDR); caracterizado por que la señal de imagen de alto rango dinámico codificada (S_im) comprende adicionalmente un parámetro de ajuste (gpm) para usarse para calcular colores de píxeles resultantes empezando desde colores de entrada de píxeles de clasificación maestra (M XDR) determinando un factor multiplicativo común resultante (gt) que se determina basándose en la transformación de color y el parámetro de ajuste y un brillo pico de pantalla (PB_D) para que se suministre a una pantalla con una imagen que comprende píxeles que tienen los colores resultantes.
Esta señal puede viajar en cualquier tecnología de comunicación de señal, o residir en cualquier producto de memoria que comprende los datos de color de píxel, los metadatos (MET) y el parámetro de ajuste (gpm).
Mientras que algunas realizaciones permiten al clasificador un mayor o menor grado de control sobre cualesquiera reclasificaciones para cualquier situación de representación, que implica típicamente al menos un brillo pico de pantalla particular desigual al de la pantalla de referencia asociada con la imagen o imágenes comunicadas, otras realizaciones (independientemente de si el clasificador desea comunicar cualesquiera especificaciones de reclasificación, es decir cualquier cosa además de sus transformaciones de color para reclasificar las imágenes comunicadas para una apariencia de rango dinámico adicional únicamente comunicada de manera paramétrica, por ejemplo LDR desde HDR) permiten que un aparato de recepción por sí mismo reclasifique adicionalmente una apariencia para una característica de representación pretendida tal como una pantalla de MDR 1500 nits, en particular por medio de la realización del aparato de transformación de color (201) que comprende una unidad de análisis de imagen (1110) dispuesta para analizar los colores de objetos en la imagen de entrada (Im_in), y determinar a partir de los mismos un valor para al menos uno del parámetro o parámetros de ajuste (gpm o gpr etc.), o brillo pico de una pantalla (PB_D) para que se use en el cálculo del factor multiplicativo común resultante (gt), o métrica, o dirección o cualquier parámetro o combinación de parámetros de acuerdo con cualquiera de nuestras realizaciones que permiten la especificación de un parámetro multiplicativo final g_fin, para obtener los colores de una imagen reclasificada final (R,G,B)_radj.
En particular, puede ser útil si el aparato tiene medios para permitir que un observador final (por ejemplo un observador de televisión en casa) tenga una influencia sobre la apariencia, por ejemplo volviendo a especificar el parámetro gpr por sí mismo, por ejemplo proporcionando un pequeño desplazamiento en cualquier dirección, por ejemplo gpr_v = gpr k*0,1, seleccionándose k de {-3, -2, ...., 3}, o en general gpr k*N, con N un tamaño de paso pequeño. Esto posibilita cambiar la apariencia en cierto modo, pero en coordinación con lo que ha especificado el clasificador como que es relevante para esta escena, cuando la reclasifica, es decir de acuerdo con sus funciones de transformación de color de HDR-LDR que él ha comunicado en los metadatos que corresponden a la imagen o imágenes de vídeo.
Puede realizarse cualquier método o tecnología de aparato en software, que realiza la invención mediante todas las etapas necesarias correspondientes que se codifican en software para dar instrucciones a un procesador para realizarlas, estando el software en alguna memoria y siendo cargable desde la misma.
Breve descripción de los dibujos
Estos y otros aspectos del método y aparato de acuerdo con la invención serán evidentes a partir de y se aclararán con referencia a las implementaciones y realizaciones descritas en lo sucesivo, y con referencia a los dibujos adjuntos, que el lector entiende que sirven simplemente como ilustraciones específicas no limitantes ejemplares y que ilustran conceptos más generales que pueden realizarse de otras maneras, y en los que las líneas discontinuas se usan para indicar que un componente es opcional, los componentes no en línea discontinua no son necesariamente esenciales. También pueden usarse guiones para indicar que elementos, que se han explicado que son esenciales, se ocultan en el interior de un objeto, o para cosas intangibles tal como, por ejemplo, selecciones de objetos/regiones (y cómo pueden mostrarse en una pantalla). Debería quedar claro para el experto lector que dada la complejidad de la materia y de las diversas realizaciones alternativas, uno podría hacer para concisión de las enseñanzas mostradas algunos componentes únicamente en algunas imágenes, pero que esos componentes pueden añadirse de manera análoga haciendo los cambios necesarios a las otras diversas realizaciones también. Debería quedar claro también que algunas figuras describen aspectos de las realizaciones en cualquier nivel superior de abstracción, por ejemplo en nivel de estructura técnica.
En los dibujos:
La Figura 1 ilustra esquemáticamente un aparato ejemplar para crear una clasificación secundaria (apariencia original del creador, que especifica cómo debería parecer una escena si se presentara en una pantalla de referencia conforme a ciertas capacidades específicas como un brillo pico particular) de diferente rango dinámico a partir de una clasificación maestra de entrada (que por simplicidad de entendimiento puede ser, por ejemplo, una clasificación maestra de HDR), tras lo cual el solicitante desea mejorar con componentes técnicos adicionales en esta solicitud, para permitir de manera fácil la creación de clasificaciones adicionales, es decir, apariencias correctas para otros rangos dinámicos;
La Figura 2 ilustra esquemáticamente una parte de cálculo principal ejemplar que posibilita la creación de al menos una clasificación adicional (que denominaremos una clasificación de MDR), a partir de la información que especifica dos clasificaciones iniciales que pueden recibirse mediante algunos medios de comunicación de imagen a partir de un lado de creación de contenido, o que se crean en el mismo lado, siendo al menos uno una clasificación de HDR;
La Figura 3 ilustra esquemáticamente un sistema de cálculo de este tipo para calcular una clasificación adicional, cuando se realiza en un sistema ejemplar para aclarar algunos aspectos de nuestra invención, sistema que permite que un clasificador especifique al menos tres clasificaciones de este tipo, y codifique la información para ellas, posibilitando la reconstrucción de las tres clasificaciones en un lado de recepción, por ejemplo mediante una televisión de consumidor o sistema informático;
La Figura 4 ilustra esquemáticamente los resultados de uso de una única realización para la creación de tres clasificaciones intermedias ejemplares (entre una clasificación de LDR y HDR original según se crea por el clasificador de color del creador de contenido), representadas como las curvas de mapeo de luminancia (relativas, es decir normalizadas a 1,0) para mapear una luminancia de clasificación de HDR de entrada Y_HDR a una luminancia de salida Y_L para una tercera clasificación de MDR deseada, basándose en una curva de mapeo de luminancia para generar la segunda clasificación a partir de la clasificación maestra, siendo la segunda clasificación en este ejemplo una clasificación de LDR para una pantalla de 100 nits;
La Figura 5 ilustra esquemáticamente una realización más avanzada, que permite ajuste adicional de las formas de las curvas de clasificación intermedias, en particular si corresponden en característica de distribución de luminancia a lo largo del eje de posibles luminancias a representar más similares a la clasificación de HDR, o más similares a la clasificación de LDR;
La Figura 6 ilustra esquemáticamente una realización incluso más compleja, que permite especificación más precisa de las curvas en al menos dos subregiones de luminancia, es decir que permite especificar el comportamiento de reclasificación de manera diferente dependiendo de la luminancia de objetos para los que debe calcularse una imagen de apariencia de MDR óptima;
La Figura 7 ilustra esquemáticamente cómo nuestras realizaciones pueden hacer la tercera clasificación para cualquier pantalla pretendida, por ejemplo, conectable, con apariencia de brillo pico particular más parecida a la clasificación HDR, o más parecida a la LDR, al menos en algún subrango de las luminancias;
La Figura 8 ilustra esquemáticamente cómo las realizaciones pueden hallar también una saturación de color intermedia apropiada de los colores de píxel de una clasificación de MDR para una pantalla de brillo pico intermedio, empezando desde una imagen clasificada de entrada (además de la luminancia de los colores de píxel, pudiéndose mantener las cromaticidades exactamente igual para todas las apariencias, pero en algunas realizaciones podría ajustarse al menos la saturación de color también, dejando típicamente las tonalidades sin cambiar);
La Figura 9 ilustra esquemáticamente otro ejemplo de aplicación de nuestras realizaciones a una relación de apariencia particular como un mapeo de tono entre HDR y LDR según se especifica por un clasificador;
La Figura 10 ilustra esquemáticamente otro ejemplo posible con nuestras realizaciones de una reclasificación particular para un número de pantallas con brillos pico intermedios, que combina un movimiento rápido hacia la apariencia de LDR para una primera región de píxeles con luminancias dentro de un primer subrango de luminancias, y un cambio más suave para una segunda región de píxeles con luminancias dentro de un segundo subrango de luminancias;
La Figura 11 ilustra esquemáticamente simplemente como un ejemplo aclaratorio de algunas de las posibles aplicaciones de las presentes tecnologías, algunas posibles realizaciones de receptores que pueden determinar su propias especificaciones de reclasificación deseadas de acuerdo con nuestros principios (y en particular esta figura también ejemplifica cómo en algunos de estos aparatos un usuario del lado de recepción podría influenciar la apariencia de al menos una imagen de MDR para al menos un escenario de representación previsto);
La Figura 12 ilustra esquemáticamente un procesamiento ejemplar para ajustar rápidamente contrastes aproximados de una apariencia reclasificada;
La Figura 13 ilustra esquemáticamente en un nivel de componente de alto nivel qué aparato de ajuste de pantalla típico comprenderá para derivar una imagen de MDR;
La Figura 14 muestra un ejemplo de una posible escena de HDR, de digamos una película, para aclarar al lector algunos conceptos básicos necesarios de nuestra cadena técnica de HDR y manejo de problemas;
La Figura 15 muestra una posible realización de cómo se puede influenciar la apariencia de imágenes de MDR calculadas, por ejemplo mediante un clasificador de color humano del lado de creación de contenido, es decir típicamente algún tiempo antes de que la imagen o imágenes se visualizaran realmente;
La Figura 16 explica mediante un ejemplo cómo podemos en nuestra estructura ver el procesamiento de color requerido como una formulación matemática multiplicativa;
La Figura 17 muestra una aclaración de las posibilidades (por ejemplo deseos que pueden tenerse de una creación del clasificador de color del contenido artísticamente clasificado para la escena de imagen o imágenes de HDRl, para crear imágenes reclasificadas o de MDR ajustadas en pantalla de diversas maneras, por ejemplo de acuerdo con las peculiaridades de la escena de HDR;
La Figura 18 muestra el mismo ejemplo, pero ahora visto en un sistema de coordenadas matemáticas que corresponde a la clasificación de LDR de las apariencias de imagen de HDR y LDR recibidas en la escena de h Dr , y que muestra en este ejemplo una posible determinación de función de transformación de luminancia de MDR direccional;
La Figura 19 muestra en correspondencia cómo pueden formularse tales realizaciones de derivación de MDR particulares en una escala girada, y explica las consecuencias técnicas y soluciones decididas resultantes por el inventor;
La Figura 20 explica cómo puede observarse el significado de una posible métrica que puede usarse con la presente invención;
La Figura 21 aclara cómo puede tenerse en cuenta el proceso de generación de MDR de parámetros de funciones de procesamiento de color de HDR a LDR o de LDR a HDR que se define paramétricamente, y cómo pueden variar de manera ciega o de manera guiada estos parámetros cuando sea necesario, por ejemplo, las posiciones de puntos demarcadores de luminancia específicos, y cómo sigue a continuación el cálculo de los colores de MDR de una formulación técnica de este tipo;
La Figura 22 muestra otra posibilidad para especificar el comportamiento colorimétrico de la generación de apariencia de MDR, por ejemplo mediante un clasificador de color que puede comunicar esta información a cualquiera o varios estados de recepción;
La Figura 23 es un gráfico que muestra cómo puede escalarse entre las representaciones normalizadas que referencian 1,0 luminancia relativa a diferentes valores de luminancia absoluta (típicamente PB_D de la pantalla para la que calcular una reclasificación);
La Figura 24 muestra una aclaración de cómo puede convertirse alguna de nuestras realizaciones en otras realizaciones equivalentes que producen los mismos colores de salida;
La Figura 25 muestra esquemáticamente una realización ejemplar que la pantalla se adapta cuando se obtiene una imagen de SDR como entrada, basándose en las lumas Y'i de los colores de píxel de esa imagen de entrada, con los cálculos en representación de color no lineal, donde mostramos otras realizaciones que también realizan los cálculos en representaciones de color de RGB lineal;
La Figura 26 muestra esquemáticamente una realización adicional cuando se incorpora nuestra tecnología en un sistema diseñado de este tipo;
La Figura 27 muestra esquemáticamente otra realización adicional cuando se incorpora nuestra tecnología en un sistema diseñado de este tipo;
La Figura 28 muestra esquemáticamente otra realización adicional cuando se incorpora nuestra tecnología en un sistema diseñado de este tipo;
La Figura 29 muestra esquemáticamente una cadena típica de una imagen de HDR o sistema de comunicación de vídeo con un codificador, medio de transmisión tal como, por ejemplo, tv por cable o internet, y un decodificador, en los que pueden usarse e integrarse nuestras realizaciones;
La Figura 30 aclara esquemáticamente que el ajuste de pantalla puede estar integrado con la decodificación de diversas maneras, por ejemplo siendo útiles algunas cuando se calcula una estrategia de reclasificación complicada por otra unidad exterior conectada;
La Figura 31 muestra un modelo de cálculo que, por ejemplo, podría usar una unidad exterior a un decodificador principal para calcular funciones para cargar en las unidades de decodificador de HDR principales;
La Figura 32 aclara esquemáticamente cómo puede ajustarse cuando se mueve de una primera representación de luma a una segunda, en una realización de reclasificación aproximada-precisa dual;
La Figura 33 aclara esquemáticamente algunos principios básicos de un posible ajuste para sistemas que pueden representar negros muy profundos;
La Figura 34 aclara esquemáticamente un ejemplo típico para aplicación de brillo a una apariencia/clasificación, por ejemplo bajo la influencia de medios de entrada de interfaz de usuario para que un observador comunique sus preferencias con respecto al brillo o claridad de la imagen o imágenes representadas;
La Figura 35 aclara esquemáticamente algunos deseos de ajuste de pantalla, es decir el mapeo de diversas luminancias de objeto/región de una escena a posiciones y rangos en el eje de luminancia de MDR, si se tuviera un continuo disponible de pantallas de todos los posibles valores PB_D;
La Figura 36 aclara esquemáticamente otro ejemplo de otra escena, con un comportamiento deseado topológicamente diferente de cómo todas las regiones se mapean para diversos conjuntos de PB_D-valor de posibles pantallas;
La Figura 37 aclara esquemáticamente algunas posibilidades de lo que puede hacer una unidad externa para determinar la forma de la función de luminancia/reclasificación de color deseada, por ejemplo en lo que respecta al comportamiento de los píxeles más oscuros o más brillantes posibles en una imagen o imágenes;
La Figura 38 muestra esquemáticamente un método de ajuste que mantiene la apariencia de MDR más cerca de la apariencia clasificada de HDR (es decir para más luminancias), a costa de alguna cantidad mínima de recorte según está preconfigurado en el aparato, o calculado basándose en al menos propiedades de imagen;
La Figura 39 aclara esquemáticamente cómo un aparato podría usar una formulación de métrica para eso, que podría permitir, entre otras cosas, que los creadores de contenido comuniquen un comportamiento global de ajuste deseado;
La Figura 40 muestra esquemáticamente otra realización de ajuste práctico;
La Figura 41 aclara esquemáticamente cómo los métodos de ajuste típicos funcionarían para manejar iluminación de entorno no de referencia, es decir considerablemente diferente de la iluminación esperada para la que se clasificó la imagen o imágenes codificadas;
La Figura 42 muestra esquemáticamente aspectos principales del funcionamiento técnico de varias (aunque no todas) de las realizaciones mostradas a continuación;
La Figura 43 muestra esquemáticamente una visión técnica de rango dinámico de MDR basado en contenido frente a un rango dinámico de pantalla de MDR real, a partir de la cuál seguirán nuestras realizaciones técnicas; y La Figura 44 muestra esquemáticamente algunos ejemplos numéricos de una posible realización de ajuste de nivel de negro, en caso de que se comunique la imagen o imágenes de HDR como imagen o imágenes de SDR, y necesiten ampliarse a imagen o imágenes de MDR adecuadas de rango dinámico más alto que la imagen o imágenes de SDR.
Descripción detallada de los dibujos
En la era de la codificación de vídeo de LDR o SDR (SDR es rango dinámico convencional, en concreto un vídeo codificado heredado, con brillo pico de codificación PB_C =100 nits por definición, y una ITU-R BT.709 (Rec. 709) EOTF para asociar códigos de luma con luminancias, o componentes de RGB' no lineales con los lineales), el manejo de vídeo era relativamente sencillo a nivel técnico. De hecho, no había mención real de un brillo pico de codificación (o blanco más brillante que el códec representado como una cantidad de nits que necesita realizar una televisión o pantalla que representa la imagen). Ese concepto no existía y no era necesario, ya que podía verificarse no prescribiéndose en, por ejemplo, la codificación de vídeo analógica NTSC o PAL, o Rec. 709 codificación de vídeo digital como se usa en codificación MPEG. Se define una cromaticidad (es decir nivel de amarillo) del blanco (x=0,3127; y=0,3290), pero no un valor de luminancia. Esto es debido a que hay una filosofía principalmente diferente en el momento, en concreto el paradigma de representación relativa, que implica que el código máximo (por ejemplo R=G=B=255) se representa a sea cual sea el brillo pico de pantalla PB_D que pueda generar una pantalla. Si compraras una TV de 80 nits, tendrías en cierto modo imágenes más atenuadas, con un blanco de 80 nits, y si compraras una pantalla de 200 nits PB_D de alta gama, verías los mismos blancos más brillantes. Esto en realidad no importa qué blanco que se codificó funcionó bien en esa era de SDR, puesto que por un lado la visión humana es en gran medida relativa (siempre que haya colores que sean más amarillos que el blanco elegido, el observador los vería como amarillos, y si tuviera regiones del 18 % de la luminancia del blanco, sea lo que sea lo que haya en tu TV, verías estos como un gris medio), y en segundo lugar, debido a que no había una diferencia grande entre una pantalla de 80 nits y de 200 nits PB_D. Si el blanco ya se ha tratado con desinterés técnico relativo, los negros se ignoraron totalmente (si no se menciona nada más, se supone típicamente que el negro es cero, o tan bueno como cero, pero cualquiera que desee ampliar detalles se da cuenta de que no únicamente diversas pantallas producen diferentes negros puesto que, por ejemplo, un LCD a diferencia de OLED carece de alguna de la retroiluminación a través de píxeles cerrados, pero de manera más importante, el negro percibido se ve influenciado por la iluminación del entorno de visualización).
Todo esto cambia en la era de HDR, especialmente si se tiene la ambición de poder mostrar casi cualquier cosa, es decir imágenes de alto rango dinámico, y también en diversas situaciones, tales como, por ejemplo, una sala de cine en casa oscura en un ático del consumidor o en visualización diurna.
Podría resumirse que la era de HDR se inició cuando se estandarizó SMPTE ST.2084 HDR EOTF en 2014 (el solicitante diseño una función de asignación de código de luma similar, que es la Ecuación 6 a continuación). Esta forma de función altamente empinada permite codificar las luminancias de píxel de rango dinámico mucho más superiores de imágenes de HDR, es decir con oscuros que son mucho más profundos en comparación con el blanco, en comparación con el rango dinámico 1000:1 de manera máxima que puede codificar posiblemente la OETF de Rec.
709. Por lo que se desarrolló una codificación sencilla de (solas) luminancias de imagen de HDR calculando correspondientes lumas con esta 2084 EOTF, denominado HDR10.
El problema, que no se reconoce por todas las personas, pero se reconoce por el solicitante es, sin embargo, que esto es una codificación absoluta. Esto significa que ahora se asocia con el código máximo (por ejemplo en 10 bits R=G=B=2A10-1=1023) una luminancia de, por ejemplo, 1000 nits. Esto no significa que no pueda codificarse cualquier cosa en la escena por encima de 1000 nits, a menos que se acuerde codificarla con luminancias representativas inferiores a 1000 nits, sino también, que siempre el código máximo debe presentarse como 1000 nits en cualquier pantalla, y un código por debajo (por ejemplo R=G=B=1000) debería presentarse como una luminancia fija determinada por la forma de la 2084 EOTF.
Esto tiene ventajas y desventajas. Una ventaja principal es la creación de una imagen de por sí, se tiene ahora una única definición de la imagen, es decir lo que debería representar una pantalla como luminancias de píxel. Hasta 2014, cualquier artista de creación de contenido tenía (tal vez sorprendentemente mirándolo desde este momento hacia atrás) absolutamente ninguna forma de saber cuál sería la imagen que él creó, es decir cómo cualquier consumidor la vería. Si se diseñó una sala de visualización perfectamente iluminada, y el creador realizó una imagen de apariencia bonita (por ejemplo con nubes que necesitan tener una cierta oscuridad rellenada por truenos, que él comprobó en su monitor de referencia de clasificación de color del lado de creación), a continuación tal vez con suerte si uno pone una pantalla 100 nits SDR en esa sala, y representa la imagen (es decir, con blanco relativamente codificado de brillo pico de codificación PB_C representado en un brillo pico de pantalla PB_D) se verían nubes tormentosas oscuras de manera bonita, según se pretende. Pero si se compró una pantalla de HDR nueva de 1000 nits PB_D HDR, estas nubes oscuras pueden parecer muy brillantes, tal vez casi resplandecientes incluso, ciertamente una apariencia artística muy diferente. Con la 2084 EOTF sin embargo, el artista de creación de contenido podría diseñar sus imágenes con códigos de HDR apropiados, de modo que en ninguna pantalla de manera absoluta las nubes serían más brillantes que, por ejemplo, 80 nits.
Sin embargo, aunque simplista e inferior, y ahora, paso a paso habiendo probado ser insuficiente en el mercado, los creadores de la tecnología de representación relativa no estaban totalmente equivocados. Por diversas razones anteriormente relacionadas con respecto a, entre otras cosas, visión humana y el entorno de visualización y variación de propiedades de pantalla, seguir un paradigma demasiado estricto absoluto también es incorrecto e insuficiente. Por lo que es necesario algo equivalente, que pueda hacer alguna "relativización", y de una manera apropiada según sea necesario (y realizable de manera pragmática dada cada limitación práctica presente, como la complejidad de CI o el tiempo disponible del artista), que es lo que el solicitante desarrolló como ajuste de pantalla. A continuación se describirán diversas realizaciones y componentes, para los que el experto debería formar nuestra manera de ejemplificar el entendimiento fácil que los componentes meramente ilustrativos están fácilmente complementados o recombinados con las otras variantes descritas o equivalentes.
Antes de sumergirse en detalles técnicos de diversas realizaciones, el lector puede desear en primer lugar familiarizarse con el deseo técnico (y artístico) detrás de los presentes conceptos, para asegurar que él entiende bien las diferencias entre una simple codificación de imagen, y una estrategia de optimización de pantalla diseñada conjuntamente alrededor de una tecnología de codificación de HDR.
A partir de ahí, él puede empezar estudiando la Figura 14 y el texto adjunto a continuación, y reflexionar sobre el hecho de que si algún creador de contenido ha hecho un esfuerzo para hacer únicamente dos imágenes clasificadas de manera óptima para dos pantallas diferentes (por ejemplo de 5000 nits respectivamente 100 nits PB_D), cómo puede derivarse una imagen óptima para, por ejemplo, una pantalla de 700 nits o 1800 nits PB_D, automáticamente puesto que en varias aplicaciones no se desea que los clasificadores humanos gasten mucho tiempo en clasificar varias imágenes de versión de la misma escena de HDR, en particular si una tecnología de codificación está diseñada para comunicar únicamente dos imágenes de apariencia de rango dinámico diferentes para cualquier escena de HDR. En vista de la posible complejidad de las imágenes, y deseos artísticos, esto no es una tarea trivial, que necesita una cantidad suficiente de tecnología para poder manejar los requisitos. Solamente se ilustran dos posibilidades de las que pueden ser necesarias para las imágenes de apariencia óptima a través de un espectro de diversas posibles pantallas PB_D en cualquier lado de recepción con las Figuras 35 y 36, y que es solamente el requisito cuando se tienen diversas pantallas PB_D en un entorno de visualización razonablemente fijo, pero por encima de cual puede haber típicamente una segunda pasada de optimización que optimiza un entorno de visualización disponible caracterizado, por ejemplo un reflejo típico en el frente que crea un negro mínimo perceptible variable como una función de la cantidad de iluminación ambiental. Estos diversos factores se detallarán a continuación con diversos componentes complementarios o adicionales alternativos, para manejar lo que es necesario en sistemas desde el más sencillo (por ejemplo, una cámara sin modificar y un CI de teléfono móvil) a los más profesionales pero más complejos y costosos (por ejemplo en una cadena de cine profesional).
La Figura 2 muestra una aclaración ejemplar de una posible realización de nuestros aparatos de transformación de color novedosos, que podemos suponer por ahora que está comprendida en algún aparato del lado de recepción (por ejemplo una televisión, u ordenador, etc.). Suponemos que la parte de mapeo de luminancia es la misma que en la Figura 1 (aunque como se ha mencionado, los principios pueden formularse también en diversas representaciones de color no lineales), excepto que en este punto desvelamos también una opción de realización potencial de hacer diversos mapeos espacialmente ubicados. Puede haber adicionalmente metadatos comunicados y recibidos, que permite que una unidad de segmentación 222 discrimine primeros píxeles de tipo de segundos píxeles de tipo. Por ejemplo, una parte del cielo observada a través de una pequeña ventana lateral, puede tener en cierto modo diferente mapeo de luminancia que el mismo cielo observado a través de una ventana principal grande. Es decir, en o cerca de la posición espacial (x,y)_1 píxeles con colores (Y_sky, u'_sky, v'_sky), es decir, en particular con luminancias que tienen Y valores de cielo dentro de un rango, por ejemplo más brillante que una luminancia umbral, en la que x e y son coordenadas de píxel espacial, e Y es una luminancia y u' y v' CIE 1976 uv coordenadas de píxeles de cielo azul, tiene otra transformación a otro Y_sky_out_2 destino de los píxeles que tienen incluso los mismos colores de entrada (Y_sky, u_sky, v_sky) pero que residen en diferentes posiciones espaciales (x,y)_2. Si la unidad de segmentación simplemente clasifica los píxeles, y carga diferentes parámetros de mapeo para llegar a un factor de ganancia común inicial dependiendo de si los píxeles se clasifican en primer lugar frente a la segunda región identificada, el resto del procesamiento puede ser idéntico al que se explica con la Figura 1 (por ejemplo, pueden usarse dos rutas de cálculo paralelas con LUT precalculadas, etc.). El lector debe entender que el procesamiento para obtener la segunda imagen clasificada original (por ejemplo LDR) de la imagen comunicada (es decir HDR), no necesita ser el mismo que el procesamiento local para determinar una imagen de MDR de pantalla ajustada, mediante lo cual no simplemente queremos decir que por supuesto los valores exactos de funciones y parámetros pueden diferir, sino también pueden diferir las razones fundamentales que conducen a formas de transformación de alto nivel en impactos, pero al menos si se ha recibido información en metadatos que permite la segmentación de conjuntos de píxeles particulares, típicamente en objetos de imagen semánticamente espaciales, puede hacerse también el ajuste de pantalla de manera separada adaptado a aquellas regiones u objetos, por ejemplo potenciar una bola de fuego más rápido hacia una apariencia de HDR, en caso de que la PB_D de la pantalla ya permita alguna representación de efecto de HDR, es decir más rápidamente que el resto de la escena que puede ajustarse más gradualmente a través de los diversos posibles valores intermedios PB_D. De nuevo, los diversos parámetros gai, cc etc., se leen desde los metadatos y se envían a las diversas unidades para hacer los cálculos de color (en particular cálculos de cambio de luminancia), pero ahora, por ejemplo, la segunda región tiene su propia curva de mapeo de luminancia generalmente conformada cc_2, mientras que la región principal (la parte mayor del cielo observada a través de la ventana, y por ejemplo, todos los píxeles de una habitación interior) se transforma con la curva cc. PB_H y PB_L se almacenan ventajosamente como metadatos que especifican las dos clasificaciones (en particular lo que los códigos de la clasificación significan exactamente, o, en otras palabras, para los que se han realizado condiciones de representación de referencia a aquellas clasificaciones), y también se leen desde los metadatos y se envían a la unidad de determinación de factor de escalamiento 200 que está dispuesta para calcular un factor multiplicativo común resultante (gt) basándose en los valores de PB_L, y p B_H, y PB_D desde dondequiera que provenga ese valor PB_D (por ejemplo, típicamente una pantalla conectada comunica su brillo pico mediante una entrada de datos 117). La Figura 2 aclara algunas propiedades básicas de un ajuste adaptativo PB_D de pantalla, de una manera que calcula un parámetro gt diferente que el que se emplearía para simple decodificación del otro del par de imágenes de HDR/SDR distintas de las que se comunica realmente (en caso de que comunicamos una imagen de HDR de la escena de HDR, entonces puede calcularse conceptualmente a partir de sí misma usando alguna transformación de identidad, y la imagen de SDR puede calcularse aplicando al menos alguna función que mapea cualquier luminancia o luma de HDR que tenga lugar a una correspondiente luminancia o luma de SDR según preferiría el creador de contenido, y en caso de que se comunique una imagen de SDR como los únicos datos de píxel de imagen para cualquier imagen de apariencia de HDR de la escena de HDR original, entonces una transformación de identidad mapearía SDR a SDR, y algo determinado de manera óptima en el lado de creación y la función comunicada se mapearían a la imagen correspondiente de HDR del par). Aunque empezamos la aclaración mediante esta operación que funciona con una cadena de subtransformaciones (GAM, LG, CC, ...), que funcionan de manera multiplicativa en componentes de RGB lineales mediante el multiplicador 114, y la función para que se calcule realmente por una multiplicación definiéndose gt o gtu mediante una división de una función que se aplica a max(R,G,B) que se divide a continuación entre la luminancia del píxel de entrada, el lector debe entender que para caer en los principios de las realizaciones únicamente se tienen que variar estos componentes. Por ejemplo, de manera análoga haciendo los cambios necesarios podrían escalarse directamente los valores Y'CbCr, o podría usarse una única LUT en la parte 102, y podría aplicarse esta LUT directamente a los valores de luma de los píxeles de entrada a medida que se procesan en lugar de en el cálculo max(R,G,B). Y más relevante que estas variaciones de detalle, podría variarse cómo de intensa debería ajustarse una apariencia, en qué manera, de acuerdo con qué métrica, es decir, cómo debería variar con los posibles valores PB_D de pantallas aplicables, de acuerdo con ciertos aparatos integrados particulares o deseos comunicados de los creadores de contenido o de los fabricantes de aparatos, o incluso de los observadores cuando usan su interfaz de usuario de STB o TV, etc., que serán las propiedades de ajuste de una realización.
Las realizaciones avanzadas permiten que el creador de contenido especifique y transmita un parámetro adicional que determina el grado de optimización, en concreto un parámetro de ajuste (gpm), que será típicamente un número real, por ejemplo 1,253 (o una codificación del mismo, por ejemplo una multiplicación por 1000 y redondeo hasta el número entero más cercano, etc.). Típicamente serán suficiente valores de hasta 1,5 y hasta 0,6 para realizaciones que funcionan en la modificación de la métrica logarítmica cambiando la potencia que determina el valor gt como se muestra a continuación, pero en general el software del clasificador de color tendrá límites razonables más allá de los cuales el comportamiento de reclasificación se haga demasiado extremo (no se espera que para una pantalla de 300 nits deba implementarse inmediatamente la apariencia, es decir controlarla con las luminancias normalizadas de esa apariencia, de una imagen de HDR de alta calidad, puesto que una pantalla de este tipo no puede representar fidedignamente esta, que el clasificador observará como, por ejemplo, áreas que están camino de ser demasiado oscuras, por lo tanto sean cuales sean los límites en la práctica, él no desea elegir los valores demasiado altos en cualquier caso).
La Figura 4 proporciona un ejemplo de una realización muy sencilla de nuestra optimización de pantalla de una imagen de HDR. Suponemos la necesidad de mapear las luminancias de entrada Y_HDR de una imagen de HDR (es decir la imagen principal es una clasificación de 1600 nits) como entrada a las luminancias de salida (denominadas Y_L en este gráfico) para cualquier clasificación deseable. Por ejemplo, la curva 405 proporciona la estrategia total (que corresponde a todas las unidades de la Figura 1 que realizan su transformación de luminancia, es decir las luminancias resultantes que han empezado desde las luminancias de entrada en el comienzo de la cadena; obsérvese, la razón para tener una cadena de este tipo es que se investigó que era útil en la práctica para manejo de imagen de HDR para tener diversa transformación de componente en la que pueda reproducirse, y también en ajuste de pantalla que pudiera hacerse uso específico de cualquier información de clasificación parcial específica, en cualquiera de diversas realizaciones para diversos escenarios) para mapeo de luminancia para crear una imagen placentera para una pantalla de 100 nits.
Observamos en este ejemplo una típica de posibles estrategias, en la que se potencian las luminancias más oscuras (¡relativamente, en una escala normalizada!), de modo que habrá suficiente visibilidad de aquellas regiones en la pantalla de 100 nits oscura, puesto que estas regiones se clasificaron ultra-oscuras en la clasificación principal de HDR, puesto que se clasificó para pantallas de brillo de, por ejemplo, 1600 nits. Las luminancias brillantes restantes se distribuyen a continuación a través del rango superior que está aún disponible (en este ejemplo por encima del 50 % de los brillos pico de salida representados, que puede observarse que debido a la naturaleza no lineal de la visión humana no es tanto, pero esto es simplemente una aclaración), en este ejemplo, de una manera lineal, aunque por supuesto el clasificador podría usar, por ejemplo, una S-curvada o curva de recorte suave para las luminancias de entrada superiores, para crear, por ejemplo, más contraste en algunas regiones de las imágenes, etc. La imagen de HDR cuando se convierte a sí misma (que puede no necesitar hacerlo realmente, pero es un punto final teórico de todas las trasformaciones de color reales a imágenes que no tienen un brillo pico PB_H) es equivalente a una transformación de identidad de pendiente de 45 grados, así, hemos dibujado eso en el mapa para poder mostrar clasificaciones que permanecen cerca de la apariencia de HDR. Los factores multiplicativos comunes para cada luminancia de entrada Y_DR pueden leerse de las curvas, por ejemplo se mapea una potenciación b(0,2) como el multiplicador g del valor Y_HDR=0,2 al Y_LDR= 0,6 deseado, que corresponde a un factor multiplicativo g de 3 para esta luminancia de entrada. Ahora, si se desea obtener la clasificación óptima para un monitor de brillo pico de 800 nits (curva 402), puesto que este está relativamente cerca en propiedades psicovisuales a un monitor de 1600 nits (para el que la clasificación de HDR recibida en este ejemplo parecería óptima), y puede aún mostrar contenido relativamente de alto rango dinámico, puede calcularse una reclasificación de 800 nits (MDR 800) que está relativamente cerca de la transformación de identidad, es decir siendo el factor multiplicativo común resultante gt en este punto, b800(0,2), debería estar cerca de 1, y de manera similar para todas las demás luminancias de entrada. Las reclasificaciones óptimas para 400 nits (curva 403) y 200 nits (curva 404) para el brillo pico de pantalla previsto o conectado PB_D deben tener curvas y factores multiplicativos comunes que quedan más cerca de manera progresiva al mapeo de LDR (curva 405).
Las ecuaciones que usa nuestra realización para derivar cualquier clasificación intermedia son:
gP=LOG(PB_H/PB_D;2,71)/LOG(PB_H/PB_L;2,71)
gt=POTENCIA(g,gp) [Ecs. 1]
Es útil cambiar, por ejemplo, estrategias de ajuste de pantalla multiplicativas como esta, ya que esta puede modelar mejor deseos visuales. Como puede verificar el experto lector, esto permite calcular la salida requerida Y_L para cualquier entrada Y_HDR, puesto que puede determinarse el factor multiplicativo común resultante por una parte basándose en el lado de recepción o la imagen usando una relación fija lateral gp (que es dependiente de la pantalla en la que necesitamos representar, que suponemos en el momento que será típicamente una única en las instalaciones del consumidor), y por otra parte basándose en la g inicial, que se calcula a partir de la entrada Y_HDR, y los metadatos para las funciones de transformación de color, es decir en la apariencia de LDR frente a HDR, a medida que se recibieron. Como puede verificarse rellenando los valores, gp varía entre log(1)=0 si PB_D=PB_H, y 1 si PB_D=PB_L, es decir este usará el valor g completo si PB_D=PB_L, y realiza una transformación de identidad multiplicando los valores de RGB por 1 si PB_D=PB_H.
Deseamos parar aquí durante un instante de modo que el lector ya contemple y entienda a partir de esta realización más sencilla que está pasando típicamente, y no confundir con cosas que definitivamente no sean iguales. Tenemos por un lado un comportamiento que mapea (multiplicativamente) luminancias de entrada de píxeles a luminancias de salida. Y este comportamiento se ha recibido desde el creador de contenido, en particular su clasificador de color, puesto que típicamente cualquier receptor recibirá toda la información requerida para determinar dos imágenes clasificadas (típicamente una apariencia de HDR y una de LDR en la misma escena de HDR). Y por lo tanto el receptor puede conocer las transformaciones entre estas imágenes, en sea cual sea la forma pero, en particular, en una forma de una multiplicación de la luminancia de entrada mientras se mantiene la cromaticidad del color constante (realmente, él típicamente ya tiene estas funciones, por lo que usarlas en cualquier receptor para cualquier aplicación adicional será fácil). Por otra parte, puesto que las clasificaciones pueden no ser al menos completamente óptimas para su representación en pantallas que no tienen el mismo brillo pico como los PB asociados con las dos clasificaciones, el receptor puede necesitar adicionalmente calcular una nueva reclasificación intermedia de MDR óptima a partir de toda esa información. Esto puede implicar también métricas, en las que pueden determinarse factores multiplicativos, y funciones de transformación de luminancia que pueden transformarse de manera similar a valores multiplicativos gt etc., pero estos dos factores de codificación de clasificación original frente al cálculo de una imagen de m Dr ajustada de pantalla son, aunque están típicamente relacionados, ya sea en ocasiones en menor medida, definitivamente no son lo mismo, por lo tanto, filosofías de diseño técnico muy diferentes pueden conducir a soluciones muy diferentes (incluso si algunos componentes tienen el mismo nombre como, por ejemplo, un valor gamma en algunas realizaciones). Podría observarse el ajuste de pantalla como un ajuste perfeccionado del par clasificado, aunque cómo de preciso y fácil necesitaría ser la reclasificación depende de la situación, pero una de las vistas de diseño detrás de esto es que debe usarse para no molestar al clasificador creando realmente una cantidad infinita de clasificaciones originales para la misma escena de HDR (es decir se preferiría que el creador de contenido estuviera presente en cada TV diferente de un consumidor para crear al vuelo las imágenes adaptadas más bellas artísticamente, pero de la forma más automatizada posible con el menor trabajo adicional posible, según sea necesario para el clasificador, de nuevo dependiendo del escenario y sus deseos, es decir sin embargo, ofreciendo las diversas realizaciones al menos algo del control necesario para llegar a la apariencia correcta, en lo que es el campo muy complejo del procesamiento de imagen, y el sistema de visión altamente no lineal de los consumidores de estas imágenes).
En la práctica, por supuesto, estos valores gp y gt no necesitan calcularse en todo momento, sino que típicamente ya que las clasificaciones pueden cambiar, por ejemplo, por captura de N imágenes, pueden interpretarse las LUT simplemente antes de que sean necesarias para reclasificar las imágenes de entrada, que aplican la función de mapeo requerida como en la Figura 4, por ejemplo para una pantalla de 400 nits conectada (y los metadatos se reciben al menos justo a tiempo, por ejemplo 5 imágenes con antelación).
En ese caso la unidad 200 parecerá como el factor multiplicativo común resultante requerido gt es decir por ejemplo b800(0,75).
En caso de que la imagen principal sea una imagen de LDR, que necesita mejorarse hasta, por ejemplo, HDR de 6000 nits, o cualquier imagen reclasificada para un brillo pico intermedio, se usan ecuaciones ligeramente diferentes similares en la realización:
gp=LOG(PB_D/PB_L;2,71)/LOG(PB_H/PB_L;2,71)
gp=POTENCIA(g,gp) [Ecs. 2]
El multiplicador de escalamiento 114 ahora rinde de manera similar como en la Figura 1, pero multiplica los tres componentes de RGB de color POR gt en lugar de g, que produce la apariencia de color deseado.
Sin embargo, puede ser que el clasificador desee para una escena complicada o captura de imágenes de vídeo una estrategia de reclasificación diferente, por ejemplo una que permanece más tiempo (es decir para mayor brillo pico de pantalla por encima de LDR 100 nits) cerca de la forma funcional de LDR. Él necesita especificar esto de una manera muy sencilla, para no usar tiempo de clasificación demasiado costoso de manera ideal él determina, por ejemplo, únicamente 1 único parámetro, en concreto el parámetro de ajuste gpm.
Por lo tanto, una realización más avanzada de nuestra unidad de determinación de factor de escalamiento 200 aplica las siguientes ecuaciones:
gpp=POTENCIA(gp.gpm)
gtu=POTENCIA(g,gpp) [Ecs. 3]
Si gpm está por debajo de 1 entonces las reclasificaciones de brillo pico inferiores se comportarán más como LDR en su apariencia (y curva de mapeo), y, viceversa, se comportarán más como HDR para gpm por encima de 1, cuanto más alto, más superior se elige gpm por el creador de contenido o clasificador.
Este comportamiento se ilustra en la Figura 5. Debe señalarse de nuevo que el gpm no funciona en una dirección en sentido de energía (clásico) a lo largo del eje x (ya que la forma de las curvas, que representa la clasificación, es decir, la relación entre todas las luminancias de objeto para una escena, no debe cambiar significativamente, sin embargo, con pequeños cambios como un ligero aumento de alguna parte que está psicovisualmente permitida, ya que esta corresponde a modificaciones de apariencia de luminancia/contraste deseadas mayores aceptándose el resto de las transformaciones pequeñas mediante la adaptación de la interpretación visual en el cerebro), pero funciona por valor de Y_HDR, por lo tanto, en la dirección del eje Y_L por así decirlo. De hecho, lo que hace gpm, es estrechar o comprimir la familia de curvas hacia la función de clasificación de LDR, o, viceversa, la función de mapeo de unidad de HDR, es decir determina la "agresividad de cambios de apariencia de reclasificación necesarios".
En la Figura 5, hemos elegido un valor de gpm igual a 1,3, y observamos que la curva resultante (503) de mapeo de luminancia o los factores multiplicativos comunes (ahora llamados factores multiplicativos comunes ajustados gtu) se han vuelto más similares a la curva de transformación de identidad de HDR. De manera similar con un factor de, por ejemplo 0,8, la curva resultante radicará por encima de la curva 403, es decir cerca de la curva de apariencia de LDR 405. Esto puede ser útil, por ejemplo, si hay objetos oscuros importantes en esta escena, por ejemplo caras, para las que es prudente mantenerlas suficientemente brillantes durante un tiempo largo, es decir hasta cuando se indica que la pantalla de representación es suficientemente brillante, por ejemplo por encima de 800 nits.
Sin embargo, esto aún es un ajuste global (en el sentido de que todas las luminancias Y_HDR se manejan de una manera simplemente relacionada, determinadas únicamente por la forma de la función de conversión de luminancia de HDR a LDR y el parámetro gpm). Un impacto mayor de nuestras estrategias puede provenir de realizaciones que permiten diferente ajuste para diferentes subregiones de la luminancia de entrada (y en consecuencia mediante el remapeo también de las luminancias de salida). Por ejemplo, si ajustamos la curva 403 de modo que se vuelve más brillante (más como LDR) para las luminancias más oscuras, por necesidad también se vuelve más brillante para las luminancias más brillantes (puesto que para mantener la apariencia, estas deberían tener para cualquier reclasificación luminancias de salida por encima de aquellas de las regiones oscuras de las imágenes), y esto puede ser inapropiadamente brillante. Por ejemplo, las regiones exteriores brillantes pueden perder demasiado contraste, y el clasificador puede percibirlas como irritantes para algunas escenas críticas. Es decir, le gustaría hacer las partes más oscuras de la escena más brillantes y en consecuencia en contraste y visibles, sin embargo, mientras aún mantiene las regiones superiores, por ejemplo, cerca de la apariencia de HDR.
El comportamiento deseado se muestra de otra manera con la Figura 7. En este punto mostramos, cuánto de la imagen clasificada de LDR contribuye a la apariencia de cualquier clasificación de MDR intermedia que corresponde a cualquier brillo pico de pantalla pretendido entre PB_L y PB_H. El comportamiento por defecto de las ecuaciones 1 es el gráfico 701. Uno observa que podemos proporcionar más peso a cualquier clasificación a lo largo de la ruta de cambio para diversos brillos pico intermedios en la clasificación de MDR. Por ejemplo, la curva 702 muestra una situación donde la clasificación de MDR permanece cerca de la clasificación de LDR hasta brillos pico intermedios brillantes relativos PB_D, y únicamente para las pantallas más brillantes empieza a mostrar la apariencia de HDR (en la explicación a continuación basándose en la métrica usada, esto corresponderá a donde caen las marcas para diversos valores PB_D, es decir si, por ejemplo, aquellos hasta (PB_H+PB_L)/2 caerán todos cerca juntos, es decir cerca de la posición de clasificación de LDR PB_L). Si y hasta qué punto se elige una curva de este tipo dependerá de la relación entre las clasificaciones de HDR y LDR, es decir las funciones para transformar el color entre las dos. El clasificador puede haber hecho diversas cosas, tales como, por ejemplo, dar brillo a las partes más oscuras en la clasificación de LDR, recorte suave de las partes más brillantes, aumentar el contraste para alguna parte intermedia, hacer algún proceso de saturación específico en una vidriera colorida, etc., pero, por ejemplo, si hay por ejemplo regiones oscuras críticas, puede elegirse una curva como 702 por el clasificador, y su valor gpm transmitirse a los diversos receptores, o asociarse con S_im. La curva 703, por otra parte, es una en la que rápidamente se introduce una gran proporción de la apariencia de HDR, incluso para pantallas conectadas relativamente oscuras.
En el ejemplo de la Figura 6, el clasificador indica un régimen de optimización que demarca (luma o) el valor de luminancia (Lt), en el ejemplo igual a 0,43. Por debajo de este valor Lt, él ha especificado un primer valor gpm, por ejemplo gpm_1= 0,3, es decir para todos los colores de entrada con una luminancia Y_DR <= Lt, se calcula la curva resultante como se explica con la Figura 5, con este valor gpm_1. Por encima de Lt, el clasificador desea pasar a un nuevo régimen de reclasificación, y en este ejemplo para los colores más brillantes que él desea tener la apariencia de HDR. Él determina un valor mayor que 1, en el ejemplo gpm_2=2,0, que hace que los píxeles más brillantes tengan una apariencia bastante más intensa de tipo HDR, más intensa que lo habitualmente necesario, pero para este ejemplo. En el ejemplo, en lugar de usar inmediatamente gpm_2=2,0 para los valores Y_HDR por encima de Lt, él especifica una interpolación para crear una región transitoria suave. Esto puede especificarse de diversas maneras, en el ejemplo aclaratorio de una manera sencilla especificando una luminancia superior del régimen transitorio, Lt2= 0,72. Por encima de 0,72, se determinará el factor multiplicativo común ajustado gtu que va a usarse, por ejemplo, creando la LUT de la curva usando gpm_2=2,0 o gpp_R =0,25 en este ejemplo. En la región transitoria se usará una estrategia de interpolación realizada, por ejemplo, calculando en primer lugar los valores de energía en cualquier lado de la transición que más tarde servirán para determinar el factor multiplicativo común gtu para luminancias de entrada oscuras respectivamente brillantes, y a continuación interpolar estas en las regiones transitorias calculando, por ejemplo:
gpp_L=POTENCIA(gp,gpm_1)
gpp_R=POTENCIA(gp,gpm_2)
gpp_i=gpp_L+(Y_HDR-Lt)*(gpp_R-gpp_L)(Lt2-Lt) [Ecs. 4]
Por supuesto, podrían usarse otras estrategias de interpolación si el clasificador deseara eso.
Este valor gpp_i se usará a continuación para determinar el valor gtu similar como se explica con la Figura 3 para cada luminancia de entrada en el rango transitorio (es decir gtu= POTENCIA(g, gpp_i)), mientras que en cualquier lado del transitorio se usa el respectivo valor gpp_L o gpp_R en la función de potencia en g, y con esta formulación puede calcularse una curva resultante como por ejemplo 603 a partir de una curva 403 que daría como resultado el método explicado con la Figura 4, o en la práctica, la curva resultante se calculará directamente. En correspondencia a la pantalla de 800 nits, el equivalente de una curva más sencilla 402 sería ahora la curva 602, que de hecho se observa que se comporta mucho más similar a LDR para los píxeles más oscuros, aunque de manera más intensa como HDR para los píxeles más brillantes. Debería quedar claro que para una unidad de realización 200 de este tipo producirá el equivalente gtu para gt, y de lo contrario cualquier cosa puede ser similar para las diversas posibilidades de la realización. En este ejemplo hemos interpolado los valores gtu para que se usen para la multiplicación común interpolando de hecho los valores gpp que lo definen, pero realizaciones alternativas podrían interpolar también los valores gtu resultantes en cualquier lado de los mismos transitorios. Típicamente el codificador especificará qué método se usa. Por ejemplo él puede indicar que el decodificador debe calcular los valores gtu en cualquier lado del rango [Lt1,Lt2], a continuación interpola linealmente esa curva en los puntos perdidos en el rango, y almacena estos como una LUT final para procesamiento de luminancia de la captura actual de imágenes.
Con estas realizaciones, el clasificador puede por lo tanto simplemente definir una estrategia de reclasificación de apariencia avanzada para las diversas posibles pantallas en el campo para incluso cualquier codificación de escena de HDR compleja. En casos sencillos él necesita codificar únicamente un valor gpm, puesto que, por ejemplo, por defecto el valor superior gpm_2 puede entenderse por cualquier receptor para que un escenario de este tipo se fije a 1,0. O, sin molestar al clasificador, pero para estar seguro de que ningún receptor menos compatible malinterprete la intención del clasificador, caso en el que el clasificador únicamente establece, por ejemplo, el valor gpm_1 inferior y un umbral Lt, a continuación el codificador por defecto rellena en gpm_2 = 1,0. En caso de que el clasificador especifique únicamente un valor de potencia gpm_2 para las luminancias por encima de Lt, el codificador rellena 1,0 por defecto para gpm 1. Típicamente el codificador puede determinar también automáticamente una estrategia de interpolación, que piensa que debería parecer bien (produce curvas de clasificación MDR al menos monotónicamente crecientes), y el clasificador puede aceptar la codificación de esa estrategia en los metadatos (por ejemplo como un valor Lt2) no haciendo nada, o volver a especificar una estrategia de interpolación de apariencia de manera más bonita en su lugar (si fuera necesario el clasificador también puede ajustar de manera precisa los valores gpm en cualquier lado de Lt). En general, de acuerdo con nuestros principios novedosos, cada factor multiplicativo común g que codifica la diferencia de clasificación entre el grado HDR y LDR puede usarse para determinar una reclasificación optimizada, definiendo un valor de potencia adecuado g P para cada entrada Y_HDR, valor de potencia GP que puede especificarse por cualquier curva codificada como metadatos de cualquier manera, por ejemplo una curva con tres puntos Lt para regímenes de brillo interesantes en la captura actual de imágenes, y en lugar de, por ejemplo, valores gpm o gpp fijos en cualquier lado, por ejemplo, una evolución lineal o parabólica a través del subrango de luminancias de entrada entre Lt2 y Lt3, etc., y a continuación se calcula la imagen reclasificada usando gtu=POTENCIA(g, GT) para cualquier Y_HDR como entrada, y aplicando ese gtu a cualquier codificación de color lineal del color de píxel actualmente procesado.
Así, según se explica con la Figura 2, cualquier receptor que obtiene los diversos metadatos, puede implementar la realización deseada de la optimización ajustada de pantalla como se especifica por el lado de creación de contenido. Para resumir, es necesaria al menos una imagen clasificada con colores de píxel como una imagen realmente codificada y transmitida y como un punto de inicio, por ejemplo una clasificación de 2000 nits (que realmente transmitió y recibió, por ejemplo típicamente MPEG comprimido, que la llamaremos la imagen principal). A continuación, habrá una definición de funciones para determinar al menos una clasificación adicional (por ejemplo LDR si la imagen principal era por ejemplo HDR de 2000 o 5000 nits), tan precisa como el clasificador la haya definido usando diversas posibles funciones globales o locales (hemos explicado en su mayoría el aspecto de procesamiento de luminancia que es el aspecto principal de reclasificación de rango dinámico de luminancia - es decir la determinación de otra apariencia en una escena para una pantalla con diferentes capacidades de rango dinámico que comprenden al menos brillo pico, aunque típicamente también pueden verse implicadas transformaciones de color, como procesamiento de saturación de al menos algunos objetos de imagen, y potencialmente incluso cambios de tonalidad). Esta transformación puede comunicarse, por ejemplo, mediante al menos un mapeo arbitrario de Y_HDR a Y_L, definido como una curva personalizada cc, por ejemplo definiendo cómo transformar la clasificación de 2000 nits en una clasificación que es teóricamente óptima para una pantalla de brillo pico de 500 o 10000 nits (de referencia o dirigida) o valores alrededor de esos. A continuación, si se requiere la transformación en la imagen de HDR recibida, por ejemplo puesto que está presente una pantalla de brillo pico en cierto modo diferente en el lado de recepción, o por ejemplo puesto que un usuario usa su control remoto para controlar el brillo máximo por debajo del máximo teórico de 10000 nits (similar a la creación de una clase de nueva pantalla), puede haber varias realizaciones de sofisticación sobre cómo crear una nueva reclasificación, por ejemplo para 8000 nits. Las versiones más sencillas pueden ser en gran medida automáticas, y hasta un cierto grado ignorar los detalles particulares colorimétricos y semánticos de una captura de imágenes de una escena de HDR, y de manera más precisa lo que el clasificador tiene o tendría que decir acerca de ello, es decir cómo a él le gustaría observar cambios en, por ejemplo, brillo inferior que ocurren en la distribución de brillos relativos de diversos objetos a lo largo del eje de luminancia hasta el brillo pico disponible. Esta distribución de los diversos brillos de objeto de imagen determinará la denominada apariencia de la escena (por ejemplo si es una escena nocturna, en su mayoría oscura, taciturna, aunque aún transmite una visión suficiente de las formas de las casas), entre otras cosas debido al efecto de contrastes inter-objeto (por ejemplo, una vidriera que es colorida, pero aún suficientemente más brillante que el interior de la iglesia), y típicamente se verán implicadas algunas optimizaciones requeridas, puesto que incluso si hay suficiente rango dinámico en la pantalla para representar una escena capturada particular, se trata típicamente con una determinación artística de una familia de apariencias, en lugar de la distribución exacta de las luminancias de objeto a lo largo del eje de luminancia como en la escena capturada original de por sí (es decir, por ejemplo el clasificador puede elegir hacer el exterior soleado únicamente un par de paradas más brillante que el interior para tener suficiente simulación del efecto de exteriores, en lugar de, por ejemplo, 5 paradas). Obsérvese también que el arte está creando las apariencias apropiadas, y la visión humana es altamente compleja, por lo que se desea tener una tecnología que al mismo tiempo sea razonablemente sencilla (de lo contrario no se adoptará) aunque suficientemente potente para manejar al menos la mayoría de los escenarios de una manera suficiente (de lo contrario los creadores de contenido no pueden usarla satisfactoriamente), y esto es con lo que los inventores deberían ocuparse. Como se enseñó anteriormente, el clasificador puede usar diferentes parámetros para enseñar cómo deberían depender las reclasificaciones del clasificador en al menos un lado de un rango en el que radica el brillo pico de la pantalla pretendida, es decir cómo las curvas de clasificación se transforman unas con las otras. Con uno o varios parámetros, el clasificador tiene un control rápido pero potente sobre cómo los receptores calcularán las diversas reclasificaciones potencialmente necesarias. Los receptores simplemente aplicarán las matemáticas en los colores de entrada de la imagen principal. Aunque pensamos una realización pragmáticamente sencilla que funciona en colores de píxel de RGB lineales, el experto en la materia entiende que nuestros principios pueden aplicarse también de manera equivalente en, por ejemplo, representaciones de color Yu'v', en las que, por ejemplo, los componentes de uv se mantienen constantes, e Y se transforma según se requiera, o usando correlacionados de Y como el valor V= max(R,G,B), que ambas son combinaciones lineales de los coeficientes de color lineal que pueden escalarse de manera similar multiplicativamente, etc. Siempre que puedan aplicarse los principios de escalamiento, así se necesita algún componente que sea indicativo del brillo del color, y a continuación pueden escalarse (multiplicarse) los componentes de color lineal o no lineal (puesto que puede establecerse el mismo factor de escala fuera de la ley de potencia, por ejemplo potencia(g*L; N)= potencia(g;N)*potencia(L;N), por lo que si se sabe cómo escala, por ejemplo, una luminancia, también puede conocerse cómo escala una luma y viceversa; y lo mismo puede ser si se desea formulado con otras correlaciones de brillo y/o espacios de color. Obsérvese que ahora también aclaramos los detalles básicos de nuestras realizaciones basándose en la PB_D de la pantalla pretendida, en caso de, por ejemplo, que un distribuidor de TV tenga una visión de procesamiento más complejo para mejora de espectacularidad de efecto de HDR, como por ejemplo potenciaciones de contraste local, etc., él puede coordinar este procesamiento en el ajuste de pantalla resultante de manera análoga haciendo los cambios necesarios con la información del creador de contenido, por ejemplo gradientes locales de las funciones de mapeo de luminancia, información de segmento de objeto, etc.
La Figura 3 muestra un ejemplo de nuestra tecnología aplicada en un lado de creación y codificación de imagen o vídeo, por ejemplo en una casa de post producción de un estudio de película, o una casa de producción para un difusor, o incluso en su forma más sencilla en un camión de producción de televisión en directo, etc. Un servidor de datos 301 tiene almacenamiento para suministrar una imagen de inicio Im_src (que es una imagen de HDR típicamente, es decir con al menos objetos de alto brillo, por ejemplo por encima de 1000 nits para representar luminancia, y en ocasiones también objetos oscuros, aunque en algunas realizaciones el original podría ser una imagen de algún rango dinámico inferior en la que el clasificador aún necesita crear efectos de HDR, calculando, por ejemplo, una bola de fuego con matemáticas gráficas informáticas, bola de fuego que puede representarse como una o más imágenes pequeñas) o secuencia de vídeo mediante una entrada 302. Sin limitación puede suponerse que esto es por ejemplo metraje de cámara sin procesar. Un convertidor de imagen 303 está dispuesto para convertir estos datos sin procesar en, por ejemplo, una imagen principal de HDR de 5000 nits, de la cual la relación entre luminancias representables y códigos de color (que comprenden lumas, y otros dos componentes que codifican los aspectos cromáticos del color) se determina mediante una función de transferencia electro-óptica (EOTF) típicamente fija aunque potencialmente variable preseleccionada. Típicamente el creador de contenido puede definir una imagen de una manera referida por pantalla, es decir que define cómo debe visualizarse en una pantalla de referencia de 5000 nits, y la conversión de luminancias de escena desde la cámara, o coordenadas de color equivalentes, típicamente implicará una clasificación artística, que llamaremos la clasificación maestra M XDR (por ejemplo, pueden codificarse lámparas de 20000 nits como códigos para representar 5000 nits después de aplicar la EOTF, y tales factores como los ajustes de exposición relativos de la cámara entonces ya tampoco son necesariamente importantes). Para ello, el convertidor de imagen 303 comprende una unidad de transformación de color 304, dispuesta para realizar sea cual sea el conjunto de transformaciones de color que se deseen para hacer una clasificación de color bonita. Los parámetros para estas transformaciones no necesitan almacenarse, ya que el sistema a partir de ahí, es decir, también la decodificación en un lado de recepción, puede empezar únicamente a partir de esta clasificación maestra (que típicamente se almacenará en la señal de imagen S_im, que puede formatearse de acuerdo con, por ejemplo, tecnologías de codificación de vídeo convencionales como MPEG_HEVC, es decir siendo la clasificación maestra la imagen principal que se almacena como un conjunto de imágenes de componente YCbCr transformadas por DCT, y los metadatos, por ejemplo como mensajes SEI), aunque algunas realizaciones podrían almacenar también algunos metadatos a partir de esta clasificación maestra. En segundo lugar, de acuerdo con nuestra invención el clasificador también clasificará una segunda apariencia de rango dinámico IM_GRAD_LDR, por ejemplo LDR para pantallas de 100 nits, ya que esta información es necesaria para las últimas optimizaciones de pantalla reales. Las funciones para este mapeo no necesitan almacenarse, es decir la unidad de transformación de color 304 escribirá los parámetros correspondientes (por ejemplo gai, cc) en los metadatos de S_im. La entrada requerida desde el clasificador puede introducirse mediante una entrada de datos 331 conectada al medio de interfaz de usuario de especificación de color 330, como por ejemplo un teclado, que puede ser una consola especializada para clasificación de color, etc. En la realización ejemplar suponemos que la clasificación maestra de HDR M_XDR se almacena o transmite como una imagen principal junto con funciones de degradación que permiten que un lado de recepción calcule la clasificación de LDR, pero, como alternativa, podría también almacenar/transmitir la clasificación de LDR clasificada secundaria como imagen principal, junto con funciones de mejora para reconstruir al menos una aproximación lo suficientemente cercana de la clasificación maestra de HDR en un lado de recepción, o podría usarse una clasificación intermedia como imagen principal, con funciones para obtener las clasificaciones de LDR y HDR creadas en el lado de codificación, etc.
El procesamiento de la imagen principal en las unidades 104, 105, 106, 102, etc., es de nuevo similar a lo que se explica con la Figura 2, puesto que el codificador necesita simular para el clasificador lo que realmente ocurre en el lado de decodificación. Sin embargo, ahora típicamente los valores de los parámetros (gai, cc, etc.) de diversas unidades de procesamiento de color se introducen mediante ajuste apropiado por el clasificador humano, aunque otras realizaciones podrían también leerlos de metadatos similares a cómo ocurre en la Figura 1, por ejemplo si algún clasificador ha realizado la degradación con otra unidad de transformación de color, posiblemente en otro momento. Por ejemplo él puede haber usado un programa de conversión de color con otras transformaciones matemáticas que definen la segunda clasificación, y una unidad de conversión intermedia puede convertir estos procesamientos de color a procesamientos de resultado de apariencia aproximadamente igual con cualquiera de las subunidades de procesamiento de color combinadas de cualquiera de nuestras realizaciones para hacer conversión de HDR a LDR, u otra conversión de rango dinámico. La unidad de determinación de factor de escalamiento 200 puede precargarse típicamente de manera inicial con un único gpm igual a 1. En ese caso la simulación se aplica a las Ecs. 1 o 2 para crear la clasificación de MDR. El clasificador puede mirar, por ejemplo, en paralelo (o de manera secuencial para adaptar su visión de manera diferente, etc.) a tres pantallas emitiendo las imágenes relacionadas a través de una salida de pantalla 311, en concreto una pantalla de HDR 312 que muestra la clasificación de HDR que en este caso era la imagen principal también denominada clasificación maestra, una pantalla de LDR 314 que muestra la clasificación de LDR de 100 nits y que es típicamente un monitor de referencia de 100 nits, y una pantalla de MDR elegida de manera adecuada 313 para mostrar la clasificación intermedia óptima reclasificada de acuerdo con una cualquiera seleccionada de nuestras realizaciones. Esta pantalla de m Dr 313 puede elegirse, por ejemplo, logarítmicamente cerca del medio de las dos clasificaciones disponibles típicas LDR y HDR. Si el clasificador trabaja, por ejemplo, en un formato que típicamente usa de manera convencional brillo pico de 2000 nits para la clasificación de HDR, él puede elegir una pantalla de MDR que tiene brillo pico de 400 nits (4x 100, y aproximadamente 2000/4). Puesto que la optimización es aproximada como un ajuste de apariencia de segundo orden, no es crítico si la comprobación se hace, por ejemplo, en una pantalla de MDR de 500 o 600 nits. También, el clasificador puede elegir usar, por ejemplo, una pantalla conocida en el momento de creación de contenido. Si la mayoría de las pantallas en el campo tienen un brillo pico de aproximadamente 800 nits, el clasificador puede elegir una pantalla de MDR de 800 nits de este tipo (incluso aunque él puede estar clasificando maestros de 5000 nits para un futuro en el que habrá mejores pantallas, pero, por supuesto, le gustaría que sus películas tuvieran buen aspecto en las pantallas de 800 nits actuales por el momento también). Normalmente es ventajoso estar en algún lugar cerca del punto medio para la pantalla de MDR, puesto que es donde se espera que sea necesaria la mayor cantidad de reclasificación. Pero el clasificador puede elegir también, por ejemplo, una segunda pantalla de LDR para comprobar la criticalidad de cualquier apariencia de tipo LDR, también en pantallas que pueden permitir en cierto modo apariencias de más contraste, por lo que en ese caso la pantalla de MDR puede encontrarse, por ejemplo, a una o 1,5 paradas por encima de 100 nits. En caso de que el clasificador esté satisfecho con la apariencia, puede presionar un botón "finalizar". En el ejemplo este puede almacenar, por ejemplo, la señal S_im (es decir la imagen principal y los metadatos para degradación), y en el ejemplo anterior un valor gpm de 1,0, pero en realizaciones más avanzadas datos de optimización de clasificación de m Dr más avanzados en un producto de memoria 321, como por ejemplo un disco blu-ray (BD), mediante una salida de imagen 320. El experto debe entender que de manera similar los datos pueden almacenarse, por ejemplo, en un servidor para suministro posterior a través de, por ejemplo, internet, o difundirse en tiempo real, etc. En realizaciones más avanzadas, el clasificador puede usar el cálculo de la clasificación de MDR, aplicando, por ejemplo, la función 503 como un punto de inicio. Él puede a continuación clasificar para obtener una tercera apariencia precisa, mejorando este principio de reclasificación sencillo (es decir él de nuevo usará al menos algunas herramientas de la tecnología de codificación de clasificaciones original, pero puede empezar desde una reclasificación de MDR de pantalla ajustada en lugar de una clasificación maestra, para llegar a una tercera clasificación original, y un conjunto de funciones de transformación de color, para comunicarse a algún receptor). Por ejemplo él puede determinar una región de las imágenes de la captura, y aplicar una curva personalizada adicional a la misma, para manejar específicamente estas subregiones/objetos. Esto puede usarse, por ejemplo si una cara en la oscuridad es crítica, las funciones de reclasificación sencillas lo hacen razonable, de modo que cualquier cosa como los ojos y la impresión facial puedan percibirse bien, pero el clasificador ahora bastante crítico no está satisfecho aún (en todos los campos de esfuerzo algunas personas pueden ser menos críticas, y otras incluso altamente críticas). Las función de reclasificación sencilla elegida puede conducir a una clasificación de MDR bonita para, por ejemplo 500 nits en lo que respecta a los entornos -por ejemplo una calle oscura- puesto que estos no se miran tan críticamente, pero el clasificador puede desear hacer la cara más saludable, y aplicar alguna función adicional. Los metadatos para esa tercera (parcial) clasificación pueden almacenarse también como una o más funciones en el disco blu-ray, o transmitirse como metadatos adicionales etc. Una o más unidades de formateo de señal 310 pueden verse implicadas en formatear todos los datos en el formato requerido. Por ejemplo, para controlar una pantalla puede usarse otra codificación que sigue el ancho de banda limitado de la conexión de la pantalla, que para almacenamiento en, por ejemplo, un BD, caso en el que puede codificarse una imagen de alto rango dinámico formateada SF_X2DR de acuerdo con cualquier esquema de codificación de HDR, pero preferentemente un esquema en el que una imagen principal se complemente mediante metadatos que codifican transformaciones de color para calcular una segunda imagen de rango dinámico a partir de la imagen principal, siendo las dos imágenes para pantallas con rango dinámico significativamente diferente, es decir típicamente al menos un factor 2. En el ejemplo ya hemos supuesto que la tubería de procesamiento de luminancia (realizada como 102) contiene un mapeo a un formato de LDR típico (como la inversa 709 realizada por la unidad 112), pero la pantalla de MDR puede tener otro formato de origen, etc., que la unidad de formato 310 puede tener en cuenta. Esta no es la parte dominante de nuestras enseñanzas novedosas, debería quedar claro para el experto, y no se elaborará adicionalmente.
La Figura 8 describe cómo el principio de optimización puede funcionar para obtener la saturación de color correcta de colores de píxel para controlar pantallas de MDR de brillo pico intermedio, de manera similar al procesamiento de luminancia anteriormente explicado. En algunas realizaciones puede preferirse hacer tanto el escalamiento de luminancia como de saturación, aunque otras realizaciones pueden usar únicamente escalamiento de luminancia. Los colores de entrada tienen una saturación de entrada, o de manera más precisa un croma C_in, que se hace referencia a un valor cero que es un blanco. Existen varias definiciones de saturación, por ejemplo saturaciones normalizadas a [0,1] como en HVC, u otras saturaciones como en CIE 1976 uv, pero todas tienen la propiedad de que la saturación de un color se define por un vector que empieza en un blanco predeterminado como D65, y que se extiende a través de una distancia. Supóngase que tenemos en una imagen de entrada de HDR un píxel que tiene una saturación Cs, y que se aumentará a un valor Cf. Esto puede definirse por un factor multiplicativo s, que es un factor similar a nuestro factor multiplicativo común inicial g anteriormente descrito. Si la imagen de LDR está más saturada que la de HDR (que, por ejemplo, puede ser debido a que cada una se reduce en luminancia de las regiones de imagen representadas puesto que las capacidades de brillo pico menores de una pantalla corresponden a una reducción en colorido que tiene que contrarrestarse por un procesamiento de saturación especificado por el clasificador), es útil aumentar la saturación de clasificaciones de MDR. También, pero en menor medida, en concreto con un factor st, que es una realización de gt. Los aparatos que tienen capacidad de procesamiento de saturación, tendrán típicamente un procesador de saturación de color 106 que no es un procesador sencillo que usa un multiplicador de saturación fija s, sino que en su lugar está dispuesto para proporcionar saturación escalada de manera apropiada. El procesamiento de saturación puede fijarse a través de todas las luminancias, que puede hacerse con un único valor multiplicativo s pero aún necesita optimización de pantalla a un valor óptimo para cada pantalla de MDR conectada, pero típicamente para conversión de rango dinámico puede desearse procesamiento de saturación más sofisticado. Por ejemplo, la saturación puede variar dependiendo de la luminancia, o valor menos luminancia, y/o saturación de entrada, etc. Es importante, sin embargo, que la reclasificación de saturación requerida (es decir entre la imagen de HDR y LDR) para cada píxel de entrada se especifique por el clasificador y se comunique en los metadatos MET, pueda determinarse en el receptor, y a continuación escalarse de manera apropiada. Típicamente el procesador de saturación de color 106 tendrá algún mecanismo de tabla de búsqueda para determinar s. Por ejemplo, si el color de entrada (Ri,Gi,Bi)=(0,2,0,3,0,7) la LUT produce por ejemplo s=1,1, o en caso de desaturación por ejemplo s=0,5, y para otro color de entrada puede haber el mismo o un valor diferente de s. El procesador de saturación de color 106 a continuación comprende una unidad para calcular un factor multiplicativo de saturación resultante (st) que es una realización de un factor multiplicativo común resultante gt, que es similar a la unidad 200, y calcula: st= POTENCIA(s, sp). La relación sp puede ser para saturación en cierto modo diferente que para el procesamiento de luminancia, pero típicamente dependerá aún de la relación entre PB_D, PB_H y PB_L, y a menudo no hay necesidad de hacerla diferente a partir de cómo se calcula gp (pero por supuesto podrían usarse diferentes valores gpm para el procesamiento de saturación y de luminancia, haciendo las luminancias de la apariencia de MDR más como la apariencia de LDR por ejemplo, haciendo aún que las saturaciones parezcan más como las saturaciones de la imagen de HDR, etc.). Como se observa en la Figura 8, también puede tener sentido usar regímenes de saturación diferentes definidos mediante, por ejemplo, demarcadores de saturación Lts (que realmente puede ser cualquier información de demarcación que permita clasificar los colores de píxel en dos o más clases diferentes para diferente procesamiento de desaturación), por ejemplo para especificar una región de desaturación para manejar brillos altos en las reclasificaciones de brillo pico bajo, y una región para potenciar el colorido de colores más oscuros, etc.
Es ventajoso realizar típicamente el procesamiento de saturación como:
Ro=st*(Rin-Y)+Y
Go=st*(Gin-Y)+Y
Bo=st*(Bin-Y)+Y [Ecs. 5]
en las que Ri, Gi, Bi son los componentes de color de entrada lineal, y Ro,Go,Bo los componentes de color de salida resultante después del procesamiento de saturación, e Y es la luminancia lineal, es decir una combinación lineal a*Ri+b*Gi+c*Bi, con constantes predeterminadas a, b y c, aunque pueden usarse otros procesamientos equivalentes.
La Figura 9 proporciona un ejemplo adicional, sobre cómo pueden seguirse las particularidades optimizadas de manera dependiente de la escena en ocasiones complejas de un deseo del clasificador, incluso con la más sencilla de nuestras realizaciones, que únicamente reside en un cálculo de reclasificación sencillo en un aparato de recepción, y acerca del cuál el clasificador, por ejemplo, no se preocupa de comprobar nada más. Usamos para este ejemplo el brillo pico de pantalla de representación pretendida logarítmica dependiendo del escalamiento de las Ecs. 1. Observamos que este método puede establecer ya muy bien las luminancias y contrastes necesarios donde sean necesarios en la escena. Por ejemplo, en este ejemplo las regiones en cierto modo por encima del 60 % (lineal) del máximo (es decir blanco) -que suponemos definidas en la imagen de HDR- pueden necesitar típicamente alguna aplicación de brillo en esta representación. Por otra parte, en este ejemplo hay también una región de imagen crítica alrededor del 50 %, que puede ser, por ejemplo, una cara del actor en una parte de la escena que está iluminada de manera relativamente brillante. Por otra parte, en las regiones más oscuras de la imagen en este ejemplo no parece que hayan demasiados objetos de alto interés, puesto que la apariencia de LDR puede permitirse recortar suavemente de manera intensa aquellas regiones más oscuras. Esta puede ser una escena donde tenemos, por ejemplo, muchas cosas sucediendo fuera en, por ejemplo, un paisaje iluminado por el sol, y algunas dentro que podemos decidir artísticamente oscurecer bastante en cierto modo, es decir, tal vez un granero o dentro de un templo que se observa a través de una puerta pequeña, y por lo tanto no es demasiado relevante en ningún caso lo que hay allí (puesto que el tamaño pequeño de la región, incluso en la representación de HDR en una pantalla de HDR el sistema visual puede descartar rápidamente esto como un "negro sin interés", y por lo tanto con una misma filosofía de clasificación el clasificador puede decidir hacerlo también en LDR aproximadamente lo que se observa como negro (obsérvese que nuestros métodos deben poder funcionar en variantes de clasificación más precisas así como menos críticas, y típicamente con escenas de HDR más fáciles y más difíciles, siendo las primeras, por ejemplo, dos regiones espaciales de la imagen de las cuales la luminancia promedio exacta no es en absoluto importante en cualquier representación de MDR, y teniendo la última, por ejemplo, requisitos de representación muy precisos, como por ejemplo un monstruo parcialmente oculto en la niebla). La propiedad importante es, que incluso con la más sencilla de nuestras realizaciones, podemos obtener bien aproximadamente las apariencias de brillo buenas y todos los correspondientes contrastes determinables (es decir entre la luminancia del píxel interesante seleccionado 1 y 2, o luminancia promedio de región interesante 1 y 2, por ejemplo una esquina oscura y una parte del exterior observada a través de una ventana de una habitación), para todos los rangos dinámicos intermedios (MDR). En esta Figura 9 la curva 909 es la transformación de luminancia a aplicar para transformar la apariencia de HDR de 5000 nits en una apariencia de LDR de 100 nits, el HDR transformado a sí mismo sin variar correspondería, por supuesto, a la diagonal, y las otras curvas son las transformaciones requeridas para reclasificar a diversas clasificaciones de MDR, para pantallas de diversos brillos pico entre 5000 y 100 nits para que se suministren con imágenes de apariencia optimizada.
La Figura 10 muestra otro ejemplo más avanzado permitido por nuestras realizaciones (ya esté controlado (parcialmente) por un clasificador humano en el lado de creación de contenido o por una reclasificación automática hecha por un receptor particular, por ejemplo una televisión de HDR). Este ejemplo muestra cómo puede reclasificarse de manera inteligente si se tiene información más semántica acerca de diversas regiones de imagen, determinadas de una manera sencilla (por ejemplo, por el clasificador y comunicada, o mediante una unidad de análisis de imagen que reside solamente en un receptor) como un único demarcador de luminancia (o luma) Lrc. En este ejemplo, la región más brillante puede ser muy crítica, y la región más oscura puede ser difícil de optimizar al mismo tiempo (es decir mantener, por ejemplo, suficiente contraste para el rango oscuro entero de posibles luminancias de píxel en una captura de imágenes, mientras que al mismo tiempo necesita una parte suficientemente grande del rango de luminancia para que las imágenes de MDR inferior representen con suficiente calidad visual la región de imagen más brillante), es decir puede decidirse rápidamente reducir su calidad de una manera particular. Significa rápidamente, que incluso para brillos pico de (PB) de MDR que están cerca del PB de HDR, por ejemplo si PB_H = 2800 nits y PB MDR es 2500 nits, el rango inferior está mapeado completamente o en su mayoría de acuerdo con una estrategia que imita la apariencia de LDR 100 nits. Sin embargo, la región más brillante puede ajustarse de manera más gradual hacia la apariencia de LDR, a través de los diversos PB de MDR entre 2800 y 100 nits. La estrategia puede estar determinada tanto por el clasificador, al menos parcialmente, o como estrategia de guiado inicial, pero también determinada (por ejemplo anulando sea lo que sea que especificara el clasificador, por ejemplo él puede haber especificado una reclasificación suave hacia la apariencia de LDR para tanto las regiones más oscuras como más brillantes de las imágenes de la captura) por el mismo el receptor.
Donde hemos aclarado los ejemplos anteriores con el escenario de realización donde estaba implicado un clasificador humano, es decir estaba permitido a dar una opinión en la representación final de sus imágenes mediante estas realizaciones de sistema de comunicación de imagen de HDR, como alternativa también podría usarse un algoritmo informático como un clasificador automático. Esto puede ocurrir en un lado de creación, donde el algoritmo puede hacer análisis de imagen muy inteligente no en tiempo real, por ejemplo identificando regiones, clases particulares de texturas, o incluso identificar clases de objetos como humanos, ciertos animales, coches al sol con reflejos especulares en su metal, etc., y basándose en información estadística sobre cómo un clasificador desearía típicamente clasificar estas clases de escenas y sus objetos. Sin embargo, una unidad de clasificación automática podría residir también en un receptor, y aplicar procesamiento de mejora de imagen codificando el conocimiento de la calidad de imagen desarrollado por un fabricante de televisiones durante décadas (y tal vez constituya su apariencia característica). La nueva solución es ahora incorporar eso en nuestra tecnología de reclasificación de HDR actual. La Figura 11 aclara esto con una realización ejemplar de una unidad de transformación de color del receptor 1130, es decir, por ejemplo, incorporada en una televisión, o un decodificador de salón, o un ordenador que suministra una pantalla comercial en un supermercado o evento de exteriores, etc.
Las imágenes del vídeo, y los metadatos para hacer la reclasificación de color nativa (por ejemplo de HDR de 5000 nits como imágenes de entrada Im_in, a LDR de 100 nits, por medio del escalamiento logarítmico explicado con la Figura 1, con un parámetro lg elegido como que es óptimo para esta escena mediante un clasificador humano del lado de creación, y también parámetros P_CC que definen, por ejemplo una forma multilineal de una curva de mapeo de tono personalizada) se reciben mediante una red de comunicación de imágenes 1101 en este ejemplo (es decir, por ejemplo, un servidor de vídeo conectado mediante internet, o un servicio de televisión difundido o multidifundido a través de una red de telefonía móvil, etc.). Una unidad de determinación de factor de escalamiento 1102 a continuación aplica la especificación de mapeo de tono especificada como óptima para mapear una apariencia en un extremo de un rango pretendido (aunque pueden usarse también en principio los mismos principios para ir en cierto modo fuera de los límites del rango), es decir HDR, a la otra apariencia de referencia de extremo de rango, es decir LDR de 100 nits, y determina un factor de escalamiento inicial g nat por lo tanto, para hacer escalamiento de RGB lineal (o incluso potencialmente no lineal). Una segunda unidad de determinación de factor de escalamiento 1103 determina el factor de escalamiento final g_fin para usar en la presente situación, pero ahora en esta realización, este factor puede determinarse mediante el conocimiento de mejora de imagen del aparato de recepción. Para ello, está comprendida una unidad de análisis de imagen 1110, que puede comprender diversas unidades de análisis de imagen (que típicamente pueden ser, por ejemplo, diversos componentes de software de análisis de imagen, o realizaciones de hardware de los mismos). En este ejemplo de aclaración sencillo, describimos una unidad de análisis de histograma 1112, y una unidad de reconocimiento de objeto 1112. La unidad de análisis de histograma 1112 puede estar dispuesta para analizar la distribución de luminancia de la imagen o imágenes, y determinar que hay, por ejemplo, muchos píxeles oscuros, o tal vez píxeles semánticamente importantes que son oscuros (puesto que las unidades pueden funcionar juntas). Puede determinar a continuación, por ejemplo, un demarcador de la región oscura y una estrategia de aplicación de brillo pretendida. La unidad de reconocimiento de objeto 1112 puede comprender, por ejemplo, un detector de cara, que puede detectar caras que tienen diverso brillo puesto que los actores permanecen en diversas partes iluminadas de manera diferente de la escena. A partir de este conocimiento, una unidad de determinación de parámetro de estrategia 1113 determina los parámetros correspondientes, de acuerdo con los cuales residen las diversas realizaciones que desvelamos en la segunda unidad de determinación de factor de escalamiento 1103 (obsérvese que alguna de esa funcionalidad podría residir en otros componentes en algunos aparatos o sistemas, pero describimos su funcionalidad). Por ejemplo, una manera lógica de que la unidad de determinación de parámetro de estrategia 1113 comunique que desea, por ejemplo, aplicar brillo a la escena y en particular los colores más oscuros más que el método nativo del clasificador (que podría ser tan sencillo como aplicar nuestra ecuación uno, sin ninguna información de reclasificación específica del clasificador humano, o una estrategia más avanzada, que puede seguirse parcialmente, o anularse en mayor medida), puede hacerse especificando un nuevo valor gpm (por supuesto em algunas realizaciones el aparato podría definir también nuevos valores para las funciones que definen el mapeo entre las clasificaciones de HDR y LDR originales, por ejemplo la pendiente de la parte inferior, pero algunas realizaciones podrían considerar esa información sagrada del proveedor de contenido, que también necesita no modificarse, puesto que su apariencia especializada puede conseguirse como un post procesamiento; si es necesaria alguna adaptación de forma funcional, entonces al menos esta puede implementarse únicamente para la parte de cálculo de m Dr , por ejemplo en lugar del escalamiento multiplicativo puro descrito en la Figura 19, la televisión podría aplicar una curvatura a la función de mapeo de luminancia de MDR resultante para los valores más oscuros, o cualquier redefinición de función alternativa, por ejemplo, multiplicar por los valores de corrección de una función fija específica o dependiente de la imagen determinada por la TV). Si la unidad de análisis de imagen 1110 ha determinado -por ejemplo con su análisis de histograma e identificación de un actor en esa región más oscura- que de acuerdo con el fabricante del receptor las partes más oscuras son de manera nativa demasiado oscuras para su representación en, por ejemplo, la pantalla de 1100 nits conectada, el gpm puede elevare un poco hacia la apariencia de LDR (ya que moverse hacia LDR puede tener típicamente un comportamiento que aproximadamente, y ahora dependientemente de la escena, corresponde a la aplicación de brillo). Un demarcador de luminancia Ltr1 puede comunicarse para hacer esa estrategia únicamente al subrango más oscuro de las luminancias de HDR. Hay otras maneras en las que la unidad de análisis de imagen 1110 puede comunicar su deseo de la reclasificación necesaria, como segundos metadatos MET_2. Por ejemplo podría pretender que la pantalla conectada no sea de 1100 nits, sino en su lugar comunicar un valor de PBF de por ejemplo 1300, o 900, y haber usado este de manera análoga a PB_D en el cálculo de relación logarítmica. O podría ya comunicar una relación logarítmica, y dejar que la unidad 1103 aplique un valor gpm a ella, etc., o podría ajustar los valores PB_H y PB_L. Por lo que cualquier combinación requerida de valores para calcular el g_fin final, con los valores correctos según se determinan mediante la unidad de análisis de imagen 1110 puede comunicarse en MET_2 a la unidad 1103. Además de analizar puramente las imágenes Im_in, puede ser muy ventajoso observar qué inteligencia ha puesto el clasificador en la forma de las funciones de transformación de color. Para ello, una unidad de análisis de mapeo de tono 1114 puede estar comprendida en algunas realizaciones, dispuesta para analizar la forma funcional del mapeo de tono total entre la primera y segunda apariencias de referencia, es decir típicamente HDR y LDR. Por ejemplo esta unidad puede adaptar tres regiones, y comprobar que se hace procesamiento (por ejemplo recorte suave) al color más brillante, procesamiento que se hace a los colores de rango medio (por ejemplo una potenciación de contraste), y procesamiento que se hace a los oscuros. Si por ejemplo se halla una curvatura rápida en el mapeo de tono, como en el ejemplo de la Figura 9, la parte fuertemente inclinada alrededor del 50 %, a continuación la unidad de análisis de mapeo de tono 1114 puede determinar un punto de demarcación Ltr1 allí. Esta información puede a continuación usarse por la unidad 1113 para determinar una reclasificación inteligente para aquellos tonos medios que optimizan el contraste de acuerdo con las preferencias del fabricante del receptor, teniendo en cuenta también tanto el conocimiento semántico acerca de la escena presente en la especificación de clasificación del clasificador, y, manteniendo al menos en cierto modo algo en línea en diversas realizaciones con esta intención de reclasificación del clasificador, puesto que estas realizaciones aplican la reclasificación en las intenciones de reclasificación originales como se codifican en g nat.
Obsérvese que en este ejemplo más sencillo, suponemos que no habían parámetros de metadatos adicionales que indicaran un deseo específico de reclasificación a partir del clasificador (por ejemplo un valor gpm), sin embargo, si el clasificador especifica tales metadatos en la señal de entrada S_im, puede también comunicarse a la unidad 1110. Esta unidad puede a continuación preocuparse de este deseo, por ejemplo cambiando el valor gpm en una tolerancia pequeña, por ejemplo dentro del 5 % o el 10 %, o únicamente a través de un subrango limitado del rango de luminancia, por ejemplo únicamente cambiar la apariencia de los colores un 10 % más oscuros, mientras se mantienen los deseos originales del clasificador de creación de contenido para los colores más brillantes, o como alternativa incluso ignorar totalmente el valor gpm del clasificador, y determinar su propio valor gpm para la unidad 1103.
Algunas realizaciones más avanzadas pueden también permitir que un observador tenga una opinión sobre la apariencia final. Típicamente mediante una conexión de entrada 1121 a un control remoto 1122, y mediante una interfaz de usuario 1120, él puede proporcionar algunos mensajes de reclasificación sencillos. Por ejemplo él puede tener una escala de 5 puntos para aplicar brillo a la imagen. Esto puede comunicarse como una señal b_rel = {-2, -1, 0, 1, 2}, que puede convertirse mediante la unidad 1113 a, por ejemplo, un número de paradas de aumento de brillo en los colores un 10 % más oscuros, y finalmente uno o más valores gpm, y puede haber uno o más demarcadores (Ltr1, Ltr2) para hacer la correspondiente aplicación de brillo que crearán una apariencia apropiada para el observador. Cualquier vinculación de este tipo puede realizarse por las diversas realizaciones del receptor, por ejemplo -1 puede corresponder a un aumento del 10 % en PB_D, transmitido como un valor de PBF, etc.
Ya se ha aclarado anteriormente cómo podemos determinar con las presentes realizaciones reclasificaciones que se correlacionan con el parámetro visual importante de brillo, y con la Figura 12 aclararemos de manera simplificada un ejemplo de cómo podemos determinar de manera semántica de imagen diversos cambios de contraste de la apariencia de representación de MDR final con nuestras diversas realizaciones. El rango dinámico o en su lugar la relación de contraste es un concepto sencillo: el color más oscuro en la imagen frente al más brillante. El contraste psicovisualmente relevante es un parámetro más complejo. Además, puede determinarse de manera relativamente sencilla con nuestras realizaciones de imagen adaptativa anteriormente descritas. Típicamente el contraste final en una escena puede estimarse apropiadamente a partir de dos factores: los contrastes intra-objeto, que determinan cómo de bien son visibles las texturas de objetos (por ejemplo una expresión facial, o la tosquedad de esa cara, o los granos de una superficie de madera), y en particular cuando están implicadas imágenes de relación de contraste alta: los contrastes inter-objeto. En muchas escenas de HDR, puede haber únicamente unas pocas, en ocasiones únicamente 2, regiones diferentemente iluminadas. Por ejemplo la luminancia promedio en interiores, frente a la de exteriores. O la luminancia nocturna promedio de la calle, frente a la de un par de lámparas. En HDR puede haber diversos sub-rangos de luminancia promedio de este tipo, puesto que el rango de luminancia de, por ejemplo, una pantalla de 5000 nits es suficientemente grande. Por ejemplo, puede haber un número de diferentes blancos, por ejemplo, papel blanco en interiores, blanco cerca de una lámpara, y el incluso blanco más brillante de la misma lámpara, y puede ser una lámpara incluso más brillante. En LDR, no todas estas diferentes regiones brillantes pueden mapearse fidedignamente. Realmente, las codificaciones de LDR heredadas son bien adecuadas para codificar todos los colores con relación al blanco, o de manera similar el gris medio al 18 % relacionado (y, sin embargo, terminando por muy profundo que podamos entrar en el ruido y/o cuantificación de código por una parte, pero también por otra parte, lo que observará el sistema visual adaptado como negros, por ejemplo por debajo del 5 % lineal de blanco), pero no para tales muchas regiones iluminadas de manera diferente. Para algunas imágenes el clasificador para la apariencia LDR puede tener que elegir recortar todas las regiones de blanco diferentes al mismo blanco de LDR (R=G-B=255), en lugar de arriesgarse a que algunas lámparas parezcan grises. Por lo que, por ejemplo, el equilibrio entre la apariencia de brillo promedio para los píxeles de interiores en un monitor de l Dr de 100 nits, y cómo de brillante se perciben los exteriores (donde estos exteriores pueden necesitar también estar altamente saturados en lugar de más brillantes pero hacia pastel), es decir el contraste intra-objeto para aquellas dos regiones, puede ser uno crítico dependiendo de la imagen procesada.
La Figura 12 explica cómo el receptor podría equilibrar los diversos contrastes en tales regiones, y por lo tanto la apariencia de contraste total de la imagen representada. La curva 1201 específica cómo el clasificador especifica el mapeo de tono para obtener la imagen de LDR de 100 nits. Observamos una región que recorta de manera suave los colores más brillantes, una región de rango medio donde parece estar sucediendo muchas cosas, es decir puede haber varios objetos críticos allí (es decir 3 actores iluminados de manera diferente), puesto que hay un número de puntos de curvatura críticos en esa parte de la curva de mapeo de tono, y un mapeo preferido para los colores más oscuros. Si la unidad de análisis de imagen 1110 determina dos demarcadores Ltr1 y Ltr2 para estas subregiones importantes, puede ahora proponer diversos métodos de equilibrio de contraste. Por ejemplo, puede determinar que para los colores más brillantes, la curva 1210 proporciona un contraste más óptimo. Eso puede cambiar la apariencia de esa región, por ejemplo, exterior soleada, puesto que ahora los píxeles más oscuros de esta subregión pueden ser más oscuros para digamos una imagen de MDR de 1200 nits que lo que habría propuesto la reclasificación nativa a MDR de 1200 nits, pero eso puede ser también deseable para el fabricante del receptor. En este ejemplo el receptor ha elegido en gran medida ignorar los detalles de la clasificación para el rango medio (que puede o no ser sabio para la calidad de la apariencia representada finalmente, pero dependiendo del escenario de aplicación puede o no hacerse), pero aún hay alguna adaptabilidad, puesto que la pendiente de la curva de mapeo de tono propuesta por el receptor cambia aproximadamente a medio cambio de la parte de rango medio 1211. En este ejemplo, la relación de contraste para los píxeles más oscuros es la misma para la apariencia de MDR del receptor propuesta, sin embargo, el contraste se distribuye de manera diferente, puesto la forma de la curva de la parte inferior 1212 es muy diferente de la intención del clasificador (en este ejemplo, puesto que de manera ideal el receptor puede desear seguir al menos en gran medida la forma original). Con estas técnicas pueden optimizarse los diversos contrastes inter objeto e intra objeto, de acuerdo con lo que desea el receptor después de este análisis de las imágenes de entrada Im_in. Por ejemplo la parte superior de la curva 1210 (si este es el resultado para MDR de 1200 nits como se propone por el clasificador, o ya desde una primera determinación de la unidad 1110) puede no ser suficiente en contraste, es decir el exterior parece demasiado soso. Entonces puede determinarse otra curva parcial de parte brillante 1220, con más relación de contraste y más contraste. Esto puede significar que la parte media puede necesitar que sea de menos contraste, aunque por supuesto podría proponerse también una estrategia que mapeara diferentes valores Y_DR a los mismos valores Y_L. De esta manera, puede optimizarse tanto el segundo contraste intra-objeto C_intR2 como el tercer contraste intra-objeto C_intR3. Pero también esto determinará los contrastes inter-objeto, ya que el primer contraste inter-objeto C_gl (por ejemplo definido entre las luminancias de punto medio de la sub-región más brillante y más oscura, o ponderadas por ocurrencias de píxel, etc.), que a la inversa también puede optimizarse de manera principal por sí mismo, sacrificando potencialmente algún contraste intra-objeto, por ejemplo de C_intR3.
La Figura 13 muestra una realización genérica para calcular el mapeo de tono. Un desformateador de señal 1301 obtiene toda la información necesaria. COD_DIR y COD_METR especifican qué dirección de interpolación (DIR) y métrica usar para calcular posiciones de brillo pico de pantalla intermedio (por ejemplo como se especifica en el lado de creación de contenido por un clasificador), y asumiremos que estas son 135 grados, y la métrica basada en OETF que explicaremos en detalle adicionalmente a continuación en el presente documento. En algunas realizaciones que no permiten variación pueden construirse previamente en la distribución de circuito, por ejemplo, en una realización del aparato que únicamente realiza ajuste vertical. La unidad de determinación de mapeo de tono 1302 obtiene mediante la entrada de metadatos 116 toda la información para construir un mapeo de tono final entre las luminancias de la imagen de entrada (es decir una imagen de HDR) y la correspondiente segunda clasificación (LDR). Puesto que la segunda parte de nuestro método es que necesitamos establecer funciones de transformación de color entre dos apariencias típicas en la escena de HDR, típicamente una apariencia de HDR y, por ejemplo, de LDR de 100 nits LDR. Mediante la salida 1308 puede suministrar esta función de mapeo de luminancia en una forma adecuada (TMF), o en otras realizaciones un conjunto de g multiplicador, pero supondremos en este punto que se comunica la forma funcional entre las luminancias de salida de HDR de entrada y LDR clasificada, es decir supondremos que esto es solamente una función, que explicaremos como un mapa gráfico entre las luminancias, pero puede en la tecnología comunicarse, por ejemplo, como una LUT. Esta TMF se introducirá para la unidad de determinación de factor de escalamiento (200), que hará el cálculo de la transformación necesaria para obtener la imagen de MDR, y presentará esta para cada color de píxel a procesarse como un factor gt adecuado para multiplicación (por ejemplo 1,53, o 0,872, etc.).
Antes de que podamos explicar el detalle, proporcionaremos en primer lugar al lector algún entendimiento adicional sobre lo que está ocurriendo.
La Figura 17 muestra con un ejemplo de clasificación bastante simplista, qué deseamos conseguir con el ajuste de pantalla. Hemos mostrado las matemáticas como una vista en los ejes de luminancia absolutos (referencia 5000 nits), sin embargo, obsérvese que pueden haberse uniformizado perceptualmente de acuerdo con nuestra función de transferencia opto-electrónica (P-OETF). Por lo que somos lineales en espacio de código en esta representación, no en espacio de luminancia relativo como en otros gráficos. El lector puede pensar de manera aproximada como si los ejes fueran logarítmicos, pero el mapeo exacto entre coordenadas de luma relativas [0,0, 1,0] de una pantalla de referencia de en este ejemplo 5000 nits y la correspondiente salida real se determinan por (Philips EOTF):
Y=Lm*potencia((rhoAv-1)/(rho-1);gam) [Ec. 6]
En esta ecuación, v es la luma relativa (el lector puede comparar esta a las lumas de una señal de LDR, es decir por ejemplo los valores de imagen [0, 255] divididos entre 255), que suponemos que es un número con valor real, rho es una constante que es, por ejemplo, 33, gam es una constante que es 2,4, Lm es en este escenario el PB de la codificación de imagen, en concreto 5000, y a y potencia indican la función de potencia. Obsérvese que en caso de que deseemos definir una EOTF que finaliza en otros valores de PH_H por ejemplo superiores (o en esta ecuación Lm superior, por ejemplo 10000), entonces tenemos que calcular otro valor rho mediante:
rho_2=(33-1)*(PB_H/5000)A(1/gam)+1 [Ec. 7]
Por lo que los valores equidistantes en [0,0, 1,0] en, por ejemplo, el eje x de la Figura 17 se convierten a luminancias reales mediante el cálculo con la ecuación anterior. Esta función tiene una propiedad de que los valores v son más uniformes para el ojo humano no lineal a través de un rango típico de luminancias de pantalla de HDR, es decir puede observarse conceptualmente esto como una aproximación de nivel de luz psicológico.
Nuestra Philips HDR OETF (P-OETF) se define como la inversa de esta función:
v=1/log(rho)*log(1+(rho-1)*(Y/Lm)A1/gam [Ec. 8]
Ahora si deseamos hacer una clasificación para digamos una pantalla de 100 nits, el lector puede observar esto conceptualmente como si se visualizara en una pantalla de 5000 nits, pero no crea ninguna luminancia por encima de 100 nits (que es posible en una pantalla de 5000 nits, pero no en una pantalla de 100 nits). Una transformación de luminancia posible (de bastante mala calidad, pero buena para fines de explicación) para conseguir la imagen de apariencia de LDR (clasificada de manera original), es la curva 1702. Básicamente representamos con esta curva todas las luminancias de píxel (de una imagen de HDR recibida como Im_in) hasta 100 nits exactamente igual como si las representáramos si hubiéramos representado la imagen de entrada en su pantalla de referencia correspondiente, para la cual y típicamente en la que se clasificó, es decir una pantalla de 5000 nits. Pero todas las luminancias superiores simplemente las recortaríamos a 100.
Si tuviéramos que aplicar (teóricamente) una transformación de luminancia para obtener una reclasificación de 5000, desde exactamente la ya lm_in de 5000 nits que ya hemos recibido del clasificador de color, entonces por supuesto aplicaríamos típicamente la transformación de identidad 1701. ¿Ahora qué ocurre si deseamos determinar una reclasificación intermedia para digamos una pantalla de MDR de 500 nits?
Por supuesto podríamos recortar todas las luminancias por encima de 500, pero eso probablemente no sería la mejor reclasificación que podríamos hacer para esa pantalla, incluso si tuviéramos una mala transformación de luminancia de HDR a LDR de recorte definida por el creador de contenido. Tenemos información de todas las texturas de objeto más brillantes en la lm_in de HDR, por lo que para pantallas de PB_D superior, es decir si tenemos la capacidad, nos gustaría mostrar alguna de esa información, ya sea en una versión de calidad reducida en comparación con la representación de 5000 nits (es decir menos potenciación de brillo, menos contrastes impresionantes, menos destellos y brillos dependiendo de qué sea la escena de HDR y la imagen). Una opción sería calcular curva 1711, si se considera que todos los objetos hasta 100 nits se representan perfectamente (y estos "accidentalmente" eran un punto de demarcación interesante, por debajo del cual los objetos deberían representarse con la misma luminancia en todas las pantallas reales). Pero podríamos aplicar también otra estrategia (que corresponderá a calcular con otra métrica, y/o dirección de interpolación, y/o función de ajuste preciso para la agresividad de reclasificación (gpm, gpr)), que desplaza el punto donde se detiene haciendo el mapeo de luminancia igual, y empieza a comprimir en los objetos de HDR más brillantes a L_kn. Esto producirá una curva de mapeo de luminancia de MDR 1703 para generar la clasificación de MDR para una pantalla real de PB_D = 500 nits.
El lector entenderá que cuál escenario deseamos hacer, y cómo de lejos nos gustaría desplazar L_kn por encima de 100 nits, dependerá de qué haya en la imagen o imágenes. Si no hay demasiadas cosas de interés fuera, como ocurre a menudo con difusiones, para las que lo que se observa a través de la ventana está ya típicamente recortado o recortado suavemente de manera severa en la actualidad, se puede vivir con una cantidad menor de luminancias representables para estos objetos de exteriores (rango R_sm). Esto puede cumplirse especialmente si las luminancias de objeto de interiores no finalizaron exactamente en 100 nits (que pueden por supuesto depender de la clasificación cuidadosa que hiciera el clasificador) pero por ejemplo el necesita recortar (en este ejemplo extremo recorte intenso) algunas de las partes más brillantes de digamos algunos objetos reflectantes en la mesa. Ya que esta puede ser la parte principal de la escena, a la que el observador está mirando atentamente, puede tener sentido de hecho proporcionar también a estos objetos luminancias bonitas y contrastes de textura, incluyéndoles en la parte de equiluminancia (diagonal), hasta su luminancia máxima, o al menos más cerca de ella, a costa de la calidad de los colores de las casas iluminadas por el sol a través de la ventana como se observa en la Figura 14. Esto puede cumplirse especialmente si no se conoce nada adicional acerca de la imagen (por supuesto si el clasificador especifica un COD_METR y COD_DIR para usar, esto ya transporta en cierto modo qué situación se tiene, pero supóngase que el clasificador puede hacer únicamente una TMF, y el aparato de recepción tiene que determinar de manera autónoma todo lo demás, en una estrategia de ajuste de pantalla más sencilla, pero que aún debe proporcionar una calidad visual razonable para las imágenes de MDR como sea posible), puesto que entonces puede suponerse que probablemente haya un par de luminancias interesantes por encima del valor de calidad bajo de 100 nits, puesto que esta es una escena de HDR, por lo tanto pueden dividirse también los errores poniendo el punto L_kn un poco más alto que el 100 nits aleatorio (el clasificador puede tener cuidado de las luminancias de interiores ya en su clasificación maestra de HDR, es decir iluminarlas satisfactoriamente, y puesto que no es tan fácil hacerlas que se ajusten exactamente a la estructura LDR/HDR, clasificar los interiores a luminancias apropiadas, pero no siempre se cumple que él pondrá los objetos de interiores exactamente en el subrango de LDR ya en la clasificación de HDR maestra).
Sin embargo, en un escenario alternativo donde el clasificador sabe que las regiones de píxeles más oscuros caen en la parte de 100 nits, y que hay texturas importantes en alguna parte por encima de la parte de 100 nits, que necesitan contraste máximo o una cantidad máxima de posibles códigos de luma usables y luminancias (para la función de mapeo arbitraria de luminancias), el clasificador puede desear mantener el punto L_kn a 100 nits para todas las reclasificaciones de MDR. Por lo que el lector entiende que puede realizarse ajuste de pantalla (también denominado capacidad de ajuste) si se desea, pero le pueden gustar algunos medios técnicos adicionales para permitir la complejidad de escenas e imágenes de HDR también en los casos más difíciles, pero aún así de la manera más sencilla posible para el clasificador que puede necesitar determinar todos los factores y parámetros.
Ahora si deseamos ver qué ocurre en el fotograma de referencia de una pantalla particular, digamos una pantalla PB_D = 500 nits, podemos cortar a partir del mapa en la Figura 17 únicamente la parte que se extiende hasta Y_out = 500 nits. El máximo de esta representación, que es el máximo que puede representarse en una pantalla 500 nits, es decir que debería hacerse presentándola al código de luma máxima v = 1,0. Por lo tanto ignorando las etiquetas de nits que hemos puesto en el mapa por claridad, podemos observar la Figura 17 reclasificando la especificación como una especificación en espacio de código de luma (ya sea que, aunque en el eje de entrada pueden leerse códigos de luma equidistantes, por supuesto en el eje y en esta representación v=1,0 caerá en diferentes alturas para diferentes pantallas con diferente PB_D (el lector puede suponer para su entendimiento que estas diferentes pantallas están todas emuladas en una pantalla de 5000 nits, que por lo tanto debe dejar de representar a una cierta luma vx dependiendo de la capacidad de PB_D de la pantalla emulada).
La Figura 18 muestra las mismas trasformaciones ejemplares, pero ahora en un sistema de ejes a partir del cual podemos empezar a derivar la función de transformación de luminancia de HDR a MDR necesaria empezando desde la especificación de transformación de color de HDR a LDR recibida en metadatos asociados con la señal de vídeo S_im. El eje horizontal es el mismo, puesto que estas son las posibles luminancias de píxel de nuestra Im_in 5000 nits. El eje vertical debe determinar la luminancia relativa de un color de píxel de MDR reclasificado, de nuevo en una escala perceptualmente uniformizada con nuestra P-OETF, es decir entre cero y un valor L1 (o en otras palabras su correspondiente código de luma). Para la clasificación de 100 nits, este valor L1, que corresponde al código de luminancia máxima, por ejemplo 1023 en 10 bit, o 4095 en 12 bit, este será 100 nits. Observamos de nuevo que para luminancias de HDR de hasta 100 nits, de acuerdo con el clasificador deben representarse en pantallas de LDR de 100 nits con exactamente la misma luminancia que prescribe la imagen de 5000 nits, y por encima de esa la clasificación de LDR recorta todo a PB_L = 100 nits.
Observamos también, por ejemplo, que en esta representación, para obtener las mismas luminancias representadas para los grises oscuros en la pantalla de LDR como en la pantalla de HDR, se necesita aumentar las lumas de la imagen de LDR (que puede leerse también en este gráfico, de manera uniforme entre L1 que corresponde a v=1,0 y 0), es decir necesitamos aumentar la pendiente o ganancia oscura en un ángulo b, en comparación con los valores de HDR relativos (en este punto en el eje de 100 nits "incorrecto" mostrado como la diagonal, puesto que necesitarían un eje que finalizara en 5000 nits para conocer qué corresponde a la luma máxima, de cualquiera de la imagen de entrada, o la imagen de salida calculada teóricamente haciendo una transformación de identidad). ¿Cómo derivamos ahora la curva de mapeo de MDR necesaria 1803 para controlar de manera relativa entre el mínimo y el máximo (luma mínima y máxima que corresponden ahora para esta pantalla PB_D = 500 nits a 0 respectivamente 500 nits, que se muestra como Y_out_MDR en la parte derecha del gráfico), es decir esta Y-out_MDR para cualquier Y_in de Im_in? Dibujamos la línea ortogonal a la diagonal (el mapeo de HDR5000 a HDR5000 1701), y ponemos una métrica (1850) sobre ella. Esta métrica tendrá valores entre sin cambio de luminancia, o "0", y cambio "completo" (o "1"), que produce la clasificación de LDR. Ahora podemos ubicar la posición M_PB_D que corresponde a cualquier PB_D en esta métrica (véanse los ejemplos de cálculo a continuación). En caso de que deseemos que la apariencia parezca (para esta pantalla real con PB_D, pero una escena crítica particular, que necesite parecer más de tipo LDR durante un mayor tiempo cuando se mueve PB_D hacia arriba desde PB_L = 100 nits) más similar a LDR, podemos determinar otro punto M_PB_U, por ejemplo con realizaciones como se describe a continuación. Puede observarse el punto "a medio camino" como que corresponde a una pantalla en lo que respecta a su PB_D (no linealidad) alrededor del medio camino entre una pantalla de referencia de PB_H y PB_L, en lo que respecta a su apariencia, es decir sus capacidades de HDR. Supóngase ahora que el punto de curvatura PBE no es realmente como en este ejemplo sencillamente donde se inicia el recorte debido al valor de PB_L 100 nits limitado, sino un punto crítico especial en la clasificación (que puede haberse comunicado por al menos un parámetro (un parámetro en los metadatos que especifica la transformación de relación de color de la clasificación original de LDR y HDR del clasificador), por ejemplo su ubicación relativa en el eje Y_in entre 0,0 y 1,0, y su altura en el eje Y_out_LDR). Ahora observamos que en esta versión de interpolación rotada, este punto semánticamente importante no necesita permanecer en la misma posición Y_in que con las realizaciones de interpolación vertical, sino que puede desplazarse sobre un desplazamiento dp, que hace esta manera particular de visualización un ajuste elegante para algunos escenarios (puede ser útil también por ejemplo para funciones de HDR a LDR que recortan los negros por debajo de una luminancia de HDR L_Hb a 0 en la clasificación de LDR).
En la Figura 19 mostramos cómo podemos derivar la función de transformación de luminancia de MDR completa 1803 para obtener la imagen de MDR empezando desde la función que define la clasificación de LDR (1802), en una estructura rotada. Debería quedar claro para el experto cómo la unidad de interpolación direccional (1312) puede calcular una nueva coordenada x en curso rc que corresponde a la coordenada Y-in, y cómo puede rotarse una función. Esta función puede mantenerse, por ejemplo, en una memoria temporal. Ahora necesitamos determinar un valor de escalamiento multiplicativo S, por ejemplo 0,63 (la definición seguirá a continuación), y ese proporcionará los puntos requeridos de la curva de MDR. Tenemos como un ejemplo mostrado cómo el punto de curvatura se mueve a la nueva ubicación (M_PB_D si ponemos la métrica allí), pero todos los demás puntos, sea cual sea la forma de la función, cambiarán por el mismo principio multiplicativo. Por lo que se toma una coordenada en ejecución rc, y la correspondiente función de mapeo de luminancia de LDR es FR L(rc), entonces el valor requerido para la función de transformación de color de HDR a MDR se determinará como FR_M(rc)=S*FR_L(rc). Posteriormente, la curva puede rotarse de nuevo de modo que obtenemos los valores en la estructura de la Figura 18, y estos valores pueden ponerse de nuevo en una memoria. Lo que realmente será necesario para el procesamiento por píxel son valores de ganancia, por lo que las realizaciones de la unidad de determinación de factor de escalamiento (200) almacenarán típicamente una LUT de valores gt para todos los posibles valores Y_in (o de hecho, en nuestras realizaciones preferidas usamos valores RGBmax, pero varían de manera similar entre 0,0 y 1,0).
El cálculo de estos valores gt puede hacerse comparando la altura de la función de transformación de luminancia de MDR calculada para que se sirva a la pantalla de Pb_D con la altura de la diagonal para todos los valores de entrada, y a continuación obtener el valor de multiplicación mediante la división de estos dos, como se muestra en la Figura 16.
Ahora la Figura 20 muestra cómo definir una métrica que rinde bien para obtener el factor de escalamiento S.
Supóngase que deseamos derivar una imagen de MDR (y la función que determina los valores de luma que se requieren cuando tiene un valor de luminancia de imagen de entrada o de luma) para una pantalla de, por ejemplo, PB_D = 500 nits. Necesitamos escalar los valores de accionamiento, para obtener todas las luminancias de objeto correctas en relación con la curva de accionamiento para LDR. Por lo tanto, hacemos referencia a todo siempre típicamente (puesto que este es un valor normalizado heredado, pero las cosas podrían cambiar en el futuro y nuestros principios técnicos seguirán siendo los mismos) a la estructura de 100 nits de esa función de mapeo de luminancia de SDR 2002. Supóngase que ahora deseamos mantener, por ejemplo, la apariencia de los brillos más oscuros igual para las tres pantallas (HDR, LDR y MDR), cuánto tenemos que mover un punto P1 o P2 hacia abajo entonces, hacia la diagonal que corresponde a la clasificación de HDR, o hacia el eje de entrada horizontal, para obtener el punto correcto P3 en la curva de MDR.
Puesto que se necesita leer esta curva de MDR en el eje 500 en la parte derecha, introduciremos las siguientes ecuaciones matemáticas:
A=P_OETF(Lm/PB_L,PB_L)
B=P_OETF(Lm/PB_D,PB_D) [Ecs. 9]
Estas son nuestras funciones de OETF de HDR de gama logarítmica definidas anteriormente, pero no finalizando ahora a 5000 nits, sino en el segundo valor después de la coma, por ejemplo PB_L = 100 nits (típicamente). Es decir esto genera un eje perceptual con una coordenada que se detiene en 1,0 para por ejemplo 100 nits, que es el eje y de este mapa. Lm es en este escenario un valor de 5000 nits de Im_in, pero podría ser diferente para otras codificaciones de HDR maestras.
La Figura 23 muestra el significado físico de los factores de escala de conversión elementales (A,B) de otra manera. Podemos observar también la P_OETF como una función renormalizada que no finaliza en 1, sino que va a, por ejemplo, 5,0 (y a continuación posteriormente puesto que esto es simplemente una multiplicación del máximo, si se necesitan relaciones, podrían conseguirse las mismas en una versión normalizada a 1). Por lo que necesitamos transformar la curva de mapeo de luminancia de clasificación de HDR a LDR 2303, para obtener la curva de MDR apropiada. Esta no debe ser la curva 2304 puesto que es simplemente aplicar la clasificación de LDR a una pantalla PB_D más brillante, que proporcionará también brillo a una apariencia. Escalar las luminancias más oscuras en una imagen para una equi-apariencia (es decir tener las mismas luminancias representadas para aquellos colores por ejemplo un 10 % más oscuros en cualquier pantalla de MDR y las pantallas de referencia de HDR y LDR), producirá el mismo factor de estiramiento para el eje perceptual a una nueva versión normalizada (es decir 1,0 que corresponde a por ejemplo 500 nits) como se determina este valor a partir del blanco (1,0). Mostramos ahora el comportamiento de nuestra transformación de color no en un sistema de ejes relativo normalizado a 1,0, sino uno absoluto en un eje de luminancia de referencia de 5000 nits. Para transformar de manera nativa (simplemente aplicar la curva de LDR no teniendo en cuenta la PB_D superior) una luminancia de 100 nits (por ejemplo blanco) -puramente en lo que respecta a normalización de eje, por lo que ni se tiene en cuenta ningún detalle específico de la curva de transformación de luminancia especificada por el clasificador, o cualesquiera parámetros de control con respecto a la interpolación de luminancias como gpr- tenemos que potenciar un color 2301 a su equivalente de 5000 nits (es decir no teniendo en cuenta aún la contrarrestación adecuada de la reclasificación inteligente).
Es decir, tenemos que determinar en el eje y de P-OETF perceptual con qué cantidad estirar el vector. Si los cien nits corresponden a 1,0, entonces hallamos el valor 2302 multiplicando por digamos 1,7. Podemos hacer lo mismo si leyéramos puntos en una representación referida de 500-nits de las curvas, es decir una en la que 500 nits corresponde a la luma máxima posible (1,0). Si se transforma esta luminancia a una versión representada de 5000 nits, entonces se obtiene el factor B de digamos 1,3. Ahora que estamos realmente interesados en cómo transformar un color 2305 que se ha determinado para la clasificación de LDR, es decir en el sistema de 100 nits (por ejemplo una luminancia de HDR de entrada de 500 nits debe representarse en LDR como 30 nits) en el sistema de referencia de una pantalla de 500 nits. Por ejemplo, si no fuéramos a cambiar los valores que provienen de la transformación, lo que eso significaría en la nueva referencia a 500 nits (¿cuál es el eje lateral correcto en la Figura 18, Y_out_MDR)? Podemos observar que multiplicando el valor y 2305 por SA-1 para obtener el valor 2306 corresponde a multiplicarlo por A/B. Pero esto no proporcionaría una equi-apariencia, puesto que entonces todo simplemente se volvería 5x más brillante en una escala lineal, y X veces en una escala perceptual. Por lo que mantener la restricción de equi-apariencia, debemos multiplicar el valor 2305 por S=B/A (para tener la curva de accionamiento de MDR correctamente escalada, cuando se empieza desde la LDR, pero ahora referenciada en el sistema de ejes donde 500 nits es la luma máxima o luminancia relativa de 1,0, que no produce la curva de línea discontinua 2304, sino la curva 2303 que será la curva de clasificación de MDR deseada, pero ahora interpretada en el eje 500, en lugar de su eje y de 100 nits original). Puesto que todas estas son operaciones multiplicativas relativas, podemos hacerlas pretendiendo que todo ocurre en un sistema de ejes donde 1,0 corresponde a 100 nits, pero si se necesita una luminancia representada real, la leeremos en el eje Y_out_MDR.
Por lo que cuando escalamos de manera vertical hacia el eje x, obtendríamos un factor de escala de S=B/A.
Es importante que sea cual sea el valor PB_D, podemos definir el factor de escala (podríamos incluso extrapolarlo si se deseara), y por lo tanto podemos hacer una métrica.
Si nuestra pantalla objetivo fuera PB_D= PB_H = 5000 (=Lm), necesitaríamos llegar al punto P4 de la clasificación de HDR (transformación de identidad), es decir cuando miramos en él desde un punto de vista multiplicativo necesitaríamos escalar el valor de LDR para esta entrada (HDR Im_in luminancia 50 en el eje x), para esta clasificación también A=50 nits en el eje y de LDR izquierdo, mediante un escala S=C/A, en la que C=P_oETF(Lm/PB_H, 5000). Podemos observar que puesto que esto produciría el valor v para una entrada de luminancia óptica de (normalizada) 1,0, y suponiendo que esta es la clasificación de HDR diagonal que hace que todas las luminancias proporcionen luminancias iguales de salida (es decir para luma 1,0 al entrar y sacar 5000 nits para la clasificación de HDR, se obtendría de manera correspondiente el valor correcto para los otros puntos en la línea, es decir, también para esto, por ejemplo 50 nits, que resulta ser el tamaño de vector de la escala de HDR 5000 nits [no mostrada] en el punto de entrada a transformarse en color).
Ahora podemos probar matemáticamente que si se desea interpolar diagonalmente, más específicamente a 135 grados, la función de escalamiento se vuelve SS= [(B-1)/(B+1) / (A-1)/(A+1)].
Podemos asociar también con esta una posición de métrica en una línea entre el punto de luminancia de HDR P4, y el punto de luminancia de LDR PI, como ya hemos hecho en la Figura 18. Esto correspondería a un desplazamiento de métrica, o en general a la coordenada MS, que en la realización vertical puede establecerse como Y_MDR = Y_HDR+MS*(Y_LDR-Y_HDR). También en la situación genérica una coordenada de este tipo MS marcharía MS=0 para PB_D = PB_H, es decir cuando se necesita una clasificación de MDR que es idéntica a la clasificación de HDR, y 1,0 cuando se necesita la clasificación de LDR.
Simplemente como con esta aclaración sencilla, el lector puede entender que se aplicaría el mismo esquema de transformación si tuviera una función de TMF general 2001 que define la clasificación de LDR a partir de la clasificación de HDR como entrada.
Por lo que en nuestro diagrama esquemático de construcción de la Figura 13, la unidad de interpolación direccional (1312) rotará (hará el cálculo correspondiente, por ejemplo obteniendo una LUT de valores rotados para el eje de entrada de la Figura 19) la función recibida, determina los factores de cambio de escala apropiados SS, calcula la función que corresponde a la reclasificación de MDR en la estructura rotada como se ha explicado anteriormente, y volverá a rotar la estructura en la que el eje Y_in es horizontal. Por lo que a continuación se tiene, por ejemplo en una LUT, los valores de función Y_out_MDR para valores de entrada Y_in. A continuación una unidad de determinación de multiplicador común (1311) convertirá esa función a un conjunto correspondiente de multiplicadores (LUT de) gt, puesto que nuestra estructura de transformación típica funcionará con aquellos como se ha explicado.
Hasta ahora hemos descrito realizaciones que son agnósticas en cuanto a cómo se han definido las funciones de transformación de color, y en particular se han parametrizado. El procesamiento anterior puede funcionar en cualesquiera valores de función, y los hemos explicado como si fueran una LUT pura.
Sin embargo, puede haber información semántica interesante en la manera en la que el clasificador define las funciones. Por ejemplo él puede definir una función de procesamiento de luminancia de múltiples segmentos con un segmento inferior para procesar los colores más oscuros, por ejemplo colores de interiores, y un segundo segmento superior que especifica lo que debería hacerse a un segmento más brillante, por ejemplo colores de exteriores. Este comportamiento de transformación de luminancia puede comunicarse al receptor mediante, por ejemplo, un parámetro Lt, que a continuación también es un demarcador entre las luminancias exterior e interior. Son posibles muchas filosofías de parametrización alternativas. Puede ser necesario desplazar la posición de luminancia de este umbral en al menos algunas clasificaciones de MDR, al menos para algunos tipos de imagen de HDR (por ejemplo en lugar de desear mantener los colores de interiores que parezcan iguales en todas las pantallas, el clasificador puede decidir usar un poco de las capacidades superiores de las pantallas de HDR digamos por encima de 1500 nits, para aplicar brillo a aquellos colores de interiores en cierto modo también). Ambos desplazamientos a lo largo del eje x y a lo largo del eje y pueden ser ventajosos. Todo depende de qué colores estén presentes en la imagen, y qué contrastes de apariencia desee el clasificador, etc.
Proporcionaremos un ejemplo interesante para aclarar una posible realización paramétrica.
La Figura 21 muestra un ejemplo de una estrategia de transformación de luminancia de HDR a LDR que hemos puesto en el kit de herramientas básico que define nuestra tecnología de codificación de agrupación de apariencia de HDR (esto correspondería a una realización particular de la curva personalizada de la unidad 111, pero en lugar de estar comunicado con una LUT comunicaríamos esta función como 5 parámetros; de los cuales la curva de mapeo de la Figura 21 puede describirse con 3: una pendiente de velocidad ascendente para los colores de imagen más oscuros empezando desde 0,0 [control de ganancia de sombra]; una pendiente descendiente de las zonas destacadas es decir el ángulo con el que la parte lineal superior se gira hacia abajo, y una anchura, o media anchura de una sección parabólica entre: un punto medio midx que puede determinarse de manera inequívoca donde cruzan las partes lineales, y a continuación la sección parabólica puede extenderse desde midx-anchura/2 a midx+anchura/2). Hemos mostrado ahora en este gráfico las lumas normalizadas (por ejemplo 10 bit), y opuestas a ellas correspondientes luminancias, en la parte superior de la imagen de entrada de HDR de 5000 nits, y en la parte inmediatamente derecha las luminancias de la imagen de salida de MDR 500 nits que pueden calcularse a partir de la imagen de entrada de HDR, retirando ahora los detalles de 100 nits (que se usaron anteriormente para nuestros conceptos de fácil explicación).
El clasificador de nuevo especifica una curva de HDR a LDR 2100 (es decir 100 nits), pero ahora con esta formulación de función específica. Contiene una ganancia oscura (pendiente dg) que determina cómo de brillantes parecerían los colores más oscuros en la imagen clasificada de LDR. Esto es importante, puesto que si en la escena de HDR hubieran objetos muy brillantes como lámparas que aún se capturan fidedignamente en las lumas de HDR, las regiones con sombra en la misma escena pueden caer muy profundo en el eje normalizado, y por lo tanto necesitan potenciarse considerablemente en la clasificación de LDR para aún poder observar lo que está ocurriendo allí. El régimen oscuro finaliza en el punto 2101. Para los colores más brillantes existe un segmento lineal similar con ganancia destacada hg. Entre medias hay un segmento parabólico de una anchura que corresponde a los puntos finales de las partes lineales. Esto puede controlar el contraste entre objetos grises.
Ahora observamos que los puntos especiales comunicados paramétricamente tienen una ubicación cambiada en la curva de transformación de luminancia de MDR 2103. Pueden calcularse estas ubicaciones cambiadas usando la dirección DIR, y en particular la métrica.
midx=(1-hg)/(dg-hg)
a continuación se calcula un nuevo punto medio Pm2 con coordenadas newMidx y newMidY:
x0=midx:x1=dg*midx;y0=dg*midx;yl=midx
m(y1-y0)/(x1-x0)
b=(x1*y0-x0*y1)/(x1-x0)
newMidx=((x1-x0)/2)*(1-SS)+x0
newMidy=m*newMidx+b
A partir de esto podemos calcular la nueva achura de la región parabólica, y por lo tanto los dos puntos de terminación de los segmentos lineales:
newWidth=(1-P_OETF(SS,PB_H) )*old_width
en la que old_width es un parámetro de esta curva según se determina por el clasificador, en concreto la anchura del segmento parabólico, en concreto una anchura a partir de lo proyectado asimétrica o simétricamente a ambos lados desde donde se unen las continuaciones de los segmentos lineales en el denominado punto medio. Y a continuación por supuesto la nueva ganancia oscura y ganancia destacada pueden también recalcularse:
newGg=newMidy/newMidx
nwHg=max((newMidy-1)/(newMidx-1),0)
El lector puede entender que pueden diseñarse estrategias de recálculo para puntos interesantes, u otros parámetros de funciones de transformación de luminancia para otros escenarios. Lo interesante de este ejemplo es que el aparato de lado de recepción puede calcular nuevos parámetros para que apliquen la curva final para obtener MDR a partir de HDR reconstruido (o incluso desde SDR directamente), y que esto depende del factor de escala establecido SS, que por sí mismo no depende únicamente de en qué valor PB_D se tenga en el lado de recepción, por lo tanto cuánto correspondería la imagen de apariencia óptima al HDR respectivamente a la apariencia de SDR, pero también el ángulo seleccionado para la determinación de curva (por ejemplo 45 grados girando a la izquierda empezando desde la vertical). Por lo que algunas de nuestras realizaciones funcionan recalculando parámetros de definición de función de mapeo de luminancia, y de acuerdo con los principios de métrica orientados.
Sabiendo ahora cómo hacer los cálculos básicos (qué realizaciones sencillas se pueden aplicar y que son en gran medida ciegas a los detalles específicos de la imagen y los deseos del clasificador, pero que aún necesitan producir imágenes reclasificadas de MDR razonables para la pantalla o pantallas disponibles), proporcionaremos ahora un par de realizaciones más aclaratorias sobre cómo el clasificador puede variar esto, incorporando unos pocos parámetros técnicos más de control adaptado a las particularidades de la escena de HDR actual.
La Figura 22 muestra cómo podría codificarse inmediatamente para una escena de HDR específica, o captura de imágenes, qué valor de MS correspondería a qué PB_D disponible. Como debe entenderse a partir de lo anterior, para nuestra derivación de mapeo de luminancia de MDR (o en general transformaciones de color), se necesita en primer lugar un medio para ubicar la métrica (es decir entre 0,0 y 1,0 o incluso fuera de ese rango para extrapolación) el punto M_PB_U, que puede hacerse con la coordenada normalizada MS. Y a continuación a partir de este valor puede convertirse a sea cual sea función de mapeo de luminancia conformada para realizar la transformación de color de HDR a LDR (o de LDR a HDR en otros escenarios como el modo 2) a la función necesaria para calcular la imagen de MDR. Ahora si se tiene una función de determinación de posición de métrica explícita (2201), por ejemplo comunicada como una LUT, o una ecuación sencilla, en principio incluso no es necesaria la definición de métrica básica. Puede ser ventajoso si el clasificador puede determinar una función de este tipo de una manera fácil, por ejemplo puede usarse una ley de potencia para la que el clasificador puede cambiar la potencia, por ejemplo, girando una perilla. Él observará a continuación inmediatamente en su pantalla de MDR cómo cambia la apariencia total de la imagen, o, se enfocará en un área crítica, como, por ejemplo, en un monstruo en la oscuridad que él quiere que sea visible hasta un grado razonable, para asegurar que será de manera similar razonablemente visible en todas las pantallas reales en las instalaciones del observador.
Pero, cuando se tiene una buena métrica, pueden diseñarse también variaciones de ajuste preciso como se muestra con la Figura 15. En este punto m_MT_norm_in, es el valor MS para nuestra métrica elegida particular, es decir, de nuevo marchará entre 0,0 y 1,0. Por lo que podemos calcular un valor para una pantalla particular de brillo pico PB_D. Si el clasificador no especifica nada más, el m_MT_norm resultante como salida sería igual, y la norma aplicaría el ajuste de pantalla automático como en cualquiera de las realizaciones anteriormente explicadas. Sin embargo, el clasificador puede especificar funciones que se desvían de esta forma preferentemente de manera suave, y finalizan en las coordenadas 0,0 y 1,0. Por ejemplo él puede diseñar una función de potencia, el parámetro de potencia gpr de la cual determina cómo de intensa debería parecer una reclasificación de MDR, por ejemplo como una clasificación de LDR como se muestra, incluso para pantallas de muy alto PB_D (es decir m_MT_norm_in que se acerca a 0), o al revés (como se observa por la posición del punto M_p B_U resultante desplazado en dgr). Él puede incluso formular funciones complejas, que pueden tener, por ejemplo, un comportamiento diferente para pantallas por encima de un brillo pico particular, comportamiento que puede codificarse por un segundo parámetro gptt, o incluso más parámetros, definiendo por ejemplo una parte de la curva inferior lineal, etc.
Por lo que el lector entiende que nuestra tecnología puede emplear varias métricas (por ejemplo varias definiciones de OETF relativamente similares, que corresponden aproximadamente a etapas de nivel de luz iguales, u otras funciones que modelan tal comportamiento de nivel de luz de las clasificaciones), y también varias direcciones de interpolación y varias maneras para determinarlas. Por ejemplo, en un aparato sencillo puede fijarse en el hardware, y determinarse como tal realizando los cálculos en, por ejemplo, un procesador, y pueden conmutarse realizaciones más complejas, por ejemplo, entre la estrategia de cálculo de MDR, por ejemplo por captura de imágenes en la película (o incluso para partes de una imagen, por ejemplo los brillos inferiores pueden interpolarse con una métrica, o incluso una dirección, y los más superiores con otra, y dependiendo de la escena puede no ser tan crítico donde se proyectan todos los colores interpolados), por ejemplo bajo los principios de control comunicados del clasificador humano recibidos desde el lado de creación de contenido, típicamente como uno o un par de parámetros fáciles, que sin embargo hacen un impacto mayor principal en la apariencia de las imágenes de MDR.
La Figura 24 muestra cómo puede representarse colorimétricamente cualquier mapeo (dentro de la misma gama de colores, por ejemplo normalizada a 1,0) desde una primera luminancia de píxel o en este ejemplo luma (definida por alguna ecuación lineal de la luminancia lineal, respectivamente desde componentes de color de R'G'B' no lineales que están relacionados con los componentes de color rojo, verde y azul aditivos mediante alguna función de transferencia opto-eléctrica no lineal OETF, es decir R-OETF(R), G-OETF(G), B=OETF(B), con OETF, por ejemplo, el SDR como la definida en la Rec. 709), por ejemplo la luma de HDR Y'i a una segunda luma, por ejemplo la luma Y'o de la correspondiente imagen clasificada de LDR, de dos maneras. En primer lugar como se ha ejemplificado anteriormente, puede aplicarse una función multiplicativa con un valor multiplicador escalar g dependiente del color (en caso de procesamiento local posiblemente incluso dependiente de píxel). Este puede conseguirse multiplicando de manera equivalente los componentes de color rojo, verde y azul no lineales del color de HDR para obtener el color de LDR (o viceversa puesto que los métodos pueden funcionar en la otra dirección, por ejemplo derivando una clasificación de HDR a partir de una clasificación de LDR, que es típico para sistemas de codificación de HDR de modo-ii que codifican apariencias de HDR de una escena comunicando un conjunto de imágenes de SDR heredadas de 100 nits). Sin embargo, podría iniciarse también desde cualquier valor de luma escala de referencia (o luminancia) Y'n, referenciado hasta algún nivel, y escalar ese valor (o de manera equivalente sus componentes de color R'G'B' o RGB) en algún valor de luminancia de escalamiento Ls. En caso de que Y'n sea la luma de LDR Y'i misma, tenemos de nuevo la realización multiplicativa anterior, como se ejemplifica, por ejemplo, en la Figura 1 (y no importa entonces en principio cómo se haya calculado el factor g, es decir basándose en cuál cadena de cálculos para obtener, por ejemplo un valor f(Max)/Max, o un valor F(Y')/Y', etc.).
Como se dice, nuestros principios de ajuste son ampliamente aplicables y pueden realizarse en diversas formas de circuito de aparato, en particular en diversos espacios de color. A continuación proporcionamos un par de las realizaciones basándose en una luminancia no lineal de una imagen de entrada de SDR (es decir LDR de 100 nits PB) recibida por un decodificador de HDR.
En la Figura 25, un divisor divide el componente de luminancia del color de píxel (Y'UV, que es típicamente una representación YCbCr como se usa en códecs de tipo MPEG como por ejemplo HEVC). Como una pista de procesamiento superior puede hacer toda clase de procesamiento de color en el color de entrada mediante un procesador de color opcional 2503, pero contiene un convertidor de color 2504 para convertir el R'G'B' no lineal (es decir una Rec. 709 OETF-trío de componente de color definido, o un trío de componente de color no lineal definido por raíz cuadrada). Suponemos para la aclaración de esta invención, que el procesador de color únicamente hace una modificación de saturación de los colores de píxel en marcha a procesarse basándose en la luminancia de estos colores de píxel, como se enseña en el documento WO2014/128586 Figura 15A. Puede haber una unidad de determinación de función 2526 que usa un algoritmo para determinar una función de saturación s(Y'), en el que s es un multiplicador dependiente de luma para multiplicar los componentes de crominancia Cb=B'-Y' y Cr=R1-Y' con (o usando de manera similar una definición de procesamiento de saturación alternativa) de modo que no se recortan en color demasiados colores en el rango de MDR, pero para esta aplicación debemos suponer simplemente que hay una función de este tipo s(Y'), que se usará a continuación por el procesador de color 2503 para saturar o desaturar los diversos colores en la imagen de inicio (es decir en esta realización ejemplar la imagen de SDR se está usando como una imagen de inicio, pero de manera análoga haciendo los cambios necesarios una realización alternativa podría derivar la imagen de MDR empezando desde una imagen de HDR, por ejemplo Im RHDR). A continuación en el convertidor de luma 2501 se aplica una función como se define por los metadatos de definición de función recibidos, es decir esta parte es similar a las realizaciones anteriormente descritas, por ejemplo en la Figura 1 la ruta de procesamiento entre la entrada (R,G,B) que viene de la unidad SAT opcional 106, y el factor g emitido al multiplicador. Multiplicamos de nuevo con g apropiado para este color de entrada (o en las diversas realizaciones denominadas por ejemplo gt), pero g se denomina Ls en este punto. Los R's, G's, B's escalados pueden simplemente ser la imagen de LDR (es decir la imagen de la apariencia de LDR clasificada del par HDR/LDR, que es lo que se recibe en esta realización) componentes de color no lineales (por ejemplo R's = sqrt(R LDR lineal), en el que R _linear_LDR es el componente de color lineal rojo necesario para la mezcla para producir la imagen correctamente representada en una pantalla de 100 nits PB). Los R's etc., pueden ser típicamente componentes sqrt(R)/Sqrt(Y), con Y alguna luminancia característica, o factor entre un valor de luminancia o luma de HDR y LDR. Los componentes de color no lineales de salida R'o, G'o, B'o son los que definen la imagen de apariencia de HDR, por ejemplo típicamente ya que en esta realización también se define con una Rec. 709, BT1886 inversa, o definición de raíz cuadrada de la no linealidad usada para esta definición de componente de color. Esto significa que Ls puede a continuación observarse también típicamente (es decir se define) en una forma no lineal de raíz cuadrada no lineal en comparación con la luminancia (que se define universalmente y en espacio de recuento de fotones lineales). Puede haber una transformación de formateo de color adicional aplicada por el formateador de color 2506, que produce una representación de color Rd,Gd,Bd adecuada para su comunicación a la pantalla (por ejemplo a través de una conexión de HDMI). Por ejemplo algunas pantallas pueden tener un modo que acepta RGB lineal, caso en el que formateador de color 2506 aplicará una operación de potencia cuadrada en los tres componentes R'o, G'o, B'o. Pero otras pantallas pueden tener otros formatos de comunicación de imagen de HDR, por ejemplo para comprimir la información en los límites de lo que permite el conector, y a continuación se aplica esta codificación final en 2506. Dentro de la pantalla conectada 2510, puede aplicarse optimización de color adicional, por el potenciador de color 2511. Esto puede tener como un resultado que nuestras realizaciones de ajuste de pantalla en el acondicionamiento previo de la imagen (o especialmente si nuestra unidad es una parte directa de un decodificador de imagen de HDR, que decodifica inmediatamente a algún formato de rango dinámico medio intermedio adecuado, es decir para un brillo pico de pantalla que no es igual al PB de la imagen de HDR del par codificado conjuntamente, ni la imagen de LDR PB) únicamente se aplica al ajuste de pantalla basándose en características del brillo pico de la pantalla de representación, y/o únicamente se aplica el ajuste de pantalla a las más brillantes, por ejemplo, el 95 % de las luminancias, o por ejemplo del 80 % de las lumas, y dejar la optimización de entorno de representación medida y caracterizada de los colores más oscuros a los algoritmos especializados del fabricante de TV. La TV puede comprender por ejemplo una cámara que mira en las cercanías del observador, aplicando detección de cara, y a continuación caracteriza qué cantidad de luz brilla directamente sobre sí (y potencialmente también bajo qué ángulo, por ejemplo unos pocos puntos por encima del sofá), y cuál es la iluminación del entorno genérica, es decir la iluminación directa indirecta de las paredes, estableciendo un nivel de oscuridad general para la sala de visualización, etc. Estos parámetros pueden a continuación introducirse donde no necesiten ser necesarios en nuestros algoritmos de ajuste de pantalla de acondicionamiento previo (aunque esta información podría usarse para decidir el ajuste apropiado de los colores más oscuros), para usarse dentro de la TV para optimizar los colores más oscuros, por ejemplo que se iluminen en cierto modo por el potenciador de color 2511. Opcionalmente algunas realizaciones pueden tener un sumador previo condicional (2555), que permite ajuste más versátil para procesamiento de color multiplicativo, especialmente cuando se optimiza para entornos de visualización iluminados de manera brillante para los que son necesarias versiones brillantes de los colores de imagen más oscuros. Por ejemplo este sumador previo usa un valor umbral YT fijo o precalculado, y añade un valor k fijo o precalculado, y realizaciones similares pueden hacer eso en los tres componentes de RGB.
Pueden realizarse diversas realizaciones de acuerdo con este principio.
Por ejemplo, puede ser útil hacer un cálculo de la apariencia dependiente de la pantalla optimizada, y con ello en correspondencia a gt o Ls en un dominio de color linealizado. Por ejemplo, en la realización de la Figura 26, las funciones de mapeo de luminancia particulares (por ejemplo definidas por el clasificador de color) que mejoran de LDR a HDR (o de LDR a MDR) donde se definieran en una representación perceptualmente uniforme de los brillos (que permite al clasificador un control más relevante más rápido de la apariencia y los brillos de todos los objetos de imagen). Por lo tanto el bloque 2501 de la Figura 25 comprende en esta realización en orden sucesivo, una unidad de potencia cuadrada 2601, o como una alternativa una aplicación de función de EOTF de pantalla convencional BT1886, a continuación una función que convierte los valores de "brillo" Li (que a continuación serán luminancias, al menos hasta una muy buena aproximación) resultante de la aplicación de la transformación a valores de brillo perceptualmente más uniformes P, según se realiza por la unidad de uniformización 2602 (que puede aplicarse, por ejemplo, una OETF como se define por Philips: Ec. 8). La unidad de mapeo de luminancia 2801 aplica cualquier mapeo según se desee por el creador de contenido, y sea reconstruible a partir de su codificación recibida en metadatos. Por ejemplo, puede crear esta apariencia de HDR ejemplar a partir de la apariencia de LDR potenciando las luminancias en una región media, y nivelado de algunas de las luminancias de brillo. Crea una luminancia de apariencia de HDR (o MDR) Pho, todavía en el domino perceptual, que puede convertirse por el linealizador 2604 a un valor de luminancia de HDR de luz lineal del píxel actualmente procesado, LL. En esta realización el convertidor de representación 2605 convierte aplicando una raíz cuadrada, que produce: Ls=sqrt(LL). La unidad de mapeo de luminancia 2801 puede ser de las diversas formas anteriormente descritas u otras formas, es decir puede tomar un valor MS (si se determina, por ejemplo, por el STB basándose en condiciones establecidas en el tiempo de representación, o se especifica por el creador de contenido, o cualquier mezcla de estas dos, es decir MS=FUNCT(MS_1, MS_2) donde MS_1 respectivamente MS_2 son un valor especificado por creador y uno especificado por receptor [o cualquier otra variante equivalente, por ejemplo MS=MS_1+Delta_MS, etc.]), y determinar alguna nueva función de mapeo de luminancia adecuada para mapear LDR a MDR con el brillo pico de pantalla en lugar de al otro HDR de, por ejemplo, 5000 nits (como se muestra en forma discontinua respectivamente la curva continua interior 2603).
La Figura 27 describe otra realización, en la que la mayoría de los bloques están como en la Figura 26, pero ahora se calcula una división explícita de la luminancia de HDR de luz lineal y la luma de entrada de SDR Y'I, y para esta realización particular esta división se eleva a la potencia MS, donde 0<=MS<=1, y MS de nuevo como se especifica de acuerdo con cualquier método automático, definido por humano o semiautomático.
La Figura 28 es una realización útil para algunas otras realizaciones de ajuste de pantalla, por ejemplo, complejas. Ahora la unidad de transformación de luminancia realizada como el convertidor de luma 2501 se usa en primer lugar una unidad de mapeo de luminancia 2801 para convertir la imagen de luminancias de LDR a la imagen de luminancias de HDR LLH (en dominio perceptual, pero lo mismo podría hacerse en un dominio lineal, o sqrt), y a continuación se aplica un mapeo de luminancia de ajuste de pantalla (por ejemplo descarga de PB_HDR=5000 nits a PB_D= 2800 nits) mediante el remapeador de luminancia de pantalla 2802, que produce las luminancias de pantalla ajustadas correctas LLDA. Una realización de este tipo permite, por ejemplo, que una pantalla conectada cargue una función de mapeo de luminancia F(LLH) que se determina en 2802 mediante la entrada 2888 (si esta unidad 2802 es un STB separado, o que forma parte de un decodificador de HDR en una tv), en lugar de solamente introducir un valor MS y dejar que el remapeador de luminancia de pantalla 2802 calcule una correspondiente función de mapeo de luminancia. A continuación también pueden usarse funciones de mapeo que no están estrechamente relacionadas con la forma de la función o funciones de reclasificación que convierten entre la imagen o imágenes de LDR recibidas y la imagen o imágenes de HDR maestras, etc.
La Figura 30 aclara que nuestra optimización de pantalla creando imágenes de MDR óptimas puede realizarse de diversas maneras. Por ejemplo en la Figura 30A mostramos la posibilidad de usar esto como un procesamiento de imagen a posteriori, después de la decodificación de las imágenes recibidas (suponemos recibidas como SDR) a una versión de HDR (suponemos por simplicidad de entendimiento una reconstrucción de la imagen de HDR maestra, por ejemplo con PB_C=5000 nits), Im HDR. A partir de ahí, el ajuste de pantalla se degrada al Im MDR necesario, por ejemplo para la pantalla de PB_D de 700 nits o 1500 nits. En una topología de este tipo el decodificador de dos unidades 3001 y el ajustador de color 3002 pueden estar comprendidos realmente en diferentes aparatos, por ejemplo el decodificador puede estar comprendido en un STB u ordenador, y el ajustador de color puede residir en la TV (caso en el que aunque obtiene las imágenes de HDR reconstruidas aún obtiene las funciones F_ct), o pueden estar en los mismos aparatos, o incluso una o más de las unidades pueden residir, por ejemplo, en un ordenador en red, que por ejemplo sirve al usuario con contenido optimizado previamente.
Sin embargo, otra topología (mostrada en la Figura 30B) es cuando se tiene en cuenta inmediatamente el mapeo a MDR, es decir cuando se introduce Im_SDR, no hay necesidad de derivar de manera intermedia una imagen de HDR, pero la imagen de, por ejemplo, 700 nits, puede derivarse inmediatamente a partir de la imagen de SDR. El mapeo es el de la combinación de todos los mapeos yendo en primer lugar a, por ejemplo, 5000 nits, y a continuación a 700 nits, y puede precalcularse mediante una unidad de optimización de software 3012. Especialmente si todos los mapeos acaban de tener su escalamiento multiplicativo, la combinación de todos aquellos multiplicadores para llegar al multiplicador final para usarse para cada luminancia de píxel se hace relativamente de manera directa. Esta transformación requerida puede precalcularse después de recibir las funciones F_ct, y comunicarse y cargarse en el decodificador 3010 como una LUT (Y'_out=LUT(Y'_in)), para usarse en las siguientes pocas imágenes de una captura, 0 en otras palabras hasta el momento que se reciban nuevas funciones válidas para las siguientes pocas imágenes (algunas realizaciones pueden transmitir un conjunto de funciones para N imágenes en una escena, pero otras realizaciones pueden recibir nuevas funciones para cada imagen sucesiva del vídeo). Puede haber un retardo 3011 presente de 1 o un par de imágenes, en caso de que la unidad de optimización de software 3012 necesite hacer procesamiento más complicado (por ejemplo que comprende análisis de contenido de imagen), puesto que, en general también puede comunicarse una LUT de color (CLUT) para el procesamiento por el procesador de color 2503, pero otras realizaciones pueden no tener este retardo. La ventaja de una topología de este tipo es que únicamente necesita 1 conjunto de hardware, y se tiene cuidado del ajuste de pantalla óptimo inmediatamente en la etapa de decodificación (ahora cambiable en lugar de fijarse como dictaría el paradigma de decodificación normal). Por lo que aclararemos una suposición adicional pequeña que se usa esta topología útil (el experto lector entiende cómo se aplican los diversos componentes enseñados a todas las variantes).
La Figura 31 muestra una manera muy útil de hacer de manera pragmática el ajuste para obtener la imagen de MDR y sus luminancias Y-MDRL (o lumas equivalentes en realizaciones similares).
Las luminancias de SDR Y_SDRin se mapean por el perceptualizador 3101 en una representación de luma perceptualmente más uniforme, por ejemplo por la siguiente función:
Y'U=log(1+[rho(Y_SDRin)-1]*potencia(Y_SDRin;1/24)/log(rho(Y_SDRin)) [Ec. 10]
En la que rho es una constante que depende del brillo pico del códec usado para cualquier imagen (en este caso el PB_C=100 nits de SDR), que se determina para Y_SDRin y Y'U normalizada a 1,0 de acuerdo con:
rho(PB_C)=1+(33-1)*potencia(PB_C/10000;1/2,4)
Ya que esto es simplemente un principio, pueden usarse también otros uniformizadores de luma, con el fin de que etapas iguales en esa luma Y'U correspondan más estrechamente a etapas de brillo visualmente igual.
El resto en este algoritmo funcionará en este dominio, que se experimenta por el linealizador 3105 que reconvierte la representación de luminancia lineal de los colores de píxel.
Lo que es importante en esta realización, es el enfoque de dos etapas del ajuste. Podemos explicar mejor que con la subparte de degradación 3110, puesto que este diagrama esquemático corresponde a las transformaciones ejemplares para convertir en primer lugar SDR a HDR (por ejemplo las luminancias YHL HDR que caen en un rango de hasta p B_C = 5000 o 1000 nits) por la subparte de mejora 3100, y a continuación ese HDR a las luminancias de MDR requeridas (Y_MDRL) degradando. De nuevo, todas las operaciones se realizarán en el dominio de luma perceptualmente uniformizado (es decir se transformarán lumas de HDR relativas uniformes Y'H). Puede haber un primer mapeo de ganancia opcional 3111, que mapea una cierta luminancia máxima realmente en la imagen (por ejemplo aunque el PB_C puede ser 5000 nits, pueden considerarse unas luminancias altas de este tipo demasiado brillantes para la escena de imágenes presente, por lo tanto el clasificador puede haber clasificado el contenido hasta un límite de, por ejemplo 2000 nits, sin embargo, dado el rango dinámico significativamente reducido de SDR, tiene sentido mapear este máximo posible para 100 nits, es decir el código 1023 que corresponde a 100 nits PB_C, sin embargo, para sistemas que, por ejemplo, codifican un HDR como otro HDR este mapeo de ganancia puede no estar presente; de manera similar, algunas realizaciones pueden hacer algún mapeo negro, mapear algún negro de las lumas de HDR Y'H a algún negro de las lumas de HDR normalizadas Y'HN). Pero de manera importante, en estas lumas de HDR normalizadas Y'HN, que aún tienen la apariencia de distribución de brillo de una imagen de HDR típica, una unidad de mapeo de luma aproximada 3112 puede aplicar un mapeo aproximado. Este mapeo de manera aproximada gestiona el mapeo de un par de subrangos, en los que mapear más tarde las lumas óptimas realmente deseadas de los diversos objetos de imagen. Por ejemplo en una variante práctica hemos hallado que funciona bien una variante que asigna un subrango para poner todas las lumas oscuras (SD), y un subrango para las lumas más brillantes posibles en la imagen (SB), entre las cuales una puede a continuación diseñar fácilmente un rango medio, por ejemplo en una de nuestras realizaciones un segmento de conexión parabólica (que se define, por ejemplo, en un punto medio, por ejemplo donde un segmento dependiente lineal para que se encuentren las lumas más oscuras y más brillantes, y alguna anchura).
Sea cual sea lo que un clasificador desee hacer con los objetos reales que caen en este subrango, por ejemplo de los oscuros, por ejemplo aplicar brillo al objeto más oscuro en cierto modo, el algoritmo de ajuste puede controlar con el método de dos etapas explícitamente dónde deberían estar los colores más oscuros, es decir qué subrango deberían abarcar, en cada escenario de visualización (es decir cómo de brillante es la pantalla, su PB_D, influenciará cómo de oscuros pueden ser esos oscuros y/o brillo de entorno de visualización que también influencia la visibilidad de especialmente las regiones oscuras de la imagen). El clasificador (o algoritmo de clasificación automática en el lado de creación) puede a continuación determinar en estos rangos ajustables, situados de manera correcta automática (con la condición de que el ajuste se maneje como se explica con la Figura 32), sus clasificaciones precisas, por ejemplo si una cara debe volverse un poco más brillante, o con contraste, o una silla blanca en la luz del sol brilla un poco más, etc. La unidad de clasificación precisa 3113 tiene cuidado de este último ajuste, de las lumas aproximadas Y'CG que produce lumas clasificadas de manera precisa Y'FG, después de lo cual el linealizador 3114 convierte a luminancias de salida lineales Y_MDRL, que se reclasifican de manera óptima. El experto debe recordar que estas funciones se crearon inicialmente en el lado de creación para una situación de degradación de1HDR maestro de, por ejemplo 5000 nits a SDR (100 nits), no como en la actualizad, por ejemplo, 3000 nits, o 700 nits, por lo que tienen que modificarse de manera correcta, que es lo que hacen los algoritmos de ajuste óptimos. Todas estas unidades se copiarán en la subparte superior, con las mismas funciones, pero por supuesto ajustadas de manera diferente. Es decir ahora después de pasar al domino perceptual en orden invertido, la primera unidad de clasificación precisa 3102 transformará las lumas uniformes Y'U en lumas reclasificadas Y'RG (que están aún en una apariencia de rango dinámico de SDR, pero teniendo algunos de los objetos lumas diferentes), a continuación una unidad de clasificación aproximada 3103 aplicará una función de asignación aproximada de al menos tres subrangos (que implementa ahora las lumas de objeto que se han transformado de una apariencia de rango dinámico de SDR en una apariencia de HDR), y a continuación opcionalmente puede haber algún escalamiento de blanco del escalador 3104 que mapea el máximo de las lumas de HDR normalizadas Y'HN (es decir 1,0) a alguna posición inferior de las lumas de HDR finales Y'H, por ejemplo la luma que corresponde a 2000 nits en una representación de 5000 nits PB_C (dado sea cual sea la función de asignación de código que se use, que suponemos que en esta realización es nuestra ecuación [10] anterior).
Como se dice, estas unidades pueden no estar realmente presentes como tal en un aparato de recepción, puesto que son las partes conceptuales que puede usar el software para determinar una luminancia LUT (LLUT) para precargar en la unidad de mapeo de luminancia única real, pero aclara ahora cómo puede funcionar ventajosamente el ajuste.
La Figura 32 describe esto un poco más. La Figura 32a muestra lo que desearía que ocurriera un clasificador, si el tuviera la situación de, por ejemplo MDR de 600 nits disponible en el lado de creación. Pero puesto que PB_D puede ser cualquier cosa, él nunca tendrá esa situación. Además, tiene sentido como una suposición de trabajo que si él deseaba aplicar brillo a los píxeles de, por ejemplo, un asiento en un coche, él deseara aplicar brillo a aquellos mismos píxeles incluso si se hubiera aplicado previamente brillo mediante un mapeo aproximado. Por lo que lo que al clasificador le gustaría hacer, es ajustar de manera precisa las luminancias de objetos que tienen sus luminancias definidas en el MDR, por ejemplo el eje de 600 nits, es decir, por ejemplo el píxel con luminancia intermedia Y_im. Sin embargo, el receptor ni obtiene la curva de mapeo de HDR a MDR óptima 3203, ni la posición cambiada del píxel 3303. Lo que tiene disponible inicialmente es la curva de HDR a SDR 3201, y, una especificación de cómo le gustaría al clasificador ajustar de manera precisa en el píxel del lado de creación 3304, es decir que es algún píxel de SDR (definido en la parte de 0-100 nits del rango de luminancia). Pero lo que realmente debería ocurrir como una segunda clasificación precisa, es lo que se muestra la curva CC de la Figura 32b. Pero como se ha mencionado, después de que el aparato del lado de recepción ha definido una curva de clasificación aproximada óptima 3202, lo que está únicamente disponible es una curva de clasificación precisa definida en un sistema de ejes de SDR y HDR. Pero, podemos ignorar esta perceptualización, y a continuación el factor estable en todo esto, que corresponde tanto con la luma de SDR inicial Y_inL (suponemos en este punto de nuevo en esta aclaración que e1HDR se comunica y recibe como imágenes de SDR, que necesitan reclasificarse a MDR) y la correspondiente luminancia aproximada intermedia en el rango de 600 nits PB_D, en concreto Y_im, es la luminancia de HDR Y_HDR. La relación entre las luminancias Y_im e Y_in para cualquier Y_HDR, es el mapeo aproximado. Por lo que como se muestra en la Figura 32 que corresponde al optimizador de software 3012 necesario para interpolar la LUT, usando el mapeo aproximado para determinar qué entrada en la LUT de SDR denominada, en concreto Y_in, corresponde a la luminancia de MDR referida necesaria Y_im. Después de hacer eso, esta LUT puede usarse en el cálculo de la LLUT final.
La Figura 33 muestra una realización de aclaración que puede usarse para optimizar las partes más oscuras de la imagen de MDR, en particular si se tienen pantallas que pueden representar píxeles muy oscuros, especialmente cuando se ven en un entorno oscuro. Suponemos en este punto que una imagen de HDR de 5000 nits PB_C, que contiene datos de imagen de hasta luminancias muy oscuras (por ejemplo 0,001 nits o menor), se comunicó como una imagen de SDR. Había una necesidad de codificar las luminancias más bajas en el SDR a partir de un punto de vista basado puramente en información, es decir se les proporciona una representación oscura, pero con una curva de mapeo lineal, que tiene una pendiente suficientemente grande, puesto que ahora esencialmente sirve primeramente como una función de asignación de código para las luminancias de HDR más oscuras (en lugar de una clasificación de LDR específicamente óptima). Puede suponerse que esto se traduce razonablemente a dispositivos heredados de SDR que tienen una representación de píxel más oscuro mínima de, por ejemplo, 0,1 nits en un entorno de visualización de televisión normal (por ejemplo, de noche con luces tenues), es decir esto es a lo que corresponderá el código "0". Pero esta clasificación lineal no será óptima para dispositivos con mejores capacidades para representar oscuros. Por lo que el ajuste puede aplicarse a otra función de ajuste que proporciona una mejor apariencia de las regiones oscuras, hasta el final de los oscuros más oscuros (que es conocido en, por ejemplo, el rango de HDR como el umbral Thr_DH, o en el rango de SDR como Thr_DS). Por ejemplo puede usar funciones que proporcionan algún contraste adicional dependiendo de cómo de oscuro sepa el receptor que puede representar el sistema (como una función tanto del negro más oscuro DB_D de la pantalla cuando se acciona en oscuridad absoluta, y la iluminación circundante que influencia tanto el reflejo de la placa frontal de la pantalla como la adaptación visual del observador y necesidad de observar negros de profundidad particular). Por ejemplo, funciones sencillas pueden ser estiramientos de función de gamma, aunque pueden usarse funciones más avanzadas, por ejemplo después de determinar qué subregiones semánticas u objetos hay en ese subrango de los oscuros más oscuros hasta Thr_DH. En algunas realizaciones puede haber adicionalmente información acerca de las imágenes o cualquier otra cosa con respecto a la creación de las imágenes más allá de las variantes más sencillas. Por ejemplo en el caso de que un nivel de negro más oscuro de la pantalla en la que se clasificó el contenido el color por el ser humano, que indica qué luminancias que la pantalla puede aún representar suficientemente de manera diferente (teniendo en cuenta su luz de fuga y reflejos de placa frontal) o en general qué luminancias más oscuras se observarán aún como diferentes para el clasificador, esta información también es útil para cualquier aparato de recepción cuando se decide qué ajuste de pantalla se usará o, en general, optimización de color del lado de presentación. Por ejemplo, si el observador tenía un OLED en una sala de visualización oscura, que se estima que tenga mejores capacidades de representación para los colores más oscuros que, por ejemplo, la pantalla de referencia de LCD del creador de contenido (como se indica en el valor de nivel de negro más oscuro según se comunica), entonces la realización de aparato de procesamiento de color de ajuste del lado de recepción puede decidir aplicar las funciones de estiramiento únicamente hasta un cierto grado, puesto que se están creando pseudo luminancias oscuras, que el artista de creación no veía realmente para sí mismo (pero hasta una cierta cantidad que puede hacerse, por ejemplo cuando una situación de representación necesita contraste adicional para una mejora apariencia). Por lo que en esa realización la determinación del factor de multiplicación común resultante y todos los cálculos de la forma de función ajustada óptima que forma la base de eso en las diversas realizaciones, también dependerá del valor del nivel de negro más oscuro comunicado de la pantalla de creación.
Además, incluso si se crean unos sistemas de ajuste del lado de recepción automáticos potentes, que hacen todo para un usuario, el observador puede aún desear algún control sobre el sistema, para proporcionar sus preferencias. Sin embargo, el observador no es un clasificador de color profesional, por lo que, incluso si él tiene tiempo y deseo en lugar de esperar a ver la película, no deberíamos molestarle con todos estos problemas colorimétricos complejos. Esto es donde nuestro sistema es muy útil, puesto que ya implementa el método del artista creativo en la pantalla, y el observador a continuación simplemente necesita hacer un par de ajustes precisos rápidos (y sensibles) de acuerdo con sus preferencias. Esto es lo que se muestra ejemplarmente en la Figura 34, en caso de que el usuario halle la imagen de HDR un poco demasiado oscura para su gusto (de manera similar algunos usuarios hallan HDR demasiado brillante, y a continuación puede hacerse un procesamiento similar, pero ese funcionará en su mayoría en los píxeles más brillantes, o tal vez los de media más brillantes en lugar de los más oscuros). Si el observador considera la imagen de una escena o película particular demasiado oscura, por ejemplo puesto que el ésta viendo en un entorno bastante brillante, entonces probablemente esto es debido a que las regiones más oscuras son difíciles de ver. Por lo que en lugar de hacer un aumento de brillo local, que dañará la apariencia de HDR que de nuevo que es indeseado, acoplamos este nuevo botón de brillo al rango más oscuro únicamente. En la clasificación aproximada de tres subregiones anterior, la región más inferior de los oscuros se definía típicamente y comunicaba por un umbral de luminancia superior, para el que mostramos en este punto el valor de HDR Thr_BKS en esta vez a un rango de HDR de 1000 nits. Si la curva de mapeo optimizada inicial 3401 para una pantalla de MDR de 700 nits es la determinada automáticamente basándose en únicamente los deseos del clasificador según se comunica en las funciones de transformación de color F_ct, y la situación de visualización (al menos PB_D), entonces el usuario puede ajustar su propia curva pudiendo elevar en unas pocas etapas de aplicación de brillo las subpartes de la curva de los oscuros, y la sección media a continuación también se mueve, para enlazarse con una pendiente sin variar para los brillantes.
La Figura 35 muestra simplemente un ejemplo de un protocolo de ajuste, que es lo que le gustaría ver al clasificador representado en el espectro de todas las pantallas con brillos pico entre por ejemplo 5000 nits y 100 nits.
Observamos un ejemplo de una estación espacial, con luminancias oscuras en su interior (subrango de luminancia SL), que se representan igual en todas las pantallas, puesto que el rango SL hasta 60 nits se adapta en el rango de SDR. La tierra brillante se observa desde el exterior (subrango BE), debería tener luminancias mucho más brillantes, pero no hay demasiado margen disponible en SDR. Todavía no se debería estrechar de manera infinita simplemente este rango de 40 nits hacia cada pantalla de HDR más brillante, o en algunas pantallas esto será molestamente brillante. Por lo tanto, debe haber alguna curvatura en la función de mapeo para aquellos brillos desde alguna pantalla de MDRx en adelante (PB_Cx= 600 nits). El lado de recepción puede estimar esta a partir de mirar en la imagen de HDR reconstruida, y que aparentemente el creador no deseaba que aquellas regiones fueran por encima de 600 nits, a pesar del margen hasta 1000 nits disponible. El ajuste puede optimizar a continuación entre los requisitos, por ejemplo consistencia temporal y la necesidad de margen posterior para escenas más brillantes, pero en el ejemplo mantiene el límite superior igual para todas las pantallas con PB_C por encima de 600 nits, y decide usar todo el rango disponible de la pantalla de 600 nits, para representar las luminancias del planeta exterior en el subrango Be2 tan brillantes como sea posible, y comprimir a, por ejemplo, Be3 para PB_Ds inferiores.
La Figura 36 ilustra otro posible ejemplo de ajuste de pantalla según se desee, para una imagen de escena de HDR desafiante típica. El observador está viendo una habitación iluminada normalmente (con luminancias de píxel en el subrango MIDRM), en el medio de la tierra, desde una habitación oscura de en primer plano (DRK), en la que todas las luces están desconectadas. En el exterior a través de las ventanas, observamos el brillo, tal vez, un mundo exterior iluminado por el sol (subrango OUTS). Cuando hacemos mediciones de luminancia física, puede hallarse que las luminancias "normales" en el medio de la habitación son típicamente aproximadamente una 1/100 parte del exterior, puesto que teniendo en cuenta factores geométricos como el tamaño de ventana, y cercanía de edificios en el otro lado de la calle, etc., la iluminación local puede ser típicamente una 1/100 parte de la iluminación de los exteriores (dependiendo por supuesto de qué sea, y si el medio de la habitación está solamente iluminando por luz exterior). La parte con sombra oscura puede ser, por ejemplo, 10 veces más oscura todavía. Por lo que hay ya una relación de iluminación de 1000:1, y suponiendo las reflectancias de objeto típicas entre el 90 % y el 1 %, esto significa que podemos esperar en la escena una relación de luminancia de 100.000:1 (no considerando aún los reflejos especulares del sol en objetos metálicos). Por supuesto, en la clasificación de HDR maestra podemos no hallar el objeto de exteriores iluminado por el sol codificado como, por ejemplo 10.000 nits, puesto que la imagen ha de observarse típicamente en un entorno atenuado, y directamente en un pequeño rectángulo de pantalla y no demasiado llamativo en la línea de tiempo de una película (podemos decidir, por ejemplo, mirar lejos de objetos en una escena que son demasiado brillantes, pero se supone que ven de manera confortable la película, y en su mayoría miran los actores, y no se ven descartados o irritados por un letrero comercial brillante de tubo TL exterior, por ejemplo). Por lo que dependiendo del artista que crea la imagen de HDR maestra, los píxeles de objeto en la imagen pueden tener en cierto modo diferentes valores para sus luminancias. Suponemos en este ejemplo que se codifica una imagen de 1000 nits, y es necesario ajuste para PB_Ds inferiores, y también PB_D superiores (que típicamente pueden seguir los principios artísticos que no necesitan aclararse en este punto, pero que técnicamente podrían usarse componentes técnicos similares para realizar algún ajuste de pantalla de mejora). Como puede observar a partir de este protocolo de ajuste y los diversos ángulos de las líneas de conexión que conectan pantallas ejemplares a partir del espectro de pantalla de PB_D posible continuo, esta imagen puede requerir un ajuste de pantalla mucho más sofisticado. Por ejemplo para una imagen de HDR de alta complejidad de este tipo, puede ser necesaria una elección mucho más crítica que una mera estrategia compresiva no lineal para adaptarse a alguna imagen de apariencia razonable en un rango dinámico de SDR demasiado pequeño. Por ejemplo, si la imagen de SDR no es necesaria para calcular imágenes adicionales, podemos decidir recortar de manera definitiva algunas de las subregiones de luminancia (que también denominaremos regímenes de llamada), es decir mapearemos todas las luminancias de la imagen COD_HDR de 1000 nits recibida a un único valor de luminancia, o muy pocos valores. Como se ha mencionado anteriormente, en nuestras diversas realizaciones, diversos reproductores pueden decidir. Por ejemplo, la televisión puede decidir hacer eso en sus algoritmos heurísticos inteligentes preprogramados que hacen el cálculo de HDR a SDR. O el clasificador de contenido puede indicar que él desea mantener las regiones más oscuras (puesto que puede estar ocurriendo algo de interés en la habitación oscura un poco más tarde), pero sacrifica el exterior, haciendo las ventanas blancas uniformes (que él típicamente comunicará mediante la forma de sus funciones de degradación de HDR a LDR, pero él puede comunicar también esto con metadatos adicionales, por ejemplo, como se aclara con la Figura 6 enviando algunos parámetros que prescriben o guían diversas subregiones de luminancia que pueden o deben ajustarse). Pero es importante entender que un algoritmo de ajuste que realiza tal comportamiento no puede funcionar simplemente aplicando una forma de función de mapeo de luminancia sencilla a las luminancias de píxel de SDR, puesto que entonces la luminancia de blanco única en la imagen de SDR (los píxeles del exterior observados a través de las ventanas) no se expandirá en un conjunto de diversas luminancias en la imagen ajustada de MDR de por ejemplo 400 nits. También, como puede observarse, las regiones oscuras pueden ajustarse de acuerdo con un protocolo de equiluminancia para todas las pantallas entre 400 nits, y 5000 nits (y potencialmente más allá), pero para rangos dinámicos incluso más pequeños que aquellos que tienen p B_D=400 nits, se necesita oscurecer los píxeles de la habitación no iluminada (DRK). Especialmente cuando se ilumina naturalmente, las imágenes de HDR pueden ser bastante complejas. Gracias a, por ejemplo, una persecución de coche de policía a través de un bosque oscuro nocturno. Los faros del coche pueden iluminar los árboles en patrones complejos, y en la parte superior habrá las luces rojas y azules de alarma del coche de policía. Especialmente además en el bosque habrá rincones muy oscuros, especialmente si no hay luna llena. Especialmente cuando se adaptan los colores/luminancias de los objetos de imagen para obtener una imagen que parezca más óptima (de manera ideal similar a la apariencia de clasificación maestra en su pantalla de referencia) en cualquier pantalla particular puede estar lejos de ser trivial, necesitando un buen conjunto de soluciones técnicas para manejarlo, especialmente manejarlo de manera pragmática. No hacer nada típicamente dará como resultado que algunas partes de la imagen parezcan molestamente demasiado oscuras, y/u otras partes demasiado brillantes, las últimas, por ejemplo, cuando se usa contra-procesamiento que es mucho más simplista. Además de eso, podrían gustar en principio soluciones que puedan satisfacer las muchas variantes prácticas de la creación y uso de imagen, por ejemplo una captura de estudio que está bien diseñada colorimétricamente, una producción en el campo por un pequeño equipo, una gran película de Hollywood que va a distribuirse en BD, contenido de consumidor, etc.
La Figura 37 muestra cómo variantes de ajuste de pantalla más complejas pueden hacer cálculos más complejos, por ejemplo teniendo en cuenta deseos particulares con respecto a los píxeles más brillantes posibles en las imágenes, o a la inversa los más oscuros, en particular en caso de que estos puedan volverse difíciles de ver cuando se ven en un entorno de visualización más brillante (por ejemplo, está viendo la tv, pero su esposa desea leer un libro en la misma habitación, es decir tiene una cierta cantidad de lámparas encendidas, y el ajuste podría satisfacer cualquier configuración activada de una combinación de las lámparas presentes en la habitación de visualización). Es factible construir técnicas de ajuste más avanzadas, determinando funciones apropiadas fuera de línea, y cargando la función o funciones de transformación de luminancia de SDR a MDR_1650nit necesarias en una unidad de cálculo principal, que a continuación deriva a partir de las mismas los multiplicadores gt. La unidad de determinación de función óptima 3701 haciendo todas las diversas determinaciones puede ejecutarse como software, y analizar las funciones de SDR a HDR recibidas, características de las imágenes (aunque puede no ser necesario si se usa de manera óptima la información en las formas de función de mapeo de luminancia de reclasificación), detalles particulares del entorno de representación, deseos adicionales del creador de contenido comunicados en segundos metadatos, o elecciones del fabricante del aparato, o deseos del observador. Todo esto puede conducir a diferentes funciones óptimas F*, ya transformadas al rango de salida de MDR necesario, o formuladas en el rango de HDR maestro y aún ajustarse en el núcleo de procesamiento de color, ejemplificado por las unidades a la derecha de la unidad 3701.
En la Figura 38 proporcionamos un ejemplo de cómo pueden usarse funciones auxiliares para volver a determinar el ajuste, por ejemplo controlando la forma de únicamente parte, es decir para un subrango, de las lumas de entrada, de la función de mapeo de luminancia de SDR a MDR final. Mostramos un ajuste diferente que el de la Figura 17, en el que, aunque el mapeo de HDR a SDR en ese ejemplo necesita hacer una cantidad de recorte considerable para ese ejemplo, las imágenes reclasificadas o ajustadas de MDR ahora en este punto muestran recorte intenso. Sin embargo, una curva ejemplar de este tipo para derivar la imagen de MDR a partir de la imagen de HDR (transmitida o reconstruida como Im_RHDR) 1703 muestra una cola larga de recorte suave, que corresponde a dejar pronto la curva de HDR, es decir la diagonal. Puede ser un deseo para alguna clase de ajuste, permanecer un tiempo largo en la diagonal, es decir tener luminancias idénticas a aquellas de la imagen de HDR. Para luminancias oscuras, por ejemplo por debajo de 40 nits, puede entenderse que en algunos escenarios puede ser útil representar estas con luminancia de salida idéntica en cualquier pantalla PB_D, es decir en la pantalla de SDR, o cualquier pantalla de HDR. Puede en ocasiones ser un deseo mantener ese requisito incluso hasta luminancias de HDR muy altas, es decir para derivar una curva ajustada 3801 (donde en este ejemplo la imagen de HDR forma la imagen de entrada para la transformación de color para obtener la imagen de MDR dependiente de PB_D apropiada como imagen de salida). Por supuesto una imagen de 4700 nits puede no contener nunca exactamente todas las mismas luminancias que una imagen de 5000 nits PB_C, por lo que en algún momento tiene que dejarse la curva de transformación de luminancia-identidad (es decir la diagonal), e iniciar algún recorte suave o definitivo. En este ejemplo, hay un rango RLB que puede seleccionarse para recorte intenso, y un rango de transición RT para recorte suave, que puede elegirse pequeño por el aparato (por sus propias reglas de cálculo internas o bajo el guiado de entrada del creador de contenido y/u observador) de modo que la clasificación de MDR parece mucho más factible a la imagen de apariencia de HDR, es decir como si se hubiera comprado una pantalla de 5000 nits en lugar de una pantalla de 4500 nits. Esto puede apreciarse por los creadores de contenido, aunque tal vez menos por los fabricantes de aparato, y funcionar bastante bien en caso de que las luminancias más altas sean, por ejemplo, reflejos metálicos destacados, etc.
La Figura 39 ilustra cómo puede indicarse esto mediante una función de posicionamiento de métrica (por ejemplo mediante un creador de contenido que desea dar instrucción al aparato para ajuste de acuerdo con un comportamiento de este tipo). En el eje horizontal se proporcionan los posibles valores PB_D, así como un umbral TPERF por encima del cual deberían comportarse las pantallas como pantallas de referencia de acuerdo con la clasificación de HDR maestra según se creó (es decir como si f PB_D=PB_C = por ejemplo 5000 nits). En el eje y hay una distancia en la métrica, que en este caso se indica como una diferencia desde la clasificación de SDR (o cercanía a la clasificación maestra de HDR). Por supuesto, para una pantalla de SDR, esa distancia debe ser 0, es decir una pantalla de este tipo debería ser servida con una imagen de SDR. Cuando un aparato observa que debería comportarse como la pantalla de HDR por encima de TPERF, puede decidir sobre una estrategia para mantener tantas como sean posibles de las luminancias de MDR iguales a la luminancia de HDR (que se obtendría cuando se hace el procesamiento de color en una luma de entrada de SDR), y a continuación en alguna estrategia de recorte (suave) necesaria, por ejemplo como se aclara con la Figura 38. O incluso podría hacerse alguna pequeña compresión de las luminancias por debajo de TPERF para hacer un poco más de margen para el recorte suave de los píxeles más brillantes (por ejemplo las luminancias 4700-5000 nits que no pueden representarse en una pantalla de 4700 PB_D), que se muestra por la curva más gruesa que se desvía ligeramente de la diagonal.
La Figura 40 ilustra otro ejemplo que permite ajuste computacionalmente sencillo en la dirección vertical. Muestra al mismo tiempo algunos bloques opcionales (líneas discontinuas) para una realización muy útil detallada, como el principio general, siendo la unidad de adaptación 4025 la más interesante.
Suponemos (sin limitación) que una imagen de SDR Y'CbCr llega mediante la entrada 4001, la parte superior es una cadena de procesamiento de luminancia, de acuerdo con un método práctico versátil del solicitante. En primer lugar se linealizan las lumas de SDR Y'_SDR con BT normalizado. 1886 EOTF (esta es una definición de una pantalla de SDR arquetípica, y tomamos un desplazamiento negro cero, por lo que esta ecuación es aproximadamente una potencia cuadrada). A continuación el perceptualizador 4003 transforma las luminancias lineales que se emiten desde el linealizador anterior 4002 en lumas visualmente más uniformes Y'P. Aunque son posibles otras ecuaciones, suponemos que usamos nuestra Philips HDR OETF (ecuación 8 anterior), con los parámetros como se indica, por ejemplo rho igual a 5,7, que es el valor apropiado para pantallas de SDR, es decir una curva normalizada para un PB_C de 100 nits. Es muy útil hacer ajustes de pantalla en una representación de color de este tipo, aunque no necesario, y podría incluso descartar el linealizador y hacer los cálculos directamente en las lumas de SDR (aproximadamente raíz cuadrada). A continuación una unidad de curva personalizada 4004 aplica alguna curva de reclasificación. En la realización genérica esto hará toda la clasificación de LDR a HDR necesaria, pero en la realización específica con las unidades discontinuas todas presentes, esta unidad puede cargar una curva de metadatos que hace la clasificación precisa (de una representación de SDR normalizada a una salida que es aún SDR normalizada). La unidad de reclasificación aproximada 4005 aplica una función Fcrs para mover al menos tres subrangos de las lumas creadas por la unidad 4004 a posiciones de HDR apropiadas en lo que es ahora un rango de HDR (posiciones relativas, es decir en comparación con a PB_C de, por ejemplo 5000 nits, puesto que los cálculos aún funcionan en representaciones normalizadas a un máximo de 1,0). En el ejemplo específico, la forma de esta función se determina por un parámetro de SSL, que determina la pendiente de una parte lineal de la función para los negros, es decir empezando en 0, HSL determina de manera similar la inclinación de la pendiente para las lumas más brillantes, y MIDW determina la anchura de una región de transición entre estos dos subrangos, por ejemplo de forma parabólica. Finalmente, en algunas situaciones puede haber una unidad de adaptación de rango 4006 presente, que puede mapear el máximo 1,0 a algún valor relativo de HDR dW, por ejemplo 0,7, y de manera similar el valor 0 puede mapearse a dB, por ejemplo 0,0001. Esto finalmente produce lumas normalizadas de HDR, Y'CH, que tienen una clasificación según sea apropiado (en un dominio de luma perceptual). Las lumas perceptuales Y'P se multiplican por una constante 1/kb, y se usa el mínimo de Y'P/kb y Y'CH como la luma de HDR final Y'Fh , con la apariencia de brillo correcta.
A continuación estas lumas normalizadas de linealizan a luminancias de HDR normalizadas por el linealizador 4009, que puesto que usamos la Philips OETF en la unidad 4003, será una correspondiente Philips OETF, como se proporciona por la Ec 6 anterior. El parámetro rho_H dependerá ahora de qué tipo de imagen de HDR se supone que reconstruirá el sistema, y caerá típicamente entre 13,2 (para 1000 nits PB-C HDR) y 33 (para 5000 nits h Dr ), pero podría también tener por supuesto otros valores.
Finalmente, típicamente las luminancias de HDR lineales se convierten de vuelta al formato de raíz cuadrada para estar de conformidad con el formato de entrada Y'_SDR, por la unidad de cálculo de luma 4010 que aplica la función inversa de BT.1886 EOTF (en principio esta norma únicamente prescribe una pantalla y su EOTF de referencia, pero el experto lector puede imaginar cómo determinar la forma de función inversa reflejando a través de la diagonal). Ahora la unidad de adaptación 4025 escala a las luminancias relativas apropiadas aplicando el siguiente cálculo. En primer lugar se calcula un valor gp que corresponde al PB_D de la pantalla de MDR para la que ha de clasificarse la imagen desde la apariencia de HDR como punto de inicio, similar a lo que se ha descrito anteriormente. Por lo que típicamente otra unidad calcula gp=log(PB_D/100)/log(PB_C/100), donde PB_C es el brillo pico de las imágenes de HDR reconstruidas, que por supuesto corresponden al tipo de códec de HDR, es decir lo que selecciona el lado de creación como un valor Pb_C útil para las imágenes de HDR del par HDR/SDR (que puede determinarse mediante acuerdos de una norma particular, por ejemplo los discos blu-ray desearían usar 1000 nits PB_C, o las necesidades típicas de una aplicación, es decir las clases de imágenes que tuvieran que ocurrir, por ejemplo para un programa de noticias que puede tener zonas destacadas pero normalmente está relativamente iluminado de manera uniforme en lugar de iluminado exóticamente -es decir no hay cuevas oscuras o espadas láser- puede considerarse que 1000 nits deben ser suficientes, y cualquier cosa por encima puede recortarse intensamente a este blanco).
La unidad de adaptación 4025 multiplicará la función de transformación de luminancia total aplicada a la luma de SDR de entrada, es decir F_tot(Y'_SDR) que se eleva en primer lugar a la potencia gp, por esa luma elevada a la potencia (1-gp).
Por lo tanto, en otras palabras calcula una luma de MDR clasificada apropiadamente Y'M=potencia(Y'GH;gp)* potencia(Y'_SDR;1-gp). De manera similar a lo que se ha descrito anteriormente, podrían convertirse diversas técnicas más avanzadas y realizaciones a una formulación de esta clase, así como convertir este escalamiento multiplicativo final a otros dominios de luma.
Finamente, de manera opcional las lumas de MDR no lineales opcionales definidas de acuerdo con la función conformada BT.1886 pueden convertirse a otro formato de luma, por ejemplo, versiones de raíz cuadrada exacta de las luminancias, mediante la unidad 4033, que es solo una de las definiciones de realización que usa el solicitante (por lo tanto opcionalmente).
Las lumas de MDR clasificadas apropiadamente L'M, se usan para multiplicar (por el multiplicador 4032) por tres valores de RGB no lineales normalizados, R's etc. (emitidos desde el matrizador de color 4031), como se aclaró anteriormente con la Figura 25, que produce los valores de RGB de MDR correctos finales (RGB_MDR), que podrían transmitirse directamente a una pantalla de ese correspondiente PB_D.
Esto presenta una manera de ajuste de pantalla que es muy útil si se hace el correspondiente procesamiento cromático mediante un ajuste de saturación en la unidad de saturación 4030, que puede realizarse típicamente multiplicando Cb y Cr por un factor Sat(Y'_SDR) que es dependiente de las lumas de entrada. Una buena elección típica para estas funciones puede ser una desviación desde Sat(Y'_SDR)=k/ Y'_SDR, donde k es una constante, para valores superiores Y'_SDR un menor valor de Sat que esta función lineal inversa para crear una desaturación. Esto proporciona imágenes de MDR reclasificadas de manera bonita de acuerdo con todos los aspectos de optimización (puesto que, por supuesto, nunca puede representarse la imagen de HDR maestra perfectamente en ninguna pantalla de MDR, especialmente si tiene por ejemplo una PB_D=500 nits).
En la Figura 41 aclaramos un ejemplo de cómo funcionaría típicamente el ajuste si hubiera una iluminación circundante promedio anteriormente. Si la luz circundante se vuelve suficientemente alta, lo que alguna vez -bajo iluminación de visualización de televisión u ordenador normal- se hubiera visto como un parche gris claro en la pantalla, podría parecer un gris oscuro o incluso negro en comparación con los objetos brillantes que rodean la pantalla.
En la Figura 41b empezamos ahora con una imagen que se ha reclasificado de manera óptima para una pantalla de MDR de digamos PB_D = 1200 nits (la imagen de HDR maestra original puede tener contenida contenido de imagen, es decir, objetos brillantes de hasta 5000 nits, pero ya se han calculado correspondientes luminancias para estos objetos en el rango de luminancia de MDR, con cualquiera de las estrategias anteriores). Ahora supóngase que se aumenta el nivel de luz circundante, entonces tendría sentido que las diversas luminancias de objeto (a lo largo de la diagonal) necesitaran aplicarse brillo de nuevo. Esto por supuesto sería diferente de manera óptima dependiendo del contenido real de la imagen. Por ejemplo, una clase de problema típico, aunque ciertamente no exclusivo o exhaustivo, es que el observador tiene dificultad con la percepción de lo que exactamente reside en las regiones más oscuras de la imagen. Ahora teóricamente, puede pensarse que si se potencia la luz circundante en un factor de, por ejemplo, 2, entonces podría obtenerse una situación de igual apariencia si se potenciara linealmente todas las luminancias de pantalla representada (por lo que también la imagen de control de MDR como entrada) en el mismo factor 2 (si eso ya es incluso posible, por ejemplo debido a la retroiluminación limitada de una pantalla de LCD). Esto puede cumplirse si la visión humana estaba perfectamente adaptada, pero en la práctica no es necesariamente el mejor enfoque para tal aplicación de brillo que contrarresta el entorno para asegurar aún la mejor apariencia de representación para cualquier combinación de limitaciones de contenido/visualización de imagen. La Figura 41a aclara algunos de los principios. Una representación de imagen parecería de manera teórica óptima, si la luminancia promedio representativa de los píxeles de imagen (AVGIM) es idéntica a la luminancia promedio representativa de los objetos circundantes (AVGSURR), que a su vez es mediante las reflectividades del objeto dependientes del nivel de iluminación circundante. Por ejemplo, cuando se representa una escena nocturna, con paredes de casas oscuras, a través de la cual un oficial de policía anda iluminando una linterna hacia el observador, parecería espectacularmente realista si la escena continúa con las regiones circundantes y objetos que tienen aproximadamente las mismas luminancias de objeto que en la imagen, como si fueran una continuación de las casas. Debería destacarse que HDR ha cambiado todas las reglas y que la luminancia promedio de la imagen de HDR no es de ninguna manera típicamente igual a 0,18*PB_C, como lo era en la era de vídeo de SDR. Esto no es solamente puesto que PB_C puede ser cualquier cosa, y los máximos más brillantes para las posibilidades de objetos de codificación, darán como resultado típicamente promedios relativamente inferiores, pero también, puesto que las escenas de HDR pueden contener simplemente cualquier cosa, aunque a menudo tienen apariencias bonitas puesto que pueden tener pequeñas zonas destacadas que son mucho más brillantes que la media (con cualquier relación a AVGIM, ciertamente no siempre 5 veces más brillante). Por supuesto el lector entenderá que este modelo no es perfecto, y puede únicamente existir si la iluminación circundante varía dinámicamente con el contenido de la imagen, que puede no siempre preferirse. Por lo que típicamente la representación de la pantalla puede ser más oscura que el entorno cuando se representan escenas oscuras, y bastante más brillante en cierto modo cuando se representan escenas diurnas (lo que da lugar a la apariencia de caja de luz de las pantallas, pero el observador se centrará principalmente en la pantalla, es decir adaptará un grado mayor basándose en los colores de pantalla distintos de los colores circundantes). Para imágenes de HDR, estas diferencias podrían ser bastante más impresionantes en cierto modo, por lo que podría ser útil para una experiencia óptima que cuando, por ejemplo, ha de representarse una escena nocturna, esas luces circundantes al menos se atenúen durante algún tiempo hasta algún grado con lámparas coordinadas, para asegurar que las regiones oscuras de la imagen no parezcan demasiado negras, pero en general no está garantizado que cualquier sistema de representación hará eso.
Sin embargo, teniendo métodos de ajuste de pantalla que enfocan de manera precisa en una región principal de típicamente luminancias "promedio", y no solamente una potenciación de factor global del brillo pico y cualquier cosa por debajo de manera co-lineal, es aún una manera deseada de manejar óptimamente el ajuste de apariencia para diferentes entornos.
La Figura 41b ilustra esquemáticamente una transformación de luminancia de este tipo en el gráfico 4110, que por lo tanto puede estar caracterizada en el rango de luminancia de MDR normalizada L_MDR (por ejemplo de PB_D=1200 nits), con las luminancias de salida L*_MDR que abarcan el mismo rango (que correspondería a lo que puede enviarse como colores de control a la pantalla de MDR).
La imagen representativa promedio AVGIM puede obtenerse de nuevo de diversas maneras, y hasta diversos grados de precisión representativa (por ejemplo, podría comunicarse conjuntamente en terceros metadatos, o estimarse mediante el aparato de lado de recepción a partir de un conjunto de luminancias de imagen de MDR muestreadas, por ejemplo heurísticamente). En el método ilustrado, esta media se eleva por una cantidad dAV. Como una primera cosa que debería observarse que esta no es necesaria que sea 2x para una iluminación aumentada 2x, por el contrario, debería tenerse en cuenta, entre otras cosas, cuánto rango es necesario para los objetos más brillantes (es decir con luminancias por encima del AM máximo de la región de luminancias promedio 4111). Diversos efectos visuales prácticos disponen las elecciones. Por una parte, como ya se ha mencionado, en la práctica, una representación en una pantalla no necesita coordinarse exactamente (igual) con la luminancia promedio circundante. Por lo tanto, podría potenciarse la luminancia promedio AVGIM desplazándola a través de un valor de desplazamiento establecido dAV (que equivale a un control sencillo de la curva de transformación de luminancia final 4112 basándose en un aumento de esa posición clave), de una manera que la aplica brillo, pero puede ser menos que para la adaptación visual multiplicativa teóricamente perfecta. Por ejemplo, si la pantalla ya estaba por encima del brillo promedio en comparación con el entorno, potenciar este promedio por un dAV que corresponde a un valor L*_MDR que es únicamente 1,5xAVGIM, hará aún una representación en cierto modo brillante y colorida, ya sea un poco menos, pero probablemente bastante buena para las circunstancias (ya que para muchas imágenes la aplicación de brillo de las regiones oscuras puede ser el problema crítico en lo que respecta a la visibilidad, sin embargo, la aplicación de brillo de los colores promedio proporciona la apariencia clara brillante y colorida bonita de la representación para cualquier situación del entorno). Adicionalmente el algoritmo puede usar heurísticas con respecto a lo que se necesita para los contrastes en esta región principal. De nuevo, algunos metadatos de especificación a partir del lado de creación podrían indicar lo que se desea, pero los algoritmos del lado de receptor automático heurísticos podrían usar -dependiendo de la capacidad de cálculo disponible- algunos análisis de escena para la captura de las imágenes, y determinar la complejidad de las regiones basándose en tales aspectos como la cantidad de submodos de histograma en la región media 4111, medidas locales tales como valores de textura representativa, o incluso una segmentación rápida y apariencia en el patrón geométrico de los objetos, etc., o medidas de calidad de imagen tales como estimaciones de efecto de bandas, o estimaciones de error de compresión. Los algoritmos podrían usar esto para calcular dónde debería mapearse el Am mínimo en el eje de luminancia de salida L*_MDR, o, en este caso, el algoritmo decide que era permisible alguna reducción de contraste (para equilibrar las necesidades de los objetos de imagen más brillantes, por encima de AM), reduciendo F(AM) a la luminancia de salida MXA en comparación con un desplazamiento lineal de todas las luminancias de región promedio. También los píxeles brillantes siguen algunas lecciones psicovisuales importantes. Habría que ser cuidadoso para no solamente desplazar, o curvar con una función arbitraria como solamente alguna función de gamma, puesto que puede destruirse gravemente la apariencia de rango dinámico, que estaba previamente por el creador de contenido y el ajuste dependiente de PB_D así creado de manera cuidadosa. Se necesitan los píxeles más brillantes, para crear algún brillo. Por supuesto, de nuevo, puede haber alguna reducción de rango dinámico no permisible, puesto que hay solamente demasiada luz circundante, y la pantalla, incluso aunque es de PB_D superior a 100 nits, empieza a funcionar en sus máximos. Sin embargo, esto no significa que no pudiera hacerse también esta optimización de manera tan cuidadosa como sea posible, para mantener tanto como sea posible la apariencia originalmente pretendida de los artistas que crearon en la clasificación de HDR maestra, dada ahora todas las limitaciones del lado de representación. Y el nivel óptimo dependerá de nuevo del contenido. Por ejemplo si en todo el rango de brillos por encima de AM, hay para esta imagen únicamente un par de pequeñas lámparas vistas como bombillas, o algunas regiones pequeñas de reflejo metálico, será más posible representar estas a una relación absoluta inferior de la media que la de la región local divida entre AVGIM, mientras que aún proporciona una apariencia psicológica de buen brillo. Sin embargo, cuando tenemos para los brillos una vista a través de la ventana (en este caso formando los interiores la región de las luminancias promedio) de edificios iluminados por el sol, es necesario más cuidado para la compresión de esa región por encima de un MXA calculado equilibrado, de modo que esta región no pierda demasiado contraste y colorido, especialmente si ocurre algo importante en la película también fuera. Hemos elevado en este ejemplo los píxeles más oscuros a una estimación de nivel de negro BKEst. En general, un algoritmo irá a una reasignación equilibrada de estas al menos tres regiones, y algoritmos más avanzados podrían incluso ajustar la forma de la función 4112 en al menos una de estas regiones para que se volvieran no lineales.
Como se enseña, una manera muy útil para hacer el ajuste de pantalla consiste en un método o aparato para calcular colores resultantes de una imagen de MDR para una pantalla con brillo pico (PB_D) que no equivale al brillo pico de una imagen recibida (PB_IM1) o una imagen calculable a partir de la misma aplicándola funciones de mapeo de color recibidas conjuntamente F_ct, que comprenden al menos funciones de mapeo de luminancia, que comprenden una función de mapeo de luminancia aproximada (Fcrs) y una función de mapeo de luminancia precisa (CC), caracterizado por que en primer lugar se determina una función de mapeo aproximada optimizada (FCrs_opt) basándose en al menos PB_D para determinar subrangos óptimos de las luminancias dada la situación de representación de pantalla real, y este mapeo aproximado se aplica a la imagen de entrada que produce lumas aproximadas (Y'CG), y a continuación se optimiza una función de mapeo precisa basándose en la función de mapeo de luminancia precisa (Cc ) y al menos PB_D, y esto se aplica a las lumas aproximadas. El mapeo aproximado permite crear versiones bonitas de subrangos dependiendo de los requisitos de una imagen, que pueden usarse a continuación para clasificar de manera precisa los objetos dentro de ella. Por ejemplo, una escena de un día nublado en el interior de la casa con una vista exterior puede formar primera apariencia de principios matemáticos similar a una escena nocturna con un escaparate iluminado de manera brillante con objetos en su interior, y una región oscura de un callejón adyacente apenas iluminado en el que están aparcadas algunas bicicletas. Aunque las bicicletas pueden ser apenas visibles, y ese puede ser el intento artístico, ambas imágenes contienen una región más brillante y una más oscura. Sin embargo, el interior iluminado por la luz diurna se representa idealmente con luminancias más brillantes que cualquier escena nocturna. También, puesto que las escenas nocturnas típicamente no se observarán como con contraste, pueden no necesitar una subregión grande de lumas, incluso si tiene lugar alguna acción allí, mientras que el interior de la casa, por otra parte, puede necesitar un subrango considerable del rango disponible de luminancias para muchas pantallas de MDR. El mecanismo de mapeo inicial de luminancia aproximada no permite únicamente de manera aproximada dónde colocar los rubrangos necesarios, es decir con qué luminancia MDR de inicio o promedio, sino también qué alcance, es decir, cantidad de luminancias de MDR, tendrá cada subrango. Ambos mapeos optimizados pueden determinarse de diversas maneras, por ejemplo el mapeo aproximado para crear versiones iluminadas de manera bonita puede comprimirse en la dirección diagonal con un factor de escala determinado de manera óptima, y el mapeo preciso en la dirección vertical. Aunque son posibles otras variantes, por ejemplo un cambio de la dirección de compresión aproximada para la parte más oscura de las luminancias de entrada o lumas de la imagen de entrada que van a convertirse en una imagen de MDR.
Puesto que nuestros novedosos conceptos técnicos pueden realizarse como diversas variantes y en muchas formas (por ejemplo 1-etapa cálculo directo en la decodificación frente al post procesamiento, diferentes métricas y ajuste a lo largo de las métricas, diferentes representaciones de color, etc.), hemos añadido a la Figura 42 para aclarar de manera más sencilla (resumir) conceptos principales de algunas de nuestras realizaciones. La parte superior considera codificación de vídeo pura, y se usará únicamente para introducir la posibilidad de que el lado de creación formule la escena de la imagen de h Dr (y en particular las necesidades cuando se reclasifican a diferentes necesidades de luminancias para hacerse, para obtener una imagen con brillos objeto óptimos para una pantalla con una capacidad de HDR dada, en particular su brillo pico de pantalla PB_D), por ejemplo por un clasificador humano que especifica una función de transformación de tono o luminancia TMF, que mapea las luminancias de HDR relativas de una imagen clasificada maestra de HDR (M_HDR) con las luminancias de SDR relativas de una correspondiente imagen de SDR (RG_SDR). Cómo se determinó esta función, cuál era su pendiente, o incluso cómo de exactamente se representa en metadatos (MET) comunicados a un receptor, no es necesario para aclarar las presentes enseñanzas. La primera cosa que haremos típicamente (en diversas maneras en las diversas posibles realizaciones de la realización), es que esta función (que mapea entre SDR y HDR por ejemplo que codifica la representación PB_C = 1000 nits) se restablece TMF en el lado de recepción. Esto es porque su forma es altamente importante, ya que determina (de acuerdo con, por ejemplo, el clasificador humano) cómo deben "remezclarse" las luminancias de objeto de imagen. Por lo tanto será un factor de guía importante para cualquier algoritmo que determine una reclasificación para una pantalla particular. En muchas de nuestras realizaciones, por ejemplo, consideramos esta función de reclasificación de HDR a SDR como la extrema de las posibles reclasificaciones en caso de que se haya comunicado una imagen de HDR (y viceversa para realizaciones de comunicación de SDR). A continuación se determina una dirección de interpolación, en el gráfico de relación entre las luminancias de imagen de entrada (eje x) y las luminancias de salida (que podrían en principio ser cualquier representación, por ejemplo cómo están relacionadas las luminancias de entrada a las luminancias de la otra imagen clasificada del lado de creación de origen, o la imagen necesaria para la pantalla particular). Algunas realizaciones pueden tener una dirección especificada, es decir introducida a la unidad de determinación de factor de escalamiento (4205) por ejemplo mediante una unidad de lectura de datos que los lee de metadatos comunicados conjuntamente con la información de imagen (coeficientes de DCT, etc.), o, en algunas realizaciones puede establecerse en el aparato, por ejemplo, 45 grados por defecto en la fábrica, etc. Los 45 grados son especialmente interesantes, ya que este método descuenta el comportamiento mínimo de la diagonal, cuando cualquier representación mapea la luminancia máxima de la primera representación de imagen (es decir SDR in) a la segunda (PB_C de, por ejemplo, la imagen optimizada de pantalla de 500 nits). En segundo lugar, a lo largo de esta dirección puede situarse una métrica, típicamente radicando uno de los puntos finales en la diagonal del gráfico (véase por ejemplo la Figura 21), en concreto esa imagen que es la imagen de entrada comunicada Im_in. La dirección determinará las matemáticas, de cómo ocurrirán versiones intermedias de la función de mapeo de luminancia requerida de la imagen de entrada a cualquier imagen optimizada de pantalla, y en particular mediante la métrica. Tener una métrica permite hasta el punto necesario o deseado, hacer determinaciones precisas del comportamiento de reclasificación intermedio, en contraste a, por ejemplo, métodos más aproximados o genéricos. Como mostramos, hay diversas maneras para obtener métricas equivalentes, pero por supuesto la unidad tendrá una métrica prestablecida o recibida que es sensible para el comportamiento de optimización de pantalla de calidad buena o razonable necesaria. Hemos mostrado también que podrían ajustarse métricas, o posiciones en las métricas. La única cosa que necesita entender el lector en este análisis simplificado de resumen, es que alguna métrica puede situarse, a lo largo de la dirección DIR, dondequiera que sea necesaria, por ejemplo empezando en cada punto de la diagonal (que corresponde a una luminancia de entrada particular). Por supuesto realizaciones alternativas pueden elegir determinar únicamente un número de puntos a lo largo de la diagonal para determinar una localización de un punto correspondiente de la función de reclasificación a usarse (F_M) para calcular la imagen de salida de PB_D optimizada, y a continuación determinar los otros puntos, por ejemplo, por conexión lineal, etc. Los principios de tales diferentes realizaciones son los mismos. Por lo que como muestra el dibujo esquemático inferior, típicamente el otro punto final finaliza en la curva TMF como se comunica en los metadatos (es decir la función necesaria para calcular, por ejemplo la imagen de SDR clasificada a partir de la imagen de entrada de HDR recibida, que corresponde a la diagonal que representa la transformación de identidad). Por lo que el lector puede entender que si puede situarse un número de versiones así escaladas de la métrica METR, que tiene posiciones que corresponde a los diversos posibles brillos pico al menos entre la posición de HDR, por ejemplo 1000 nits, en la diagonal y la posición de SDR 100 nits en TMF, es decir que hemos dibujado con un segmento de línea, por ejemplo, la posición de 200, 400, 600, 800 nits PB_D, entonces en cada ubicación de la diagonal también puede determinarse una posición (M_PB_D) en la métrica que corresponde a la pantalla disponible real en el lado de recepción, y para la que ha de calcularse una imagen de salida adecuada con buen objeto de imagen/luminancias de píxel reclasificadas. Conceptualmente, el lector puede entender la determinación de la función necesaria final F_M, es decir para calcular no la clasificación de SDR de la imagen de HDR recibida (como imagen de entrada para este aparato) sino la imagen de MDR para la pantalla de PB_D, puede obtenerse conectando todas las posiciones en las métricas. Pero por supuesto, en la práctica tal comportamiento puede hacerse matemático en el aparato de diversas maneras, por ejemplo como una ecuación que calcula directamente un nuevo parámetro o parámetros necesarios de alguna función específica que usa el clasificador para vincular las clasificaciones de SDR y HDR como vídeo codificado y comunicarse (por ejemplo, para una función TMF que conecta en espacio uniforme perceptual dos segmentos lineales en los extremos oscuros respectivamente brillantes del rango de luminancia con un segmento parabólico, determinando para la función F_M los parámetros de las pendientes las partes lineales así como la ubicación de la parte parabólica que pueden necesitar recalcularse, y tales cálculos pueden realizarse, por ejemplo, como código de software que se ejecuta en un procesador en el aparato, es decir un STB o TV, siempre que realicen el comportamiento general explicado). Finalmente la función se transforma preferente y ventajosamente en un valor multiplicador, con una técnica que se explica adicionalmente con la Figura 16.
Hemos dibujado también cómo una diagonal que marcha por la coordenada vLin corresponde con las luminancias de entrada mediante una proyección geométrica P, y puede decirse lo mismo acerca del eje y rotado de las luminancias de salida. Por lo que típicamente la metodología de ajuste determinaría la función F_M conectando puntos en las métricas situadas con correspondencia a M_PB_D, pero puede haber variantes que se desvían de eso, pero en general, el posicionamiento dependerá de la posición de M_PB_D identificada, y la forma de la función t Mf . Por ejemplo una realización sencilla típica pero potente escala las métricas, como se establece, por ejemplo, con un sencillo prestablecimiento único de los "instantes" que corresponden a etapas iguales en PB_D (por ejemplo cada paso de 100 nits), de modo que el otro PB_C de las dos clasificaciones de imagen se conecta a esa función TMF que representa esa transformación de luminancia (es decir por ejemplo, la curva de SDR para calcular las luminancias de imagen de SDR de punto final de métrica de 100 nits a partir de las imágenes de h Dr , y cómo esta curva radicaría más allá de la diagonal, por ejemplo la torre por encima de ella cuando la diagonal se gira a una dirección horizontal).
La Figura 43 aclara otra idea técnica útil para adaptar una imagen reclasificada de acuerdo con las necesidades de las capacidades de negro de un sistema de representación (es decir una pantalla en un entorno de visualización), y dependiente de tales factores (que, por ejemplo, un fabricante de pantalla puede usar en procesamiento interno dentro de una TV, o comunicar los datos a un STB de preprocesamiento u ordenador, etc.), en particular tales factores como la luz de fuga de retroiluminación típica cuando se acciona un píxel de LCD como completamente cerrado, o un velo en la placa frontal de pantalla que corresponde a una cantidad particular de iluminación de habitación de visualización, etc. El lector debe entender que con la clasificación, existe lo que podría observarse como una situación teórica. Supóngase que la clasificación maestra se realizó en una pantalla de HDR de lado de creación particular (que se hará la pantalla de referencia para las imágenes de HDR maestras comunicadas). En particular, si la pantalla de clasificación no puede representar una luminancia más brillante que sus PB_ref_grad=5000 nits, entonces sería esperable que, aunque una imagen de HDR particular pudiera contener píxeles de menor luminancia, nada en la imagen estará por encima de 5000 nits. De manera similar, si el clasificador de creación no puede observar fielmente ninguna luminancia por debajo de, por ejemplo, 0,01 nits, puede esperarse que no existiera nada por debajo de 0,01 en la imagen codificada, o al menos no con un significado preciso. Ahora, algunas realizaciones, podrían derivar clasificaciones ajustadas secundarias para pantallas con mejor negro que el monitor de referencia del artista que crea el contenido, pero en este punto nos centraremos en el escenario más típico que es al revés: el observador del lado de recepción tiene una pantalla con comportamiento de negros peor. Si el clasificador especifica con sus funciones cómo se mapeará la luminancia más brillante entre la imagen de HDR maestra M_HDR y su correspondiente clasificación de SDR I_SDR, entonces él también especifica un comportamiento deseado ideal para cómo debería parecer ese píxel más brillante en la imagen I_MDR, por ejemplo mapear a su PB_C = 700 nits. Existe una relación ajustable similar como se ha explicado anteriormente para todos los grises por debajo de brillos pico, y en este punto nos podemos centrar en el negro más negro. Si el clasificador especifica cómo el negro del contenido más negro se mapeará a negro de SDR (típicamente 0,1 nits), él también opina algo acerca de cómo esperaríamos que ese negro se comprimiera para imágenes reclasificadas de MDR. En concreto, puede calcularse un negro virtual (contenido) Bvirt. Esto es lo que se esperaría que produjera la imagen de MDR reclasificada, si tuviéramos una pantalla ideal, que puede representar negros increíblemente oscuros. Sin embargo, como se dice debido a diversas razones, la pantalla puede únicamente poder representar un negro real Bactl, y/o el observador puede discernir únicamente suficientemente bien contenido de imagen hasta un negro de este tipo. Esto desearía un ajuste de pantalla adicional de al menos los colores de imagen más oscuros hacia y alrededor de ese negro real.
Un buen método para hacer esto es ensanchar el desplazamiento necesario en cierto modo, de acuerdo con el siguiente método: haremos por fines de aclaración que la adaptación de nivel de negro ocurra después de una etapa de clasificación precisa (simplemente ejemplar, o después de la aplicación de una sola función de mapeo de luminancia en otra realización), es decir hay una unidad BLA, por ejemplo, en la Figura 26 entre las unidades 2603 y la unidad de linealización 2604. En primer lugar, la unidad BLA determina el nivel de negro virtual Bvirt, por ejemplo con el siguiente cálculo:
Bvirt=B_SDR+(B_src-B_SDR)*(PB_D-PB_L)/(PB_scr-PB_L)
En el que en este ejemplo PB_src es el brillo pico del elemento de origen de HDR, es decir, por ejemplo 1000 nits o 5000 nits, y el brillo pico de SDR PB_L es normalmente 100 nits.
A continuación se determina un delta.
Delta=Bvirt-Bactl
(Bactl puede determinarse de diversas maneras, por ejemplo el fabricante puede determinarlo en sus fábricas y almacenarlo, o puede determinarse en la ubicación de visualización antes de visualizar el contenido de vídeo, etc.). Este se convierte a un delta en espacio de luma uniformizado:
Del_PU=-P_OETF(abs(Delta)/PB_D;PB_D),
Siendo P_OFTF la luminancia relativa a la función de asignación de código de luma uniformizada como se ha proporcionado anteriormente en la Ec. 8.
A continuación, puede hacerse el desplazamiento real de las diversas posibles luminancias de entrada, es decir tener que experimentar el procesamiento previo y llegar a la unidad 2603, por ejemplo de acuerdo con:
LL=P_EOTF(Pho*(1+Del_PU)-Del_PU;PB_D), [Ec. 11] Siendo la EOTF la función inversa de la Philips OETF, como se ha descrito anteriormente (Ec. 6).
De manera alternativa, son posibles varias otras realizaciones, por ejemplo haciendo BLA únicamente en una región de los colores más oscuros, por debajo de, por ejemplo, un delimitador superior de rango de negro comunicado o determinado por el receptor BK_D_U:
LL=P_EOTF[max(Pho*(1+{Del_PU/max(BK_D_U,abs(Del_PU))},Pho)-Del_PU;PB_D], etc.
Un ejemplo de cómo puede comportarse este ajuste se ilustra con la Figura 44. En este punto proporcionamos un ejemplo de cómo puede convertirse una imagen de SDR en una imagen de HDR o al menos Dr superior (MDR) mediante una función que atenúa las partes más oscuras en comparación con las más brillantes. La función normal para aplicar sería la función 4401, que iría bien a través de (0.0;0.0). Con una ecuación como, por ejemplo, la anterior Ec. 11 podemos hacer una curva final que tiene un desplazamiento para la entrada más negra (es decir en esta realización, estas serían luminancias de SDR codificadas que corresponden originalmente a luminancias de HDR maestras, y que necesitan transformarse en luminancias de MDR adecuadas (suficientemente visibles), para una pantalla que tiene una representación negra relativamente mala. Esto proporciona la función 4402. También se muestra que el algoritmo podría funcionar en la otra dirección (función 4403) redefiniendo ligeramente las funciones, aunque pueden aplicarse también otros métodos en la estructura y filosofía técnica actual para crear negros ultra buenos.
El lector debe entender que este comportamiento de ajuste negro puede operar sin demasiados detalles del resto del comportamiento de ajuste de pantalla, por ejemplo, sin el principio de métrica orientada direccionalmente. Lo que en general se verá implicado en alguna optimización inicial de la imagen de MDR en caso de que no se tenga en cuenta el negro, es decir, por ejemplo con la clasificación aproximada, teniendo cuidado en su mayoría de las limitaciones de píxeles más brillantes, y a continuación haciendo una pasada de optimización negra, en una unidad de optimización negra.
Los componentes algorítmicos desvelados en este texto pueden realizarse (completamente o en parte) en la práctica como hardware (por ejemplo partes de un CI específico de aplicación) o como software que se ejecuta en un procesador de señales digitales especial, o un procesador genérico, etc. Un producto de memoria puede ser, por ejemplo, una memoria portátil tal como un disco blu-ray o un lápiz de memoria de estado sólido, pero también por ejemplo una memoria en un servidor fuera del sitio a partir del cual puede descargarse un vídeo o imagen a una localización remota de uso del vídeo o imagen.
Debería ser entendible para el experto en la materia a partir de nuestra presentación qué componentes pueden ser mejoras opcionales y pueden realizarse en combinación con otros componentes, y cómo las etapas (opcionales) de los métodos se corresponden con medios respectivos de aparatos, y viceversa. La palabra "aparato" en esta solicitud se usa en su sentido más amplio, en concreto un grupo de medios que permiten la realización de un objetivo particular, y puede ser, por ejemplo (una pequeña parte de circuito de) un CI, o un dispositivo especializado (tal como un dispositivo con una pantalla), o parte de un sistema en red, etc. También se tiene por objeto que "disposición" se use en el sentido más amplio, por lo que puede comprender, entre otros, un único aparato, una parte de un aparato, una colección de (partes de) aparatos cooperativos, etc.
La indicación de producto de programa informático debería entenderse que abarca cualquier realización física de una colección de comandos que posibilitan que un procesador genérico o de fin especial, después de una serie de etapas de carga (que pueden incluir etapas de conversión intermedias, tales como traducción a un lenguaje intermedio, y un lenguaje de procesador final) introduzca los comandos en el procesador, y para ejecutar cualquiera de las funciones características de una invención. En particular, el producto de programa informático puede realizarse como datos en un soporte tal como, por ejemplo, un disco o cinta, datos presentes en una memoria, datos que viajan mediante una conexión de red -alámbrica o inalámbrica-, o código de programa en papel. Aparte del código de programa, los datos característicos requeridos por el programa pueden materializarse también como un producto de programa informático. Algunas de las etapas requeridas para la operación del método, tales como etapas de entrada y de salida de datos, pueden encontrarse ya presentes en la funcionalidad del procesador en lugar de describirse en el producto de programa informático.
Debería observarse que las realizaciones anteriormente mencionadas ilustran en lugar de limitar la invención. Donde el experto en la materia pueda realizar fácilmente un mapeo de los ejemplos presentados a otras regiones de las reivindicaciones, no hemos mencionado por concisión todas estas opciones en profundidad. Aparte de las combinaciones de elementos de la invención según se combinan en las reivindicaciones, son posibles otras combinaciones de los elementos. Cualquier combinación de elementos puede realizarse en un único elemento especializado.
No se tiene por objeto que signo de referencia alguno entre paréntesis en la reivindicación limite la reivindicación. La expresión "comprendiendo/que comprende" no excluye la presencia de elementos o aspectos no enumerados en una reivindicación. La palabra "un" o "una" precediendo a un elemento no excluye la presencia de una pluralidad de tales elementos.

Claims (18)

REIVINDICACIONES
1. Un aparato de transformación de color (201) para calcular colores resultantes (R2, G2, B2) de píxeles de una imagen de salida (IM_MDR) que se ajusta para una pantalla con un brillo pico de pantalla (PB_D) empezando desde colores de entrada (R,G,B) de píxeles de una imagen de entrada (Im_in) que tiene un código de luma máxima que corresponde a un primer brillo pico de imagen (PB_IM1) que es diferente del brillo pico de pantalla (PB_D), caracterizado por que el aparato de transformación de color comprende:
- una unidad de determinación de transformación de color (4201,102; 2501) dispuesta para determinar una transformación de color (TMF) de datos de especificación de procesamiento de color (MET_1) que comprenden al menos una función de mapeo de luminancia (CC) recibida mediante una entrada de metadatos (116), datos de especificación de procesamiento de color que especifican cómo las luminancias de píxeles de la imagen de entrada (Im_in) han de convertirse en luminancias para aquellos píxeles de una segunda imagen (Im_RHDR) que tiene en correspondencia a su código de luma máxima un segundo brillo pico de imagen (PB_IM2), que es diferente del brillo pico de pantalla (PB_D) y el primer brillo pico de imagen (PB_IM1), y mediante el cual la división del primer brillo pico de imagen entre el segundo brillo pico de imagen es mayor que 2 o menor que 1/2;
-una unidad de determinación de factor de escalamiento (4205, 200; 1310) dispuesta para determinar un factor multiplicativo común resultante (gt; Ls), estando dispuesta la unidad para determinar este factor multiplicativo común resultante:
estableciendo en primer lugar a lo largo de una dirección predeterminada (DIR) que es ortogonal a una diagonal que representa una función de transformación de identidad de luminancias de imagen de entrada, una métrica prestablecida (1850, METR) para ubicar brillos pico de pantalla, y una posición (M_PB_D) en esa métrica que corresponde con el valor del brillo pico de pantalla (PB_D), empezando la métrica en la posición de la diagonal que representa una función de transformación de identidad, y en segundo lugar: establecer una segunda transformación de color (1803; F_M) para determinar al menos luminancias de los colores resultantes (R2, G2, B2) de píxeles de la imagen de salida (IM_MDR), segunda transformación de color que está basada en la transformación de color (TMF) y la posición (M_PB_D); y en tercer lugar: determinar el factor multiplicativo común resultante (gt; Ls) basándose en la segunda transformación de color (1803; F_M);
y en donde el aparato de transformación de color (201) comprende adicionalmente
- un multiplicador de escalamiento (114) dispuesto para multiplicar cada uno de los tres componentes de color de una representación de color de los colores de entrada por el factor multiplicativo común resultante (gt) para obtener los colores resultantes (R2, G2, B2); y en donde dos puntos exteriores (PBEH, PBE) de la métrica corresponden a un brillo pico (PB_H) de la imagen de entrada recibida (im_in) respectivamente mediante la imagen codificada de las funciones de transformación de color de otro brillo pico (PB_L) que puede reconstruirse a partir de esa imagen aplicando las funciones de transformación de color recibidas en metadatos que comprenden al menos una función de mapeo de tono (CC), y en donde el aparato calcula la imagen de salida (IM_MDR) para una pantalla con un brillo pico de pantalla (PB_D) que cae dentro de ese rango de brillos pico (PB_L a PB_H).
2. Un aparato de transformación de color (201) de acuerdo con la reivindicación 1, en el que la métrica está basada en una representación logarítmica de los brillos pico de pantalla.
3. Un aparato de transformación de color (201) de acuerdo con una de las reivindicaciones anteriores, en el que la métrica se define en una representación de color perceptualmente uniformizada, tal como la representación de luma que puede obtenerse aplicando la función Y=log10(1+(rho(PB)-1)*potencia(L;1/2,4))/log10(rho(PB), en el que Y es un valor de luma perceptualmente uniformizado, L es una luminancia, PB es una constante de brillo pico, y rho es un parámetro de conformación de curva determinado por la ecuación rho(PB)=1+32*potencia(PB/10000; 1/(2,4)).
4. Un aparato de transformación de color (201) de acuerdo con una de las reivindicaciones anteriores, en el que la unidad de determinación de factor de escalamiento (200) está dispuesta adicionalmente para obtener un parámetro de ajuste (gpr; gpm) a partir de segundos datos de especificación de procesamiento de color (MET_2) que se determinaron previamente en un momento de creación de la imagen de entrada (Im_in), y está dispuesta para calcular un factor multiplicativo común resultante (gtu) que corresponde a una posición diferente en la métrica que la posición para el brillo pico de pantalla (PB_D), posición diferente que está basada en el valor del parámetro de ajuste.
5. Un aparato de transformación de color (201) de acuerdo con una de las reivindicaciones anteriores, en el que la unidad de determinación de factor de escalamiento (200) está dispuesta para determinar la posición diferente aplicando una función monótona que proporciona como una salida una posición normalizada en la métrica como una función de al menos un parámetro de entrada (gpr), función monótona que puede determinarse mediante el aparato de transformación de color de manera autónoma, o basándose en metadatos de prescripción que prescriben qué forma de función usar que se ha determinado previamente en un momento de creación de la imagen de entrada (Im_in).
6. Un aparato de transformación de color (201) de acuerdo con una de las reivindicaciones anteriores en el que el multiplicador de escalamiento (114) multiplica tres componentes de color no lineales, que se definen como una función de potencia de sus respectivos componentes de color lineales, tales como, por ejemplo, componentes de color Y'CbCr.
7. Un aparato de transformación de color (201) de acuerdo con una de las reivindicaciones anteriores, que comprende una unidad de análisis de imagen (1110) dispuesta para analizar los colores de objetos en la imagen de entrada (Im_in), y a partir de los mismos determinar un valor para al menos uno de los parámetros que controlan el cálculo de la imagen de salida (IM_MDR), por ejemplo, el parámetro de ajuste (gpm), o la dirección (DIR), o la forma de la función monótona que proporciona como una salida una posición normalizada en la métrica a usarse en el cálculo del factor multiplicativo común resultante (gt).
8. Un aparato de transformación de color (201) de acuerdo con una de las reivindicaciones anteriores que comprende una unidad de determinación de cantidad de recorte (3710) dispuesta para determinar una cantidad mínima de recorte intenso al brillo pico de pantalla (PB_D) para un subrango de las luminancias de brillo de la imagen de entrada (Im_in), en donde el cálculo del factor multiplicativo común resultante (gt) se determina para luminancias de la imagen de entrada en el subrango para mapear la luminancia de entrada al brillo pico de pantalla (PB_D).
9. Un aparato de transformación de color (201) de acuerdo con una de las reivindicaciones anteriores en el que el cálculo del factor multiplicativo común resultante (gt) está basado en una función de mapeo de luminancia aproximada (Fcrs) y una función de mapeo de luminancia precisa (CC), caracterizado por que en primer lugar se determina una función de mapeo aproximada de pantalla óptima (FCrs_opt) en al menos el brillo pico de pantalla (PB_D) para determinar subrangos óptimos de las luminancias que corresponden a la situación de representación de pantalla real, y este mapeo aproximado se aplica a la imagen de entrada que produce lumas aproximadas (Y'CG), y a continuación se optimiza una función de mapeo precisa basándose en la función de mapeo de luminancia precisa (CC) y al menos el brillo pico de pantalla (PB_D), y esta función de mapeo precisa se aplica a las lumas aproximadas.
10. Un aparato de transformación de color (201) de acuerdo con la reivindicación 9, en el que el mapeo de luminancia aproximado y preciso que corresponde al brillo pico de pantalla se determina a lo largo de una métrica (1850) con una dirección diferente, en donde preferentemente el mapeo aproximado se realiza de manera diagonal y el mapeo preciso de manera vertical.
11. Un aparato de transformación de color (201) de acuerdo con una de las reivindicaciones anteriores que comprende una unidad de estimación de nivel de negro (3702) para establecer una estimación de un nivel de negro de una pantalla, en donde el cálculo del factor multiplicativo común resultante (gt) es dependiente del nivel de negro.
12. Un aparato de transformación de color (201) de acuerdo con la reivindicación 11, en el que en primer lugar se establece una función de mapeo de luminancia de acuerdo con una situación de visualización de referencia con un nivel de iluminación fijo, y posteriormente esta función se ajusta para el valor del nivel de negro, función ajustada a partir de la cual se calcula el factor multiplicativo común resultante (gt).
13. Un decodificador de imagen de HDR que comprende un aparato de transformación de color (201) de acuerdo con una de las reivindicaciones anteriores.
14. Un método de cálculo de colores resultantes (R2, G2, B2) de píxeles de una imagen de salida (IM_MDR) que se ajusta para una pantalla con un brillo pico de pantalla (PB_D) empezando desde colores de entrada (R,G,B) de píxeles de una imagen de entrada (Im_in) que tienen un código de luma máxima que corresponde a un primer brillo pico de imagen (PB_IM1) que es diferente del brillo pico de pantalla (PB_D), caracterizado por que el método comprende:
- determinar una transformación de color (TMF) de datos de especificación de procesamiento de color (MET_1) que comprende al menos una función de mapeo de luminancia (CC) recibida mediante una entrada de metadatos (116), datos de especificación de procesamiento de color (MET_1) que especifican cómo las luminancias de píxeles de la imagen de entrada (Im_in) han de convertirse en luminancias para aquellos píxeles de una segunda imagen (Im_RHDR) que tiene en correspondencia a su código de luma máxima un segundo brillo pico de imagen (PB_IM2), que es diferente del brillo pico de pantalla (PB_D) y el primer brillo pico de imagen (PB_IM1), y mediante el cual la división del primer brillo pico de imagen entre el segundo brillo pico de imagen es mayor que 2 o menor que 1/2; - determinar un factor multiplicativo común resultante (gt; Ls):
a) estableciendo a lo largo de una dirección predeterminada (DIR), que es ortogonal a una diagonal que representa una función de transformación de identidad de luminancias de imagen de entrada, una métrica prestablecida (1850, METR), y una posición (M_PB_D) en esa métrica que corresponde con el valor del brillo pico de pantalla (PB_D), empezando la métrica en la posición de una diagonal entre los ejes de luminancia de entrada y salida,
b) estableciendo una segunda transformación de color (1803; F_M) para determinar al menos luminancias de los colores resultantes (R2, G2, B2) de píxeles de la imagen de salida (IM_MDR), segunda transformación de color que está basada en la transformación de color (TMF) y la posición (M_PB_D), y
c) calcular el factor multiplicativo común resultante (gt; Ls) basándose en la segunda transformación de color (1803; F_M); y
- multiplicar cada uno de los tres componentes de color de una representación de color de los colores de entrada por el factor multiplicativo común resultante (gt) para obtener los colores resultantes (R2, G2, B2); y en el que dos puntos exteriores (PBEH, PBE) de la métrica corresponden a un brillo pico (PB_H) de la imagen de entrada recibida (im_in) respectivamente mediante la imagen codificada de las funciones de transformación de color de otro brillo pico (PB_L) que puede reconstruirse a partir de esa imagen aplicando las funciones de transformación de color recibidas en metadatos que comprenden al menos una función de mapeo de tono (CC), y en donde el aparato calcula la imagen de salida (IM_MDR) para una pantalla con un brillo pico de pantalla (PB_D) que cae dentro de ese rango de brillos pico (PB_L a PB_H).
15. Un método de acuerdo con la reivindicación 14, en donde la métrica está basada en una representación logarítmica de los brillos pico de pantalla.
16. Un método de acuerdo con la reivindicación 14, en donde el cálculo de la posición (M_PB_D) es dependiente del cálculo de un factor de escala (SS) que equivale a ((B-1)/(B+1)) / ((A-1)/(A+1)), en el que A es un valor de salida de una función logarítmica predeterminada, forma que se determina por el brillo pico de la segunda imagen, cuando como entrada se usa una luminancia relativa que es igual al valor del primer brillo pico de imagen dividido entre el segundo brillo pico de imagen, y en donde B es un valor de salida de la función logarítmica predeterminada, forma que se determina por el brillo pico de la pantalla, cuando se usa como entrada una luminancia relativa que es igual al valor del primer brillo pico de imagen dividido entre el brillo pico de pantalla.
17. Un método de acuerdo con la reivindicación 14, en donde se determina una segunda posición (M_PB_D2) para al menos algunas luminancias de entrada, que no es igual a la posición (M_PB_D).
18. Una memoria de programa informático que comprende código que cuando se ejecuta aplica todas las etapas de cualquiera de las reivindicaciones de método anteriores, o etapas correspondientes de método para cualquiera de las reivindicaciones de aparato anteriores.
ES16822989T 2015-12-21 2016-12-21 Optimización de imágenes de alto rango dinámico para pantallas particulares Active ES2808177T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP15201561 2015-12-21
EP16167548 2016-04-28
EP16170354 2016-05-19
PCT/EP2016/082107 WO2017108906A1 (en) 2015-12-21 2016-12-21 Optimizing high dynamic range images for particular displays

Publications (1)

Publication Number Publication Date
ES2808177T3 true ES2808177T3 (es) 2021-02-25

Family

ID=57755279

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16822989T Active ES2808177T3 (es) 2015-12-21 2016-12-21 Optimización de imágenes de alto rango dinámico para pantallas particulares

Country Status (10)

Country Link
US (1) US10863201B2 (es)
EP (1) EP3394850B1 (es)
JP (1) JP6871945B2 (es)
CN (1) CN108431886B (es)
ES (1) ES2808177T3 (es)
MX (1) MX388892B (es)
PT (1) PT3394850T (es)
RU (1) RU2721762C2 (es)
WO (1) WO2017108906A1 (es)
ZA (1) ZA201804899B (es)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3562135A1 (en) 2014-06-10 2019-10-30 Panasonic Intellectual Property Management Co., Ltd. Display system, display method, and display apparatus
WO2016120209A1 (en) * 2015-01-30 2016-08-04 Thomson Licensing A method and apparatus of encoding and decoding a color picture
US10880557B2 (en) 2015-06-05 2020-12-29 Fastvdo Llc High dynamic range image/video coding
JP6320440B2 (ja) 2015-08-04 2018-05-09 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ信号のための信号再構成
US10542296B2 (en) * 2016-05-10 2020-01-21 Dolby Laboratories Licensing Corporation Chroma reshaping of HDR video signals
WO2018003757A1 (ja) * 2016-06-27 2018-01-04 ソニー株式会社 信号処理装置、信号処理方法、カメラシステム、ビデオシステムおよびサーバ
JPWO2018021261A1 (ja) * 2016-07-27 2019-05-16 パナソニックIpマネジメント株式会社 画像処理装置、再生装置、画像処理方法、および、再生方法
US10834400B1 (en) * 2016-08-19 2020-11-10 Fastvdo Llc Enhancements of the AV1 video codec
JP6738972B2 (ja) * 2017-02-15 2020-08-12 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ画像のためのトーン曲線マッピング
EP3399497A1 (en) 2017-05-05 2018-11-07 Koninklijke Philips N.V. Optimizing decoded high dynamic range image saturation
US10778978B2 (en) * 2017-08-21 2020-09-15 Qualcomm Incorporated System and method of cross-component dynamic range adjustment (CC-DRA) in video coding
EP3451677A1 (en) * 2017-09-05 2019-03-06 Koninklijke Philips N.V. Graphics-safe hdr image luminance re-grading
US10856040B2 (en) * 2017-10-31 2020-12-01 Avago Technologies International Sales Pte. Limited Video rendering system
JP7074461B2 (ja) * 2017-11-22 2022-05-24 インターデジタル ヴイシー ホールディングス, インコーポレイテッド ディスプレイ適合hdr画像を再構成する方法およびデバイス
US10600163B2 (en) 2017-11-22 2020-03-24 Interdigital Vc Holdings, Inc. Method and device for reconstructing a display adapted HDR image
EP3537697A1 (en) 2018-03-06 2019-09-11 Koninklijke Philips N.V. Versatile dynamic range conversion processing
US10546554B2 (en) * 2018-03-26 2020-01-28 Dell Products, Lp System and method for adaptive tone mapping for high dynamic ratio digital images
US10917583B2 (en) * 2018-04-27 2021-02-09 Apple Inc. Standard and high dynamic range display systems and methods for high dynamic range displays
KR102805644B1 (ko) * 2018-09-18 2025-05-09 엘지전자 주식회사 영상표시장치
US11158286B2 (en) * 2018-10-05 2021-10-26 Disney Enterprises, Inc. Machine learning color science conversion
CN109274985B (zh) * 2018-10-12 2020-04-28 腾讯科技(深圳)有限公司 视频转码方法、装置、计算机设备和存储介质
EP3672254A1 (en) * 2018-12-21 2020-06-24 InterDigital VC Holdings, Inc. Decoding an image
DE112020001019T5 (de) * 2019-02-28 2021-11-18 Canon Kabushiki Kaisha Bilderfassungsvorrichtung, Verfahren zur Steuerung dieser und Programm
US10992902B2 (en) 2019-03-21 2021-04-27 Disney Enterprises, Inc. Aspect ratio conversion with machine learning
CN110021256B (zh) * 2019-04-02 2021-11-23 Oppo广东移动通信有限公司 显示亮度调整方法及相关产品
US11803948B2 (en) * 2019-04-23 2023-10-31 Dolby Laboratories Licensing Corporation Display management for high dynamic range images
US11405582B2 (en) * 2019-06-28 2022-08-02 Meta Platforms, Inc. Preprocessing of high-dynamic-range video using a hybrid lookup table scheme
EP3764346A1 (en) * 2019-07-09 2021-01-13 Koninklijke Philips N.V. Adjustment of display optimization behaviour for hdr images
US12272039B2 (en) 2019-08-15 2025-04-08 Dolby Laboratories Licensing Corporation Efficient user-defined SDR-to-HDR conversion with model templates
CN112686809B (zh) 2019-10-18 2024-11-22 华为技术有限公司 处理高动态范围图像的方法和装置
US11127124B2 (en) 2019-10-28 2021-09-21 Adobe Inc. Evenly spaced curve sampling technique for digital visual content transformation
US11961262B2 (en) * 2019-11-01 2024-04-16 Lg Electronics Inc. Signal processing apparatus and image display apparatus including same
EP3873096A1 (en) * 2020-02-25 2021-09-01 Koninklijke Philips N.V. Improved hdr color processing for saturated colors
US11082473B1 (en) * 2020-03-15 2021-08-03 Tfi Digital Media Limited Method for complexity reduction in video coding by coding parameters reuse
JP2021153236A (ja) * 2020-03-24 2021-09-30 キヤノン株式会社 表示装置および表示方法
CN113628106B (zh) * 2020-05-08 2025-01-28 华为技术有限公司 图像动态范围处理方法和装置
KR20220016713A (ko) * 2020-08-03 2022-02-10 삼성전자주식회사 조도 측정 방법 및 장치
CN115918061A (zh) 2020-08-17 2023-04-04 杜比实验室特许公司 用于高动态范围视频的图片元数据
KR102766426B1 (ko) * 2020-08-31 2025-02-12 삼성전자주식회사 고해상도 디스플레이를 위한 영상 처리 장치, 영상 처리 방법 및 이를 포함하는 어플리케이션 프로세서
CN112767508B (zh) * 2021-01-18 2023-12-26 赛诺联合医疗科技(北京)有限公司 针对呼吸门控图像的伪彩显示方法、系统、设备以及介质
KR102798484B1 (ko) * 2021-03-22 2025-04-22 삼성전자주식회사 Hdr 영상을 제공하는 방법 및 이를 지원하는 전자 장치
EP4089668A4 (en) 2021-03-22 2023-02-08 Samsung Electronics Co., Ltd. METHOD FOR PROVIDING A HIGH DYNAMIC RANGE IMAGE, AND ELECTRONIC DEVICE TO SUPPORT THE SAME
CN113112429B (zh) * 2021-04-27 2024-04-16 大连海事大学 一种用于复杂光照条件下有雾图像的通用增强框架
CN113191986B (zh) * 2021-05-28 2022-09-30 浙江大华技术股份有限公司 一种图像处理方法及装置
US11470270B1 (en) * 2021-07-28 2022-10-11 Shenzhen GOODIX Technology Co., Ltd. Staggered high-dynamic-range image capture with luminance-driven upsampling of pixel-binned image sensor array output
US12298834B2 (en) * 2021-09-23 2025-05-13 Intel Corporation Methods and apparatus to control an aggressiveness of display panel power savings and fidelity
WO2023094871A1 (en) * 2021-11-29 2023-06-01 Weta Digital Limited Increasing dynamic range of a virtual production display
US11451709B1 (en) 2021-11-29 2022-09-20 Unity Technologies Sf Increasing dynamic range of a virtual production display
EP4220539A1 (en) 2022-01-27 2023-08-02 Koninklijke Philips N.V. Automatic luminance adjustment for hdr video coding
CN115643385A (zh) * 2022-11-10 2023-01-24 北京奇艺世纪科技有限公司 视频数据处理方法、视频显示方法及装置、电子设备及可读存储介质
EP4415343A1 (en) 2023-02-08 2024-08-14 Koninklijke Philips N.V. Hdr out of gamut adjusted tone mapping
CN117711300B (zh) * 2023-06-20 2024-08-23 荣耀终端有限公司 一种图像的显示方法、电子设备、可读存储介质和芯片
CN116939255B (zh) * 2023-09-15 2023-12-01 苏州华兴源创科技股份有限公司 视频图像的显示方法、装置、存储介质
EP4542985A1 (en) 2023-10-18 2025-04-23 Koninklijke Philips N.V. Hdr range adaptation luminance and color processing
CN117809408B (zh) * 2023-10-18 2024-11-19 华能秦煤瑞金发电有限责任公司 一种可信息化管理的智能工器具柜
EP4568235A1 (en) 2023-12-06 2025-06-11 Koninklijke Philips N.V. Hdr range adaptation luminance processing on computers
EP4567783A1 (en) 2023-12-08 2025-06-11 Koninklijke Philips N.V. Image display improvement in brightened viewing environments
KR102754590B1 (ko) * 2024-01-02 2025-01-13 엘지전자 주식회사 영상표시장치
CN118631955B (zh) * 2024-05-27 2024-12-03 广州浩博百星光电有限公司 基于hdmi的数据处理方法及控制传输系统

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218625B2 (en) 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
JP5249784B2 (ja) 2006-01-23 2013-07-31 マックス−プランク−ゲゼルシャフト・ツア・フェルデルング・デア・ヴィッセンシャフテン・エー・ファオ 高ダイナミックレンジコーデック
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
CN101082992A (zh) * 2007-07-06 2007-12-05 浙江大学 实时高动态范围图像的绘制和显示方法
US8135230B2 (en) * 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US8363131B2 (en) * 2009-01-15 2013-01-29 Aptina Imaging Corporation Apparatus and method for local contrast enhanced tone mapping
KR101648762B1 (ko) * 2009-11-03 2016-08-18 한양대학교 산학협력단 입력 영상의 동적 범위를 변환하는 방법 및 장치
US8831340B2 (en) * 2010-01-27 2014-09-09 Adobe Systems Incorporated Methods and apparatus for tone mapping high dynamic range images
US20130107956A1 (en) * 2010-07-06 2013-05-02 Koninklijke Philips Electronics N.V. Generation of high dynamic range images from low dynamic range images
US8594426B2 (en) * 2011-02-04 2013-11-26 Apple Inc. Color matching using color segmentation
US11049473B2 (en) * 2011-03-24 2021-06-29 Koninklijke Philips N.V. Apparatuses and methods for analyzing image gradings
EP2697972B1 (en) * 2011-04-14 2015-01-14 Dolby Laboratories Licensing Corporation Image prediction based on primary color grading model
US8988552B2 (en) * 2011-09-26 2015-03-24 Dolby Laboratories Licensing Corporation Image formats and related methods and apparatuses
EP2603000B1 (en) * 2011-12-08 2017-11-01 Dolby Laboratories Licensing Corporation Guided prediction-filtering in layered vdr image coding
US9129445B2 (en) * 2012-03-14 2015-09-08 Dolby Laboratories Licensing Corporation Efficient tone-mapping of high-bit-depth video to low-bit-depth display
PT2880624T (pt) 2012-03-26 2019-08-26 Koninklijke Philips Nv Aparelhos e métodos baseados em região de brilho para codificação e descodificação de imagens hdr
EP2836983B1 (en) * 2012-10-08 2017-07-12 Koninklijke Philips N.V. Luminance changing image processing with color constraints
EP3022895B1 (en) * 2013-07-18 2019-03-13 Koninklijke Philips N.V. Methods and apparatuses for creating code mapping functions for encoding an hdr image, and methods and apparatuses for use of such encoded images
US9554020B2 (en) * 2013-11-13 2017-01-24 Dolby Laboratories Licensing Corporation Workflow for content creation and guided display management of EDR video
MX2017007451A (es) 2014-12-11 2017-08-10 Koninklijke Philips Nv Optimizacion de imagenes de intervalo dinamico alto para unidades de visualizacion particulares.

Also Published As

Publication number Publication date
BR112018012456A2 (pt) 2018-12-11
MX2018007486A (es) 2018-09-05
JP2019502221A (ja) 2019-01-24
MX388892B (es) 2025-03-20
CN108431886A (zh) 2018-08-21
RU2018126764A (ru) 2020-01-23
WO2017108906A1 (en) 2017-06-29
US10863201B2 (en) 2020-12-08
EP3394850B1 (en) 2020-05-13
CN108431886B (zh) 2021-07-20
PT3394850T (pt) 2020-08-14
RU2018126764A3 (es) 2020-03-23
JP6871945B2 (ja) 2021-05-19
EP3394850A1 (en) 2018-10-31
RU2721762C2 (ru) 2020-05-22
US20190052908A1 (en) 2019-02-14
ZA201804899B (en) 2020-05-27

Similar Documents

Publication Publication Date Title
ES2808177T3 (es) Optimización de imágenes de alto rango dinámico para pantallas particulares
ES2825699T3 (es) Optimización e imágenes de alto rango dinámico para pantallas particulares
JP7343629B2 (ja) Hdr画像をエンコードする方法及び装置
CN107111980B (zh) 针对特定显示器优化高动态范围图像
JP7313285B2 (ja) 復号された高ダイナミックレンジ画像の彩度を最適化すること
JP6495552B2 (ja) 画像及びビデオのためのダイナミックレンジ符号化
ES2641371T3 (es) Procesamiento de imágenes con cambio de luminancia con restricciones de color
ES2737993T3 (es) Aparatos y métodos basados en región de brillo para codificación y decodificación de imágenes HDR
CN107258078B (zh) 简单但通用的动态范围编码
US11741873B2 (en) Adjustment of display optimization behaviour for HDR images
ES2979319T3 (es) Manejo de múltiples fuentes de imágenes HDR
BR112018012456B1 (pt) Aparelho de transformação de cor, decodificador de imagem hdr e método para calcular cores resultantes
ES2728053T3 (es) Métodos y aparatos para crear funciones de mapeo de códigos para codificar una imagen HDR, y métodos y aparatos para el uso de tales imágenes codificadas
CN117321625A (zh) 显示优化的hdr视频对比度适配
BR112017002313B1 (pt) Codificador para codificar um vídeo de entrada de alto alcance dinâmico, método para codificar um vídeo de entrada de alto alcance dinâmico, decodificador de vídeo para decodificar um vídeo de alto alcance dinâmico, decodificador de vídeo para decodificar um conjunto de imagens de vídeo de alto alcance dinâmico e método de decodificação de vídeo de um conjunto de imagens de vídeo de alto alcance dinâmico
BR112018010367B1 (pt) Aparelho para combinar duas imagens ou dois vídeos de imagens, e método para combinar duas imagens ou dois vídeos de imagens