[go: up one dir, main page]

ES3030342T3 - Apparatus and method for dynamic range transforming of images - Google Patents

Apparatus and method for dynamic range transforming of images

Info

Publication number
ES3030342T3
ES3030342T3 ES24182195T ES24182195T ES3030342T3 ES 3030342 T3 ES3030342 T3 ES 3030342T3 ES 24182195 T ES24182195 T ES 24182195T ES 24182195 T ES24182195 T ES 24182195T ES 3030342 T3 ES3030342 T3 ES 3030342T3
Authority
ES
Spain
Prior art keywords
display
dynamic range
image
luminance
range transform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES24182195T
Other languages
English (en)
Inventor
Charles Knibbeler
DER VLEUTEN Renatus VAN
Haan Wiebe De
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Application granted granted Critical
Publication of ES3030342T3 publication Critical patent/ES3030342T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2003Display of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0606Manual adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0613The adjustment depending on the type of the information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/066Adjustment of display parameters for control of contrast
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/045Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial
    • G09G2370/047Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial using display data channel standard [DDC] communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Picture Signal Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

Aparatos, métodos y señales de imagen que comprenden al menos una primera imagen codificada y una primera referencia de pantalla de destino, especificando la referencia de pantalla de destino un rango dinámico de una pantalla de destino que es una pantalla para la cual la imagen codificada está optimizada y codificada; en donde la referencia de pantalla de destino comprende una luminancia de punto blanco de la pantalla de destino que es una cantidad de nits, y en donde la señal comprende datos de control de transformación de rango dinámico que comprenden diferentes parámetros de transformación de rango dinámico para diferentes niveles de luminancia máxima de pantalla. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Aparato y método para transformación de rango dinámico de imágenes
Campo de la invención
La invención se relaciona con transformadas de rango dinámico para imágenes, y en particular, pero no exclusivamente con el procesamiento de imágenes para generar imágenes de Alto Rango Dinámico a partir de imágenes de Bajo Rango Dinámico o para generar imágenes de Bajo Rango Dinámico a partir de imágenes de Alto Rango Dinámico.
Antecedentes de la invención
La codificación digital de diversas señales fuente se ha vuelto cada vez más importante en las últimas décadas a medida que la representación y comunicación de señales digitales ha reemplazado cada vez más a la representación y comunicación analógica. Se están realizando investigaciones y desarrollos continuos en cómo mejorar la calidad que se puede obtener de las imágenes y secuencias de vídeo codificadas mientras que al mismo tiempo se mantiene la tasa de datos a niveles aceptables.
Un factor importante para la calidad de imagen percibida es el rango dinámico que se puede reproducir cuando se muestra una imagen. Convencionalmente, el rango dinámico de las imágenes reproducidas ha tendido a ser reducido sustancialmente en relación con la visión normal. De hecho, los niveles de luminancia que se encuentran en el mundo real abarcan un rango dinámico tan grande como 14 órdenes de magnitud, que varía desde una noche sin luna hasta mirar directamente al sol. El rango dinámico de luminancia instantánea y la respuesta de sistema visual humano correspondiente pueden caer entre 10.000:1 y 100.000:1 en días soleados o de noche (reflejos brillantes frente a regiones de sombra oscura). Tradicionalmente, el rango dinámico de las pantallas se ha limitado a aproximadamente 2-3 órdenes de magnitud, y los sensores también tenían un rango limitado, por ejemplo < 10.000:1 dependiendo de la aceptabilidad de ruido. Consecuentemente, tradicionalmente ha sido posible almacenar y transmitir imágenes en formatos codificados en gamma de 8 bits sin introducir artefactos perceptualmente perceptibles en los dispositivos de representación tradicionales. Sin embargo, en un esfuerzo por registrar imaginería más precisa y más viva, se han desarrollado novedosos sensores de imagen de Alto Rango Dinámico (HDR) que son capaces de registrar rangos dinámicos de más de 6 órdenes de magnitud. Además, la mayoría de los efectos especiales, la mejora de gráficos por ordenador y otros trabajos de posproducción ya se realizan de manera rutinaria a mayores profundidades de bits y con rangos dinámicos más elevados.
Además, el contraste y luminancia pico de los sistemas de visualización del estado de la técnica continúan aumentando. Recientemente, se han presentado nuevos prototipos de pantallas con una luminancia pico tan alta como 3000 Cd/m2 y relaciones de contraste de 5-6 órdenes de magnitud (pantalla nativa, el entorno de visualización también afectará la relación de contraste finalmente representada, que para la visualización de televisión durante el día puede incluso caer por debajo de 50:1). Se espera que las pantallas futuras serán capaces de proporcionar rangos dinámicos aún mayores y específicamente, luminancias pico y relaciones de contraste más elevadas. Cuando se muestran señales de 8 bits codificadas tradicionalmente en tales pantallas, pueden aparecer molestos artefactos de cuantificación y recorte. Además, los formatos de vídeo tradicionales ofrecen una altura libre y precisión insuficientes para transmitir la rica información contenida en la nueva imaginería de HDR.
Como resultado, hay una creciente necesidad de nuevos enfoques que permitan a un consumidor aprovechar por completo las capacidades de los sensores y sistemas de visualización del estado de la técnica (y futuros). Preferiblemente, las representaciones de tal información adicional son compatibles con versiones anteriores de tal manera que el equipo heredado aún pueda recibir flujos de vídeo normales, mientras que los nuevos dispositivos habilitados con HDR pueden aprovechar al máximo la información adicional transmitida por el nuevo formato. De este modo, es deseable que los datos de vídeo codificados no solo representen imágenes de HDR sino que también permitan la codificación de las imágenes tradicionales de Bajo Rango Dinámico (LDR) correspondientes que se pueden mostrar en equipo convencional.
Con el fin de introducir con éxito los sistemas de HDR y explotar por completo la promesa del HDR, es importante que el enfoque adoptado proporcione tanto compatibilidad con versiones anteriores como permita la optimización o al menos la adaptación a las pantallas de HDR. Sin embargo, esto involucra inherentemente un conflicto entre la optimización para HDR y la optimización para LDR tradicional.
Por ejemplo, típicamente el contenido de imágenes, tales como videoclips, se procesará en el estudio (gradación de color y mapeo de tonos) para una apariencia óptima en una pantalla específica. Tradicionalmente, tal optimización se ha realizado para pantallas de LDR. Por ejemplo, durante la producción de una pantalla de LDR estándar, los expertos en gradación de color equilibrarán muchos aspectos de calidad de imagen para crear la 'apariencia' deseada para la historia. Esto puede involucrar equilibrar los contrastes regionales y locales, a veces incluso recortando píxeles deliberadamente. Por ejemplo, en una pantalla con un brillo pico relativamente bajo, las explosiones o destellos brillantes a menudo se recortan severamente para transmitir una impresión de alto brillo al espectador (lo mismo sucede para los detalles de sombras oscuras en pantallas con niveles de negro pobres). Esta operación típicamente se realizará asumiendo una pantalla de LDR nominal y tradicionalmente las pantallas se han desviado relativamente poco de tales pantallas de LDR nominales ya que de hecho prácticamente todas las pantallas de consumo son pantallas de LDR.
Sin embargo, si la película fuera adaptada para una pantalla de destino de HDR, el resultado sería muy diferente. De hecho, los expertos en color realizarían una optimización que daría como resultado un mapeo de código muy diferente. Por ejemplo, no solo se pueden conservar mejor los detalles de luces y sombras en las pantallas de HDR sino que también estos se pueden optimizar para tener una distribución diferente en los tonos grises medios. De este modo, una imagen de HDR óptima no se consigue mediante un simple escalamiento de una imagen de LDR mediante un valor que corresponde a la diferencia en las luminancias de punto blanco (el brillo máximo alcanzable).
Idealmente, se realizarían gradaciones de color y mapeos de tonos separados para cada rango dinámico posible de una pantalla. Por ejemplo, una secuencia de vídeo sería para una luminancia de punto blanco máxima de 500 Cd/m2, una para 1000 Cd/m2, una para 1500 Cd/m2 etc. hasta el máximo brillo posible. Una pantalla dada podría entonces simplemente seleccionar la secuencia de vídeo que corresponde a su brillo. Sin embargo, tal enfoque no es práctico ya que requiere que se genere un gran número de secuencias de vídeo lo aumentando de esa manera los recursos requeridos para generar estas diferentes secuencias de vídeo. Además, la capacidad de almacenamiento y distribución requerida aumentaría sustancialmente. También, el enfoque limitaría el nivel máximo posible de brillo de pantalla a niveles discretos proporcionando de esa manera un rendimiento subóptimo para pantallas con niveles máximos de brillo de pantalla en medio de los niveles para los cuales están siendo proporcionadas las secuencias de vídeo. Además, tal enfoque no permitirá que se exploten pantallas futuras desarrolladas con niveles de brillo máximo más altos que los de la secuencia de vídeo de nivel de brillo más alto.
Por consiguiente, se espera que solo se creará un número limitado de secuencias de vídeo en el lado de provisión de contenido, y se espera que se aplicarán conversiones automáticas de rango dinámico en puntos posteriores en la cadena de distribución a tales secuencias de vídeo con el fin de generar una secuencia de vídeo adecuada para la pantalla específica en la cual se representa la secuencia de vídeo. Sin embargo, en tales enfoques la calidad de imagen resultante es altamente dependiente de la conversión automática de rango dinámico.
Por tanto, sería ventajoso un enfoque mejorado para soportar diferentes rangos dinámicos para las imágenes, y preferiblemente para soportar imágenes de diferentes rangos dinámicos.
El documento WO 2011/107905 divulga aspectos de la generación de una imagen de salida (O) a partir de una imagen de entrada obtenida a través de una cámara (542), y la adición de datos de régimen que contienen una señal (DDO) a los datos de señal de imagen de salida (O), en donde el DDO puede especificar subrangos de luminancia en la forma de luminancia mínima (Lmín) y luminancia máxima (Lmáx) para mapear una región establecida de valores de píxeles, con el fin de anotar la intención de representación del calificador de color con respecto a la región establecida de valores de píxeles. Lmín y Lmáx se pueden especificar de manera diferente con respecto a un número de pantallas de referencia diferentes que tengan luminancias pico diferentes, por ejemplo para pantallas de 500 nits, 1500 nits y 4000 nits, permitiendo de este modo asignaciones inteligentes y personalizadas de "blancos" y "oscuros" de la imagen de salida de acuerdo con los diferentes rangos de luminancia de las pantallas de referencia.
El documento WO 2010/021705 divulga un codificador configurado para generar, a partir de un archivo de datos original (500), múltiples versiones corregidas de color dirigidas hacia diferentes modelos de referencia de pantalla.
Resumen de la invención
Por consiguiente, la Invención busca preferiblemente mitigar, aliviar o eliminar una o más de las desventajas mencionadas anteriormente de manera individual o en cualquier combinación.
La invención se establece en las reivindicaciones independientes anexas. En las reivindicaciones dependientes se establecen realizaciones opcionales de la invención.
De acuerdo con un aspecto de la invención se proporciona un aparato de procesamiento de imágenes que comprende: un receptor para recibir una señal de imagen, comprendiendo la señal de imagen al menos una primera imagen codificada y una primera referencia de pantalla de destino, siendo la primera referencia de pantalla de destino indicativa de un rango dinámico de una primera pantalla de destino para la cual se codifica la primera imagen codificada; un procesador de rango dinámico dispuesto para generar una imagen de salida aplicando una transformada de rango dinámico a la primera imagen codificada en respuesta a la primera referencia de pantalla de destino; y una salida para emitir una señal de imagen de salida que comprende la imagen de salida.
La invención puede permitir que un sistema soporte imágenes y/o visualizaciones de diferentes rangos dinámicos. En particular, el enfoque puede permitir transformadas de rango dinámico mejoradas que puedan adaptarse a las características específicas de la representación de la imagen. En muchos escenarios se puede lograr una transformada de rango dinámico mejorada de imágenes de LDR a HDR o de HDR a LDR.
En algunas realizaciones, la transformada de rango dinámico aumenta un rango dinámico de la señal de vídeo de salida en relación con la primera imagen codificada. En algunas realizaciones, la transformada de rango dinámico disminuye un rango dinámico de la señal de vídeo de salida en relación con la primera imagen codificada.
Un rango dinámico corresponde a un rango de luminancia de representación, es decir a un rango desde una salida de luz mínima hasta una salida de luz máxima para la imagen representada. De este modo, un rango dinámico no es simplemente una relación entre un valor máximo y un valor mínimo, o una medida de cuantificación (tal como un número de bits), sino que corresponde a un rango de luminancia real para una representación de una imagen. De este modo, un rango dinámico puede ser un rango de valores de luminancia, por ejemplo medidos en candelas por metro cuadrado (cd/m2) que también se denominan como nits. Un rango dinámico es de este modo el rango de luminancia desde la salida de luz (brillo) que corresponde al valor de luminancia más bajo (que a menudo se supone que es negro absoluto es decir sin salida de luz) hasta la salida de luz (brillo) que corresponde al valor de luminancia más alto. El rango dinámico puede caracterizarse específicamente por el valor de salida de luz más alto, también denominado como el punto blanco, luminancia de punto blanco, luminancia blanca o luminancia máxima. Para las imágenes de LDR y pantallas de LDR, el punto blanco típicamente es 500 nits o menos.
La señal de imagen de salida puede ser alimentada específicamente a una pantalla que tenga un rango dinámico específico, y de este modo la transformada de rango dinámico puede convertir la imagen codificada de un rango dinámico indicado por la referencia de pantalla de destino a un rango dinámico de la pantalla en la cual se representa la imagen.
La imagen puede ser una imagen de una secuencia de imágenes en movimiento, tal como por ejemplo un marco o imagen de una secuencia de vídeo. Como otro ejemplo, la imagen puede ser un fondo permanente o por ejemplo una imagen superpuesta tales como gráficos etc.
La primera imagen codificada puede ser específicamente una imagen de LDR y la imagen de salida puede ser una imagen de HDR. La primera imagen codificada puede ser específicamente una imagen de HDR y la imagen de salida puede ser una imagen de LDR.
De acuerdo con la característica de la invención, la primera referencia de pantalla de destino comprende una luminancia de punto blanco de la primera pantalla de destino.
Esto puede proporcionar una operación ventajosa en muchas realizaciones. En particular, puede permitir una baja complejidad y/o baja sobrecarga mientras se proporciona información suficiente para permitir que se realice una transformada de rango dinámico mejorada.
De acuerdo con una característica opcional de la invención, la primera referencia de pantalla de destino comprende una indicación de Función de Transferencia Electroóptica para la primera pantalla de destino.
Esto puede proporcionar una operación ventajosa en muchas realizaciones. En particular, puede permitir una baja complejidad y/o baja sobrecarga mientras proporciona información suficiente para permitir que se realice una transformada de rango dinámico mejorada. El enfoque puede en particular permitir que la transformada de rango dinámico también se adapte a características específicas por ejemplo las luminancias de rango medio. Por ejemplo, puede permitir que la transformada de rango dinámico tenga en cuenta las diferencias en la gamma de la pantalla de destino y la pantalla de usuario final.
De acuerdo con una característica opcional de la invención, la primera referencia de pantalla de destino comprende una indicación de mapeo de tonos que representa un mapeo de tonos usado para generar la primera imagen codificada para la primera pantalla de destino.
Esto puede permitir que se realice una transformada de rango dinámico mejorada en muchos escenarios y puede permitir específicamente que la transformada de rango dinámico compense características específicas del mapeo de tonos realizado en el lado de creación de contenido.
En algunos escenarios, el dispositivo de procesamiento de imágenes puede de este modo tener en cuenta tanto las características de la pantalla para la cual se ha optimizado la imagen codificada como las características del mapeo de tonos específico. Esto puede permitir por ejemplo que se tengan en cuenta decisiones subjetivas y por ejemplo artísticas del mapeo de tonos al transformar una imagen de un rango dinámico a otro.
De acuerdo con una característica de la invención, la señal de imagen comprende además un campo de datos que comprende datos de control de transformada de rango dinámico; y el procesador de rango dinámico está dispuesto además para realizar la transformada de rango dinámico en respuesta a los datos de control de transformada de rango dinámico.
Esto puede proporcionar un rendimiento y/o funcionalidad mejorados en muchos sistemas. En particular, puede permitir una adaptación localizada y direccionada a pantallas de rango dinámico específico mientras que permite que el lado de proveedor de contenido conserve algún control sobre las imágenes resultantes.
Los datos de control de transformada de rango dinámico pueden incluir datos que especifiquen características de la transformada de rango dinámico que deben y/o pueden aplicarse y/o pueden especificar características recomendadas de la transformada de rango dinámico.
De acuerdo con una característica de la invención, los datos de control de transformada de rango dinámico comprenden diferentes parámetros de transformada de rango dinámico para diferentes niveles de luminancia máxima de visualización. Los datos de control de transformada de rango dinámico son indicativos de un parámetro de una transformada de rango dinámico para la imagen codificada.
Esto puede proporcionar un control y/o adaptación mejorados en muchas realizaciones. En particular, puede permitir que el dispositivo de procesamiento de imágenes 103 seleccione y aplique datos de control apropiados para el rango dinámico específico para el que se genera la imagen de salida.
De acuerdo con una característica opcional de la invención, los datos de control de transformada de rango dinámico comprenden diferentes parámetros de mapeo de tonos para diferentes niveles de luminancia máxima de visualización, y el procesador de rango dinámico está dispuesto para determinar parámetros de mapeo de tonos para la transformada de rango dinámico en respuesta a los diferentes parámetros de mapeo de tonos y una luminancia máxima para la señal de imagen de salida.
Esto puede proporcionar un control y/o adaptación mejorados en muchas realizaciones. En particular, puede permitir que el dispositivo de procesamiento de imágenes 103 seleccione y aplique datos de control apropiados para el rango dinámico específico para el que se genera la imagen de salida. Los parámetros de mapeo de tonos pueden proporcionar específicamente parámetros que deben, pueden o son recomendados para la transformada de rango dinámico.
De acuerdo con una característica opcional de la invención, los datos de control de transformada de rango dinámico comprenden datos que definen un conjunto de parámetros de transformada que deben ser aplicados por la transformada de rango dinámico.
Esto puede permitir que el lado de proveedor de contenido conserve el control sobre las imágenes representadas en pantallas soportadas mediante el dispositivo de procesamiento de imágenes. Esto puede garantizar la homogeneidad entre diferentes situaciones de representación. El enfoque puede permitir por ejemplo que un proveedor de contenido garantice que la impresión artística de la imagen permanecerá relativamente inalterada al representarse en diferentes pantallas.
De acuerdo con una característica opcional de la invención, los datos de control de transformada de rango dinámico comprenden datos que definen límites para los parámetros de transformada que van a ser aplicados mediante la transformada de rango dinámico.
Esto puede proporcionar operaciones mejoradas y una experiencia de usuario mejorada en muchas realizaciones. En particular, puede permitir en muchos escenarios una compensación mejorada entre el deseo de un proveedor de contenido de conservar el control sobre la representación de su contenido mientras que permite que un usuario final lo personalice a sus preferencias.
De acuerdo con una característica opcional de la invención, los datos de control de transformada de rango dinámico comprenden diferentes datos de control de transformada para diferentes categorías de imágenes.
Esto puede proporcionar imágenes transformadas mejoradas en muchos escenarios. En particular puede permitir que se optimice la transformada de rango dinámico para las características individuales de las diferentes imágenes. Por ejemplo, se pueden aplicar diferentes transformadas de rango dinámico a imágenes que corresponden a la imagen principal, imágenes que corresponden a gráficos, imágenes que corresponden a un fondo etc.
De acuerdo con una característica opcional de la invención, una luminancia máxima del rango dinámico de la primera pantalla de destino no es menor que 1000 nits.
La imagen que va a ser transformada puede ser una imagen de HDR. La transformada de rango dinámico puede transformar tal imagen de HDR en otra imagen de HDR (asociada con una pantalla que tenga un rango dinámico de no menos de 1000 nits) que tenga un rango dinámico diferente. De este modo, se puede lograr una calidad de imagen mejorada convirtiendo una imagen de HDR para un rango dinámico en otra imagen de HDR para otro rango dinámico (que puede tener una luminancia de punto blanco mayor o menor).
De acuerdo con una característica opcional de la invención, la señal de imagen comprende una segunda imagen codificada y una segunda referencia de pantalla de destino, siendo la segunda referencia de pantalla de destino indicativa de un rango dinámico de una segunda pantalla de destino para la cual se codifica la segunda imagen codificada, siendo el rango dinámico de la segunda pantalla de destino diferente del rango dinámico de la primera pantalla de destino; y el procesador de rango dinámico está dispuesto para aplicar la transformada de rango dinámico a la segunda imagen codificada en respuesta a la segunda referencia de pantalla de destino.
Esto puede permitir una calidad de salida mejorada en muchos escenarios. En particular, se pueden aplicar diferentes transformaciones para la primera imagen codificada y para la segunda imagen codificada dependiendo de las diferencias de las pantallas de destino asociadas (y típicamente dependiendo de cómo cada una de estas se relaciona con el rango dinámico deseado de la imagen de salida).
De acuerdo con una característica opcional de la invención, el procesador de rango dinámico de imagen está dispuesto para generar la imagen de salida combinando la primera imagen codificada y la segunda imagen codificada.
Esto puede proporcionar una calidad de imagen mejorada en muchas realizaciones y escenarios. En algunos escenarios, la combinación puede ser una combinación de selección donde la combinación se realiza simplemente seleccionando una de las imágenes.
De acuerdo con una característica opcional de la invención, el aparato de procesamiento de imágenes comprende además: un receptor para recibir una señal de datos desde una pantalla, comprendiendo la señal de datos un campo de datos que comprende una indicación de rango dinámico de pantalla de la pantalla, comprendiendo la indicación de rango dinámico de pantalla al menos una especificación de luminancia; y el procesador de rango dinámico está dispuesto para aplicar la transformada de rango dinámico a la primera imagen codificada en respuesta a la indicación de rango dinámico de pantalla.
Esto puede permitir una representación de imagen mejorada en muchas realizaciones.
De acuerdo con una característica opcional de la invención, el procesador de rango dinámico está dispuesto para seleccionar entre generar la imagen de salida como la primera imagen codificada y generar la imagen de salida como una imagen transformada de la primera imagen codificada en respuesta a la primera referencia de pantalla de destino.
Esto puede permitir una representación de imagen mejorada en muchas realizaciones y/o puede reducir la carga computacional. Por ejemplo, si la pantalla de usuario final tiene un rango dinámico que es muy cercano a aquel para el cual se ha generado la imagen codificada, típicamente se logrará una calidad mejorada de la imagen representada si se usa directamente la imagen recibida. Sin embargo, si los rangos dinámicos son suficientemente diferentes, se consigue una calidad mejorada procesando la imagen para adaptarla al rango dinámico diferente. En algunas realizaciones, la transformada de rango dinámico puede simplemente adaptarse para conmutar entre una operación nula (usando la primera imagen codificada directamente) y la aplicación de una transformada de rango dinámico predeterminada y fija si la referencia de pantalla de destino es suficientemente diferente de la pantalla de usuario final.
De acuerdo con una característica opcional de la invención, la transformada de rango dinámico comprende una transformada de gama.
Esto puede permitir que se genere una imagen de salida mejorada en muchas realizaciones y escenarios. En particular, puede permitir una representación de color percibida mejorada y puede por ejemplo compensar los cambios en la percepción de color resultantes de cambios en el brillo de las áreas de imagen. En algunas realizaciones la transformada de rango dinámico puede consistir en una transformada de gama.
De acuerdo con una característica opcional de la invención, el aparato de procesamiento de imágenes comprende además un transmisor de datos de control para transmitir datos de control de rango dinámico a una fuente de la señal de imagen.
Esto puede permitir que la fuente adapte la señal de imagen en respuesta a los datos de control de rango dinámico. Los datos de control de rango dinámico pueden comprender específicamente una indicación de un rango dinámico preferido para la imagen y/o una indicación de un rango dinámico (por ejemplo luminancia de punto blanco y opcionalmente función de EOTF o gamma) para la pantalla de usuario final.
De acuerdo con un aspecto de la invención se proporciona un aparato fuente de señal de imagen que comprende: un receptor para recibir una imagen codificada; un generador para generar una señal de imagen que comprende la imagen codificada y una referencia de pantalla de destino indicativa de un rango dinámico de una pantalla de destino para la cual se codifica la imagen codificada; un transmisor para transmitir la señal de imagen.
De acuerdo con un aspecto de la invención se proporciona un método de procesamiento de imágenes que comprende:
recibir una señal de imagen, comprendiendo la señal de imagen al menos una primera imagen codificada y una primera referencia de pantalla de destino, siendo la primera referencia de pantalla de destino indicativa de un rango dinámico de una primera pantalla de destino para la cual se codifica la primera imagen codificada; generar una imagen de salida aplicando una transformada de rango dinámico a la primera imagen codificada en respuesta a la primera referencia de pantalla de destino; y
emitir una señal de imagen de salida que comprende la imagen de salida.
De acuerdo con un aspecto de la invención se proporciona un método para transmitir una señal de imagen, comprendiendo el método: recibir una imagen codificada; generar una señal de imagen que comprende la imagen codificada y una referencia de pantalla de destino indicativa de un rango dinámico de una pantalla de destino para la cual se codifica la imagen codificada; y transmitir la señal de imagen.
De acuerdo con un aspecto de la invención se proporciona una señal de imagen que comprende al menos una primera imagen codificada y una primera referencia de pantalla de destino, siendo la primera referencia de pantalla de destino indicativa de un rango dinámico de una primera pantalla de destino para la cual se codifica la primera imagen codificada.
Estos y otros aspectos, características y ventajas de la invención serán evidentes a partir de y se elucidarán con referencia a las realizaciones descritas de aquí en adelante.
Breve descripción de los dibujos
Se describirán realizaciones de la invención, solo a modo de ejemplo, con referencia a los dibujos, en los cuales La figura 1 es una ilustración de ejemplos de elementos de un sistema de representación de imagen de acuerdo con algunas realizaciones de la invención;
La figura 2 es una ilustración de un ejemplo de elementos de un aparato de procesamiento de imágenes; La figura 3 ilustra un ejemplo de un mapeo para un aparato de procesamiento de imágenes;
La figura 4 ilustra un ejemplo de una Función de Transferencia Electroóptica (EOTF) para una pantalla; La figura 5 ilustra un ejemplo del modelo para planos de presentación en el modo HDMV-2D del estándar Bluray™;
La figura 6 ilustra un ejemplo de procesamiento de rango dinámico para imágenes de HDR y LDR; La figura 7 ilustra un ejemplo de un mapeo para un aparato de procesamiento de imágenes;
La figura 8-10 ilustra ejemplos de imágenes con diferentes transformadas de rango dinámico cuando se presentan en la misma pantalla;
La figura 11 ilustra un ejemplo de una relación entre valores de luminancia y posibles mapeos para un aparato de procesamiento de imágenes;
La figura 12 ilustra un ejemplo de un mapeo para un aparato de procesamiento de imágenes;
La figura 13 ilustra un ejemplo de un mapeo para un aparato de procesamiento de imágenes;
La figura 14 ilustra la estructura de un flujo de gráficos de acuerdo con el estándar Blu-ray™;
La figura 15 ilustra un ejemplo del procesamiento de rango dinámico para una imagen y una imagen de gráficos superpuestos asociada;
La figura 16 ilustra un ejemplo del procesamiento de rango dinámico para una imagen y gráficos;
La figura 17 es una ilustración de un ejemplo de elementos de un aparato de procesamiento de imágenes; La figura 18 ilustra un ejemplo de un mapeo para un aparato de procesamiento de imágenes;
La figura 19 es una ilustración de un ejemplo de elementos de un aparato de procesamiento de imágenes; La figura 20 ilustra un ejemplo de un mapeo para un aparato de procesamiento de imágenes;
La figura 21 es una ilustración de un ejemplo de elementos de una pantalla de acuerdo con algunas realizaciones de la invención;
La figura 22 es una ilustración de un ejemplo de elementos de un aparato de procesamiento de imágenes; y La figura 23 ilustra esquemáticamente una generación de una imagen de 8 bits codificando una imagen de HDR por medio de un aparato de codificación.
Descripción detallada de algunas realizaciones de la invención
La figura 1 ilustra un ejemplo de una trayectoria de distribución audiovisual. En el ejemplo, un aparato proveedor de contenido 101 genera una señal de contenido audiovisual para un ítem de contenido audiovisual, tal como por ejemplo una película, un programa de televisión etc. El aparato proveedor de contenido 101 puede codificar específicamente el contenido audiovisual de acuerdo con un formato de codificación y representación de color adecuados. En particular, el aparato proveedor de contenido 101 puede codificar las imágenes de una secuencia de vídeo del ítem de contenido audiovisual de acuerdo con una representación adecuada tal como por ejemplo YCrCb. El aparato proveedor de contenido 101 puede considerarse que representa una casa de producción y distribución que crea y radiodifunde el contenido.
La señal de contenido audiovisual se distribuye luego a un dispositivo de procesamiento de imágenes 103 a través de una trayectoria de distribución 105. El dispositivo de procesamiento de imágenes 103 puede ser por ejemplo un decodificador que reside con un consumidor específico del ítem de contenido, tal como por ejemplo un Grabador de Vídeo Personal, un reproductor de Blu-ray™, un dispositivo de generación de flujo en red (por ejemplo Internet), un receptor de televisión terrestre o satelital, etc.
El contenido audiovisual se codifica y se distribuye desde el aparato proveedor de contenido 101 a través de un medio, que puede consistir por ejemplo en un medio empaquetado o en un medio de comunicación. Luego llega a un dispositivo fuente en la forma del dispositivo de procesamiento de imágenes 103 que comprende funcionalidad para decodificar y reproducir el contenido.
Se apreciará que la trayectoria de distribución 105 puede ser cualquier trayectoria de distribución y a través de cualquier medio o usando cualquier estándar de comunicación adecuado. Además, la trayectoria de distribución no necesita ser en tiempo real sino que puede incluir almacenamiento permanente o temporal. Por ejemplo, la trayectoria de distribución puede incluir el Internet, radiodifusión satelital, por cable o terrestre, una red de comunicación móvil o fija etc., o almacenamiento en medios distribuidos físicamente tales como DVD o Blu-ray Disc™ o una tarjeta de memoria etc.
El dispositivo de procesamiento de imágenes 103 está acoplado a una pantalla 107 a través de una trayectoria de comunicación 109. El dispositivo de procesamiento de imágenes 103 genera una señal de visualización que representa el ítem de contenido audiovisual. De este modo, el dispositivo fuente genera en flujo el contenido decodificado a un dispositivo colector, que puede ser un televisor u otro dispositivo que convierte las señales digitales en una representación física.
El dispositivo de procesamiento de imágenes 103 puede realizar por ejemplo algoritmos de mejora de imágenes o de procesamiento de señales en los datos y puede decodificar y recodificar específicamente la señal audiovisual (procesada). La recodificación puede ser específicamente a un formato de codificación o representación diferente al de la señal recibida.
El sistema de la figura 1 está dispuesto en algunas realizaciones para proporcionar información de vídeo de Alto Rango Dinámico (HDR) a la pantalla 107 y en otras realizaciones o escenarios está dispuesto para proporcionar una imagen de Bajo Rango Dinámico (LDR) a la pantalla 107. Además, con el fin de proporcionar por ejemplo una compatibilidad con versiones anteriores mejorada, puede en algunos escenarios ser capaz de proporcionar tanto una imagen de LDR como una de HDR dependiendo de la pantalla en la cual se muestre. Específicamente, el sistema es capaz de comunicar/distribuir señales de imagen relacionadas tanto con imágenes de LDR como de HDR.
Las pantallas convencionales típicamente usan una representación de LDR. Típicamente tales representaciones de LDR se proporcionan mediante una representación de 8 bits de tres componentes relacionada con colores primarios especificados. Por ejemplo, una representación de color RGB puede proporcionarse mediante tres muestras de 8 bits referenciadas a un primario Rojo, Verde y Azul respectivamente. Otra representación usa un componente de luma y dos componentes de croma (tal como YCrCb). Estas representaciones de LDR corresponden a un rango de brillo o luminancia dado.
HDR permite específicamente que se presenten imágenes (o áreas de imagen) significativamente más brillantes de manera apropiada en pantallas de HDR. De hecho, una imagen de HDR mostrada en una pantalla de HDR puede proporcionar un blanco sustancialmente más brillante que el que se puede proporcionar por la imagen de LDR correspondiente presentada en una pantalla de LDR. De hecho, una pantalla de HDR puede permitir típicamente un blanco al menos cuatro veces más brillante que una pantalla de LDR. El brillo puede medirse específicamente en relación con el negro más oscuro que se pueda representar o puede medirse en relación con un nivel de gris o negro dado.
La imagen de LDR puede corresponder específicamente a parámetros de visualización específicos, tal como una resolución de bits fija relacionada con un conjunto específico de colores primarios y/o un punto blanco específico. Por ejemplo, se pueden proporcionar 8 bits para un conjunto dado de colores primarios RGB y por ejemplo un punto blanco de 500 Cd/m2. La imagen de HDR es una imagen que incluye datos que deben representarse por encima de estas restricciones. En particular, un brillo puede ser más de cuatro veces más brillante que el punto blanco (por ejemplo 2000 Cd/m2) o más.
Los valores de píxeles de alto rango dinámico tienen un rango de contraste de luminancia (luminancia más brillante en el conjunto de píxeles dividida por la luminancia más oscura) que es (mucho) más grande que un rango que se puede mostrar fielmente en las pantallas estandarizadas en la era NTSC y MPEG-2 (con sus colores primarios RGB típicos y un blanco D65 con un nivel de conducción máximo [255, 255, 255] un brillo de referencia de por ejemplo 500 nit o por debajo). Típicamente, para tal pantalla de referencia son suficientes 8 bits para mostrar todos los valores de gris entre aproximadamente 500 nit y aproximadamente 0.5 nit (es decir con un rango de contraste de 1000:1 o inferior) en etapas visualmente pequeñas, mientras que las imágenes de HDR se codifican con una palabra de bits más alta, por ejemplo 10 bits (que también se captura mediante una cámara con una mayor profundidad de pozo y DAC, por ejemplo 14 bits). En particular, las imágenes de HDR típicamente contienen muchos valores de píxeles (de objetos de imagen brillantes) por encima de un blanco de escena. En particular, varios píxeles son más brillantes que el doble de un blanco de escena. Este blanco de escena típicamente puede equipararse al blanco de la pantalla de referencia NTSC/MPEG-2.
El número de bits usados para las imágenes de HDR X puede ser típicamente mayor que o igual al número de bits Y usados para las imágenes de LDR (X puede ser típicamente por ejemplo 10 o 12, o 14 bits (por canal de color si se usan varios de los canales), y Y puede ser por ejemplo 8 o 10 bits). Una transformación/mapeo puede requerirse para ajustar los píxeles en un rango más pequeño, por ejemplo un escalamiento compresivo. Típicamente, puede estar involucrada una transformación no lineal, por ejemplo una codificación logarítmica puede codificar (como lumas) un rango de luminancia mucho más grande en una palabra de X bits que una codificación lineal, aunque las etapas de diferencia de luminancia de un valor al siguiente no sean entonces equidistantes, pero tampoco se requiere que sean así para el sistema visual humano.
Debe anotarse que la diferencia entre las imágenes de LDR y HDR no es simplemente que se usa un mayor número de bits para las imágenes de HDR que para las imágenes de LDR. Más bien, las imágenes de HDR cubren un rango de luminancia mayor que las imágenes de LDR y típicamente tienen un valor de luminancia máxima más alto, es decir un punto blanco más alto. De hecho, mientras que las imágenes de LDR tienen un punto de luminancia máxima (blanco) que corresponde a no más de 500 nits, las imágenes de HDR tienen un punto de luminancia máxima (blanco) que corresponde a más de 500 nits, y a menudo no menos de 1000 nits, 2000 nits o incluso 4000 nits o más. De este modo, una imagen de HDR no simplemente usa más bits que corresponden a una mayor granularidad o cuantificación mejorada sino que más bien corresponde a un rango de luminancia real mayor. De este modo, el valor de píxel más brillante posible generalmente corresponde a una luminancia/salida de luz que es mayor para una imagen de HDR que para una imagen de LDR. De hecho, las imágenes de HDR y LDR pueden usar el mismo número de bits pero con los valores de imagen de HDR siendo referenciados a un rango dinámico de luminancia mayor/luminancia máxima más brillante que los valores de imagen de LDR (y de este modo con las imágenes de HDR estando representadas con una cuantificación más gruesa en una escala de luminancia).
Idealmente, el contenido proporcionado por el aparato proveedor de contenido 101 se capturará y codificará con referencia a un rango de luminancia que coincida con el rango de luminancia de la pantalla 107. Sin embargo, en sistemas prácticos el contenido puede representarse en muchas pantallas diferentes con muchas características diferentes, y/o puede codificarse de acuerdo con estándares que se basan en rangos de luminancia que difieren del rango de luminancia de la pantalla específica 107. Además, el contenido puede no capturarse originalmente mediante un dispositivo de captura o un enfoque que coincida exactamente con el rango de luminancia de la pantalla.
Por consiguiente, el soporte de HDR en un sistema de contenido típicamente requiere alguna transformación o conversión entre diferentes rangos de luminancia. Por ejemplo, si se recibe una imagen de LDR y se debe presentar en una pantalla de HDR, se debe realizar una conversión de LDR a HDR. Si se recibe una imagen de HDR y se debe presentar en una pantalla de LDR, se debe realizar una conversión de HDR a LDR. Tales conversiones típicamente son bastante complejas y no equivalen simplemente a un escalamiento simple de los rangos de luminancia ya que tal escalamiento daría como resultado una imagen que se percibiría como de aspecto de manera poco natural. Típicamente se usan transformaciones bastante complejas y a estas transformaciones a menudo se las denomina usando el término mapeo de tonos.
En principio, tales transformaciones de luminancia podrían realizarse en tres lugares diferentes en el sistema de distribución de contenido.
Una opción es realizarlo en el aparato proveedor de contenido 101. Típicamente, esto puede permitir que la misma operación de transformación de luminancia se distribuya a múltiples pantallas permitiendo de esa manera que una única transformación sea usada por muchos usuarios. Esto puede permitir y justificar que se realice un mapeo de tonos complejo, manual y que demanda muchos recursos, por ejemplo por expertos en mapeo de tonos cualificados. De hecho, esto puede proporcionar una imagen subjetivamente optimizada para un rango de luminancia dado, a menudo denominado como un mapeo de tonos artístico. Sin embargo, tal enfoque es muy demandante en recursos y no es viable para aplicación a muchas pantallas. Además, se requiere un flujo de imágenes separado para cada rango de luminancia soportado dando como resultado que se necesite un recurso de comunicación muy alto lo cual es poco práctico para muchos sistemas.
Otra opción es realizar la transformada de luminancia en el dispositivo de procesamiento de imágenes 103. Sin embargo, como el usuario general no es experto en transformadas de luminancia y dado que el esfuerzo requerido hace que no sea práctico realizar una adaptación manual (especialmente para imágenes en movimiento, tales como videoclips, películas etc.), la transformación debería ser preferiblemente automática. Sin embargo, tales transformadas convencionalmente no son capaces de proporcionar imágenes óptimas. En particular, la transformada óptima puede depender del tipo específico de contenido y las características previstas de la imagen (por ejemplo diferentes transformadas pueden ser apropiadas para una escena que se pretende que sea oscura y amenazante y una escena que simplemente se pretende que sea oscura para indicar una escena nocturna). Además, el creador de contenido puede estar preocupado por el impacto potencial de tales transformadas automáticas y puede ser reacio a perder el control sobre cómo se puede presentar el contenido en diferentes escenarios. También, la transformación óptima típicamente dependerá de las características exactas de la pantalla 107 y una transformación basada en una pantalla supuesta, nominal o estándar típicamente dará como resultado transformadas subóptimas.
La transformada posiblemente también se puede realizar en la pantalla 107.
En el sistema de la figura 1, el dispositivo de procesamiento de imágenes 103 comprende una funcionalidad para realizar una transformada de rango dinámico de luminancia en una imagen (o conjunto de imágenes, tal como por ejemplo una secuencia de vídeo) recibida desde el dispositivo de procesamiento de contenido 103 con el fin de aumentar el rango dinámico de la misma. En particular, el dispositivo de procesamiento de imágenes 103 recibe una imagen del aparato proveedor de contenido 101 que luego procesa la imagen para generar una imagen de mayor rango dinámico. Específicamente, la imagen recibida puede ser una imagen de LDR que se convierte en una imagen de HDR aplicando la transformada de rango dinámico de luminancia para aumentar el rango dinámico. La imagen transformada se puede luego emitir a la pantalla 107 que es una pantalla de HDR dando como resultado de esa manera la imagen de LDR recibida originalmente que se convierte en una imagen de HDR representada. Una transformada de rango dinámico puede mapear valores de luminancia de (al menos parte) de una imagen de entrada asociada con un rango dinámico a valores de luminancia de (al menos parte) de una imagen de salida asociada con un rango dinámico diferente.
En otro escenario, el dispositivo de procesamiento de imágenes 103 puede recibir una imagen del aparato proveedor de contenido 101 y luego procesar la imagen para generar una imagen de rango dinámico más bajo. Específicamente, la imagen recibida puede ser una imagen de HDR que se convierte en una imagen de<l>D<r>aplicando la transformada de rango dinámico de luminancia para disminuir el rango dinámico. La imagen transformada se puede luego emitir a la pantalla 107 que es una pantalla de LDR dando como resultado de esa manera que la imagen de HDR recibida originalmente se convierta en una imagen de LDR representada.
En el sistema de la figura 1, la transformada de rango dinámico se adapta en dependencia de la información recibida desde el aparato proveedor de contenido 101 y/o la pantalla 107. De este modo, en el sistema, la transformada de rango dinámico no es simplemente una operación realizada localmente en el dispositivo de procesamiento de imágenes 103 sino que también puede ser dependiente de características, propiedades o información del aparato proveedor de contenido 101 y/o de la pantalla 107.
En primer lugar, se describirá el sistema de la figura 1 con referencia a una situación donde la transformada de rango dinámico se basa en información proporcionada al dispositivo de procesamiento de imágenes 103 desde el aparato proveedor de contenido 101.
La figura 2 ilustra un ejemplo de elementos del dispositivo de procesamiento de imágenes 103 de la figura 1.
El dispositivo de procesamiento de imágenes 103 comprende un receptor 201 que recibe una señal de imagen del aparato proveedor de contenido 101. La señal de imagen comprende una o más imágenes codificadas. En muchos escenarios la señal de imagen puede ser una señal de vídeo que comprende una secuencia de vídeo codificada, es decir una secuencia de imágenes. Se apreciará que se puede usar cualquier codificación adecuada de las imágenes incluyendo por ejemplo codificación de imágenes de JPEG, codificación de vídeo de MPEG, etc. La imagen codificada está representada por valores de píxeles que para cada píxel de la imagen representan la salida de luz correspondiente para el píxel (o para el subpíxel de canal de color individual). Los valores de píxeles se pueden proporcionar de acuerdo con cualquier representación de color adecuada tal como por ejemplo RGB, YUV etc.
La señal de imagen comprende además una referencia de pantalla de destino que es indicativa de un rango dinámico de una pantalla de destino para la cual se codifica la primera imagen codificada. De este modo, la referencia de pantalla de destino proporciona una referencia para la imagen codificada que refleja el rango dinámico para el cual se ha construido la imagen recibida. La referencia de pantalla de destino puede indicar las luminancias para las cuales se ha diseñado y optimizado específicamente el mapeo de tonos en el aparato proveedor de contenido 101.
El aparato proveedor de contenido 101 está de este modo dispuesto para generar una señal de imagen que no solo incluye la propia imagen codificada sino también una referencia de pantalla de destino que representa el rango dinámico de la pantalla para la cual se ha generado la señal codificada. El aparato proveedor de contenido 101 puede recibir específicamente la imagen codificada de una fuente interna o externa. Por ejemplo, la imagen puede proporcionarse como resultado de una gradación de tono manual que optimiza la imagen codificada para una pantalla específica. Además, el aparato proveedor de contenido 101 puede obtener información de la pantalla específica que se ha usado para la optimización, por ejemplo a través de información de pantalla que se ha comunicado automáticamente al aparato proveedor de contenido 101 desde la pantalla (por ejemplo el aparato proveedor de contenido 101 también puede incluir la funcionalidad requerida para soportar el mapeo de tonos manual y puede estar conectado a la pantalla de destino/referencia usada para este mapeo de tonos). Como otro ejemplo, la imagen mapeada en tonos codificada puede recibirse en un medio en el cual también se almacenan las propiedades de la pantalla asociada. Como aún otro ejemplo, el aparato proveedor de contenido 101 puede recibir información de una característica de la pantalla de destino mediante una entrada de usuario manual.
El aparato proveedor de contenido 101 puede en respuesta a tal información generar una señal de imagen que comprende tanto las imágenes codificadas como la referencia de pantalla de destino que indica un rango dinámico de la pantalla de destino que fue usado para el mapeo de tonos. Por ejemplo, un valor de datos que corresponde a una identificación de una luminancia de punto blanco y opcionalmente una Función de Transferencia Electroóptica que corresponde a la de la pantalla de destino puede incluirse en la señal de imagen por el aparato proveedor de contenido 101.
El dispositivo de procesamiento de imágenes 103 comprende además un procesador de rango dinámico 203 que aplica la transformada de rango dinámico a la imagen codificada recibida con el fin de generar una imagen de salida con un rango dinámico más alto, es decir que corresponde a un rango mayor de luminancias de salida cuando se representa la imagen. Específicamente, la imagen codificada de entrada puede ser una imagen que se codifica para una pantalla de LDR con un punto blanco de luminancia máxima de 500 nits y esta puede transformarse en una imagen de salida de HDR con un punto blanco de luminancia máxima de por ejemplo 1000 o 2000 nits. Típicamente, la transformada de rango dinámico también puede aumentar el número de bits usados para representar cada valor pero se apreciará que esto no es esencial y que en algunas realizaciones se puede usar el mismo número de bits (o de hecho incluso menos bits) para la imagen de salida que para la imagen de entrada. Como otro ejemplo, la imagen codificada de entrada puede ser una imagen que se codifica para una pantalla de HDR con una luminancia de punto blanco máxima de 2000 nits y esta puede transformarse en una imagen de salida de LDR con una luminancia de punto blanco máxima de por ejemplo 500 nits. Tal transformada de reducción de rango dinámico también puede incluir una reducción en el número de bits usados para los valores de píxeles.
La transformada de rango dinámico se realiza en respuesta a la referencia de pantalla de destino y de este modo puede adaptarse para tener en cuenta no solo el rango de luminancia de salida deseado sino también el rango de luminancia para el cual se ha codificado la imagen recibida. Por ejemplo, el sistema puede adaptar la transformada de rango dinámico de tal manera que una transformada para generar una imagen de salida para 1000 nits será diferente dependiendo de si la imagen de entrada se genera para una imagen de 300 nits o 500 nits. Esto puede dar como resultado una imagen de salida sustancialmente mejorada.
De hecho, en algunas realizaciones la imagen de entrada puede ser en sí misma una imagen de HDR, tal como por ejemplo una imagen de 1000 nits. La transformación óptima de tal imagen en respectivamente una imagen de 2000 nits y una imagen de 5000 nits típicamente será diferente y la provisión de una referencia de pantalla de destino puede permitir que el dispositivo de procesamiento de imágenes 103 optimice la transformada de rango dinámico para la situación específica, proporcionando de esa manera una imagen sustancialmente mejorada para las características de pantalla específica. De hecho, si la pantalla es una pantalla de 500 nits, la transformada de rango dinámico debería realizar una compresión de rango dinámico en lugar de una expansión.
Estos enfoques pueden ser particularmente ventajosos en sistemas de distribución de contenidos no homogéneos tal como por ejemplo el que se percibe cada vez más como futuro sistema de televisión. De hecho, el brillo (pico) de los televisores de LCD/LED de HDR está actualmente aumentando rápidamente y en el futuro cercano, se espera que coexistan en el mercado pantallas con una amplia variedad de brillo (pico). Las imágenes más brillantes se ven mejor en la pantalla de televisor y un televisor más brillante se vende mejor en la tienda. Por otro lado, las pantallas de "baja calidad" en portátiles, tabletas y teléfonos inteligentes también se están volviendo muy populares y también se usan para la representación por ejemplo de contenido de televisión.
Dado que el brillo de pantalla (y típicamente la función de transferencia electroóptica que especifica cómo una pantalla convierte los valores de accionamiento de píxeles de entrada (color) en valores de luz que luego proporcionan una impresión psicovisual particular al espectador) ya no se conoce en el lado de generación de contenido (y que además generalmente es diferente del monitor de referencia para el cual fue previsto/calificado el contenido), se vuelve un desafío proporcionar la mejor/óptima calidad de imagen en la pantalla. Además, aunque pueden haber existido algunas variaciones en el brillo de pantalla en el pasado, esta variación era relativamente menor y la suposición de un brillo fijo conocido no introducía degradaciones significativas (y a menudo podía ser compensada manualmente por un usuario, por ejemplo configurando el brillo y/o el contraste de una pantalla).
Sin embargo, debido al aumento sustancial en la variedad de pantallas (teléfonos inteligentes, tabletas, ordenadores portátiles, monitores de PC, pantallas CRT, pantallas de TV de LCD tradicionales y pantallas de HDR brillantes), las características (especialmente brillo y contraste) de las pantallas usadas para representar exhiben una enorme variación. Por ejemplo, el contraste y luminancia pico de los sistemas de visualización de calidad superior del estado de la técnica está aumentando continuamente y se han desarrollado nuevos prototipos de pantallas con una luminancia pico tan alta como 5000 cd/m2 y relaciones de contraste de 5-6 órdenes de magnitud. Por otro lado, las pantallas que se usan, por ejemplo en teléfonos inteligentes y tabletas, son cada vez más populares pero tienen características de rendimiento relativamente bajas.
Como se mencionó previamente, el contenido, tal como vídeo para películas etc., se procesa en el lado de creación de contenido para proporcionar las imágenes representadas deseadas. Por ejemplo, cuando una película se emite para distribución general (tal como mediante DVD o Blu-ray™), los productores/estudios típicamente adaptan y personalizan las imágenes para una apariencia óptima en una pantalla específica. Tal proceso a menudo se denomina como gradación de color y mapeo de tonos. El mapeo de tonos puede considerarse como un mapeo no lineal de un valor de luma de un píxel de entrada al valor de luma de un píxel de salida. El mapeo de tonos se realiza con el fin de hacer coincidir el vídeo con las características de la pantalla, condiciones de visualización y preferencias subjetivas. En el caso del mapeo de tonos local, el procesamiento varía dependiendo de la posición del píxel dentro de una imagen. En el caso del mapeo de tonos global, se aplica el mismo procesamiento a todos los píxeles.
Por ejemplo, al convertir contenido para que sea adecuado para distribución general al consumidor, a menudo se realiza un mapeo de tonos para proporcionar una salida deseada en una pantalla de LDR estándar. Esto se puede realizar manualmente por expertos en gradación de color que equilibran muchos aspectos de calidad de imagen para crear el 'aspecto' deseado para la historia. Esto puede involucrar equilibrar los contrastes regionales y locales, a veces incluso recortando píxeles deliberadamente. De este modo, típicamente el mapeo de tonos en esta etapa no es simplemente una conversión automatizada simple sino que típicamente es una conversión manual, subjetiva y a menudo artística.
Si el contenido fuera calificado para una pantalla de destino de HDR en lugar de para una pantalla de destino de LDR, el resultado del mapeo de tonos típicamente sería muy diferente. De este modo, al simplemente representar el contenido de vídeo codificado para una pantalla de LDR en una pantalla de HDR, las imágenes resultantes diferirán sustancialmente de la imagen óptima. De manera similar, si una imagen optimizada de HDR simplemente se representa en una pantalla de LDR, puede producirse una reducción significativa de calidad de imagen percibida.
Esta cuestión se aborda en el sistema de la figura 1 mediante la transformada de rango dinámico que se realiza en el dispositivo de procesamiento de imágenes 103 pero que se basa en información recibida preferiblemente tanto del aparato proveedor de contenido 101 como de la pantalla 107. De esta forma, la transformada de rango dinámico (específicamente un algoritmo de mapeo de tonos) se puede adaptar para considerar las características del mapeo de tonos que fue realizado en el aparato proveedor de contenido 101 y el rango de luminancia específico de la pantalla 107. Específicamente, el mapeo de tonos realizado en el dispositivo de procesamiento de imágenes 103 puede ser dependiente de la pantalla de destino para la cual se realiza el mapeo de tonos en el lado de generación de contenido.
El aparato proveedor de contenido 101 proporciona una referencia de pantalla de destino al dispositivo de procesamiento de imágenes 103 (ya sea por separado a o integrado con la imagen codificada, es decir la señal de imagen puede estar compuesta de dos comunicaciones de datos separadas). La referencia de pantalla de destino puede incluir o ser específicamente una luminancia de punto blanco de la pantalla de destino.
Para un sistema de complejidad relativamente baja de acuerdo con la invención como se reivindica, el aparato proveedor de contenido 101 transmite una indicación de la luminancia de punto blanco de la pantalla de destino para cada una de la imagen codificada (vídeo) que se ha codificado. Se comunican datos que indican el número de nits disponibles en la pantalla de destino. La transformada de rango dinámico adapta la transformación con base en el número de nits. Por ejemplo, si el dispositivo de procesamiento de imágenes 103 está realizando una transformada de rango dinámico para generar una imagen de salida para una pantalla de 2000 nits, el conocimiento de si la imagen de entrada está mapeada en tonos a una pantalla de 500 nits o a una de 1000 bits se puede usar para optimizar la transformada de rango dinámico realizada en el dispositivo de procesamiento de imágenes 103. En ambos escenarios, la transformada de rango dinámico puede aplicar una transformada no lineal pero esta transformada no lineal tiene características diferentes para los dos escenarios, es decir depende del punto blanco de la pantalla de destino usada para el mapeo de tonos en el lado de provisión de contenido.
Por ejemplo, se puede realizar el siguiente mapeo entre los píxeles de imagen de LDR recibida mapeados en tonos para una pantalla de destino de 500 nits y los píxeles de imagen de HDR de salida para una pantalla de usuario final de 2000 nits:
0-200 nits ^ 0-200 nits
200- 300 nits ^ 200-600 nits
300- 400 nits ^ 600-1000 nits
400- 500 nits ^ 1000-2000 nits
Sin embargo, para una pantalla de destino de 1000 nits, se puede en cambio realizar el siguiente mapeo:
0-200 nits ^ 0-200 nits
200- 700 nits ^ 200-1000 nits
700- 1000 nits ^ 1000-2000 nits
De este modo, en términos de valores relativos (porcentaje de mapeo completo), los dos mapeos diferentes pueden ser como se muestra en la figura 3 donde la relación entre el porcentaje de nivel de blanco para la imagen de entrada en el eje x en relación con el porcentaje de nivel de blanco para la imagen de salida en el eje y se muestra respectivamente para una pantalla de destino de 500 nits 301 y una pantalla de destino de 1000 nits. En el ejemplo, se aplican dos mapeos de tonos no lineales muy diferentes para la misma pantalla de usuario dependiendo de la pantalla de referencia de destino que se fue usada/supuesta en el lado de provisión de contenido.
Se apreciará que los mismos mapeos se pueden usar para mapear desde una imagen optimizada de 2000 nits a una imagen optimizada de 500 o 1000 nits intercambiando los ejes (que corresponde a aplicar un mapeo inverso del descrito anteriormente). También se apreciará que el mapeo a por ejemplo una imagen optimizada de 500 nits se puede adaptar dependiendo de si la imagen de entrada es una imagen optimizada de 1000, 2000 o 4000 nits.
En algunas realizaciones, la referencia de pantalla de destino puede comprender alternativa o adicionalmente una indicación de Función de Transferencia Electroóptica para la pantalla de destino. Por ejemplo, se puede incluir una indicación gamma para la pantalla de destino.
La Función de Transferencia Electroóptica (EOTF) de una pantalla describe la relación entre el valor de luma de entrada (accionamiento) (Y') y la luminancia de salida (Y) de la pantalla. Esta función de conversión depende de muchas características de la pantalla. También, las configuraciones de usuario como el brillo y contraste pueden tener una gran influencia en esta función. La figura 4 ilustra un ejemplo típico de una EOTF para un valor de entrada de 8 bits (nivel 256).
La comunicación de una EOTF de la pantalla de destino puede proporcionar una caracterización ventajosa de la pantalla de destino o referencia usada para generar la imagen o vídeo codificado. Esta caracterización se puede usar luego en el dispositivo de procesamiento de imágenes 103 para adaptar la transformada de rango dinámico a las diferencias entre las características de la pantalla de destino y la pantalla de usuario final. Por ejemplo, la transformada de rango dinámico puede incluir una compensación que invierte una relación entre las EOTF de la pantalla de destino/referencia y la pantalla de usuario final.
Se apreciará que hay muchas formas de caracterizar una EOTF. Una posibilidad es proporcionar un conjunto de valores de muestra de la EOTF. El dispositivo de procesamiento de imágenes 103 puede luego interpolar entre los puntos de muestra, por ejemplo usando una interpolación lineal simple. Otra posibilidad es proporcionar un modelo específico de comportamiento de escala de grises/contraste de la pantalla al menos en una parte del rango de visualización. Como otro ejemplo, el aparato proveedor de contenido 101 puede comunicar una función matemática específica que caracteriza la EOTF. En algunos escenarios, se puede predefinir un conjunto de pantallas de destino con los parámetros asociados del modelo/función que se almacenan localmente en el dispositivo de procesamiento de imágenes 103. En ese caso, el aparato proveedor de contenido 101 solo puede comunicar el código de identificación de la pantalla de destino al dispositivo de procesamiento de imágenes 103.
Como aún otro ejemplo, una función matemática subyacente puede estar predeterminada y la indicación de pantalla de destino puede comprender parámetros para adaptar la función predeterminada para describir la EOTF de pantalla de destino específica. Por ejemplo, la EOTF puede caracterizarse por una función gamma como se usa para pantallas convencionales, y la indicación de pantalla de destino puede proporcionar una gamma específica para la pantalla de destino.
En muchos sistemas, la indicación de la pantalla de destino puede comprender o consistir en una luminancia máxima y una gamma de la pantalla de destino. De este modo, específicamente, la caracterización de la EOTF puede proporcionarse mediante dos valores, a saber la gamma y el punto blanco/luminancia máxima. Las siguientes descripciones se centrarán en tal escenario.
La descripción también se centrará en realizaciones en donde el sistema de distribución es de acuerdo con el estándar Blu-ray™. Blu-ray™ es una familia de formatos de distribución de Audio/Vídeo/Datos basados en la tecnología de discos ópticos. BD-ROM™ es el acrónimo para formato de Solo Lectura en Disco Blu-ray). Este formato se usa predominantemente para la distribución de vídeo de alta definición (2D y 3D) y audio de alta calidad.
Un reproductor de BD-ROM™ presenta dos modos de operación: HDMV y BD-J. En cualquier punto en el tiempo el reproductor está ya sea en modo HDMV o en modo BD-J. Los reproductores de Blu-ray™ de perfil 5 presentan representación de Vídeo/Gráficos estereoscópicos 3D junto con la representación de Vídeo/Gráficos 2D estándar. Como ejemplo, la figura 5 muestra el modelo para planos de presentación en el modo HDMV-2D.
Como ejemplo específico del sistema de la figura 1, la señal de imagen puede ser una señal de vídeo codificada en una BDROM™ y de este modo el dispositivo de procesamiento de imágenes 103 puede ser específicamente un reproductor de Blu-ray™. El vídeo codificado puede ser el contenido de vídeo principal u opcionalmente el secundario en el disco. El vídeo principal típicamente es la película real en formato estereoscópico 2D o posiblemente 3D.
Con el fin de lograr una calidad de imagen óptima en el sistema de BDROM™, el sistema de la figura 1 usa una ampliación de la especificación de BDROM™ que permite la transmisión de unos parámetros de pantalla de destino. Estos datos junto con la información supuesta o real de la pantalla de usuario final, son luego usados por el reproductor de BDROM™ para realizar la transformada de rango dinámico. Específicamente, el reproductor de BDROM™ (el dispositivo de procesamiento de imágenes 103) puede realizar un mapeo de tonos de vídeo adicional u otro procesamiento dependiendo de las características de la pantalla de destino y/o la pantalla de usuario final.
Una opción para transmitir información sobre los parámetros de la pantalla de destino es al incorporar datos indicativos de estos valores de parámetros en los datos de BDROM™ en el disco. Para esto se puede usar una estructura de datos de extensión en el archivo de lista de reproducción (xxxxx.mpls). Esta estructura de datos de extensión tendrá una identificación única y nueva. Los reproductores de BDROM™ heredados incompatibles no conocerán esta nueva estructura de datos y simplemente la ignorarán. Esto garantizará la compatibilidad con versiones anteriores. A continuación se muestra una posible implementación de la sintaxis y la semántica de tal Target_Display_descriptor.
En este ejemplo, Abs_Max_Luminance es un parámetro con un valor por ejemplo entre 0 y 255 que indica la luminancia/punto blanco máximo Absoluto de la pantalla de destino de acuerdo con:
Luminancia máxima absoluta en cd/m2 = Abs_Max_Luminance [bit0-4] * io Abs_Max_Luminance tbit5-7]
Se apreciará que por supuesto se pueden usar otras cantidades de bits para mantisa o exponente.
Gamma es un parámetro con un valor por ejemplo entre 0 y 255 que indica la gamma de la pantalla de destino de acuerdo con:
Gamma de la EOTF de Pantalla de Destino = Gamma/25.
De este modo, en este ejemplo una referencia de pantalla de destino se proporciona al dispositivo de procesamiento de imágenes 103 por la BDROM™ que incluye una luminancia máxima absoluta y un valor gamma para la pantalla de destino para la cual se ha generado la señal de vídeo. Luego el dispositivo de procesamiento de imágenes 103 usa esta información cuando realiza una transformada automática de rango dinámico para aumentar o disminuir el rango dinámico de la señal de vídeo para una pantalla de usuario final de luminancia más alta/más baja.
Se apreciará que son posibles muchas transformadas de rango dinámico diferentes y que se pueden usar muchas formas diferentes de adaptar tales transformadas de rango dinámico con base en las referencias de pantalla de destino. A continuación, se proporcionan diversos ejemplos pero se apreciará que se pueden usar otros enfoques en otras realizaciones.
En primer lugar, la diferencia en el mapeo óptimo de una imagen original dada a una imagen de LDR y una de HDR respectivamente se puede ilustrar mediante la figura 6 que muestra un ejemplo del mapeo de tonos diferente que se puede usar para una pantalla de LDR (parte inferior de la figura) y una pantalla de HDR (parte superior de la figura). La imagen original es la misma tanto para LDR como para HDR. El histograma de esta imagen se muestra a la izquierda de la figura 6. Muestra que la mayoría de los píxeles tienen valores de luma en el rango medio bajo. El histograma también muestra un segundo pico pequeño en valores de luma altos (por ejemplo los faros de un coche o de una linterna).
En este ejemplo, el mapeo de tonos se representa mediante tres etapas de procesamiento sucesivas:
Recorte: Mapeo de valores de luma en el rango bajo y alto a un número limitado de valores de luma de salida.
Expansión: Adaptación del rango dinámico al rango dinámico de luma deseado.
Brillo: Adaptación del nivel de luminancia promedio para un brillo óptimo.
En el caso de LDR, el rango de luma se mapea a un rango de luminancia de una pantalla de LDR. El rango dinámico de la imagen original es mucho mayor y de este modo la imagen original está severamente recortada con el fin de adaptarse al rango dinámico limitado de la pantalla.
En el caso de HDR (parte superior de la figura) el recorte puede ser menos severo debido a que el rango dinámico de la pantalla es un orden de magnitud mayor que en la pantalla de LDR.
La figura 6 muestra el histograma después de cada etapa de procesamiento así como el histograma de la imagen mostrada en la pantalla de LDR y HDR respectivamente. En particular, los histogramas más a la derecha ilustran la imagen mapeada en tonos de LDR cuando se muestra en una pantalla de HDR y viceversa. En el primer caso, la imagen será demasiado brillante y los valores de luma de rango bajo y alto perderán demasiado detalle. En el segundo caso, la imagen será demasiado oscura y los valores de luma de rango medio perderán demasiado detalle y contraste.
Como se puede ver, simplemente presentar una (versión escalada de luminancia de) la imagen optimizada de LDR en una pantalla de HDR (o viceversa) puede reducir sustancialmente la calidad de imagen, y por lo tanto el dispositivo de procesamiento de imágenes 103 puede realizar una transformada de rango dinámi aumentar la calidad de imagen. Además, dado que la optimización realizada en el estudio depende en gran medida de las características de la pantalla para la cual se ha realizado la optimización, la transformada de rango dinámico óptima que va a ser realizada por el dispositivo de procesamiento de imágenes 103 no depende solamente de la pantalla de usuario final sino también de la pantalla de referencia. Por consiguiente, la referencia de pantalla de destino proporcionada al dispositivo de procesamiento de imágenes 103 permite que el dispositivo de procesamiento de imágenes 103 realice la transformada de rango dinámico deseada no solamente con base en las características supuestas o conocidas de la pantalla de usuario final, sino también con base en la pantalla real usada en el lado de proveedor de contenido. De hecho, se puede considerar que la provisión de la referencia de pantalla de destino permite que el dispositivo de procesamiento de imágenes 103 revierta parcial o totalmente algo del mapeo de tonos realizado en el lado de estudio permitiendo de esa manera la estimación de las características de la imagen original. Con base en esta estimación, el dispositivo de procesamiento de imágenes 103 puede luego aplicar un mapeo de tonos deseado optimizado para las características de rango dinámico específicas de la pantalla de h Dr de usuario final.
Se apreciará que el dispositivo de procesamiento de imágenes 103 típicamente no busca realizar un mapeo de tonos inverso específico para recrear la señal original seguido de un mapeo de tonos adecuado para la pantalla de usuario final específica. De hecho, típicamente la transformada de rango dinámico no proporcionará suficiente información para realizar tal mapeo de tonos inverso y el mapeo de tonos realizado por el proveedor de contenido a menudo puede ser parcialmente irreversible. Sin embargo, el dispositivo de procesamiento de imágenes 103 puede realizar una transformada de rango dinámico que busca adaptar la imagen recibida mediante la transformada de rango dinámico proporcionando un resultado que puede ser una aproximación (posiblemente muy gruesa) de la operación más teórica de un mapeo de tonos inverso para generar la imagen original seguido por un mapeo de tonos optimizado de la imagen original al rango dinámico deseado específico. De este modo, el dispositivo de procesamiento de imágenes 103 puede simplemente aplicar por ejemplo un mapeo simple de los valores de luma de la entrada a la transformada de rango dinámico a los valores de luma apropiados en la salida de la transformación. Sin embargo, este mapeo no solo refleja el mapeo de tonos deseado de la imagen original para la pantalla de usuario final dada sino que también depende del mapeo de tonos real ya realizado en el aparato proveedor de contenido 101. Por lo tanto, el dispositivo de procesamiento de imágenes 103 puede usar la transformada de rango dinámi
tener en cuenta y adaptarse al mapeo de tonos que ya se ha realizado.
Como ejemplo, el dispositivo de procesamiento de imágenes 103 puede estar dispuesto para proporcionar una imagen de salida para visualización en una imagen de HDR con una luminancia máxima predeterminada (decir 4000 nits). La imagen/vídeo recibido puede ser mapeado en tonos para una pantalla de LDR de 500 nits. Este mapeo de tonos de este modo ha optimizado la imagen para una luminancia y gamma máximas dadas. Como ejemplo específico, la función gamma puede ser como la curva 701 de la figura 7 y la imagen resultante cuando se presenta en una pantalla de 500 nits puede ser como la figura 8.
Cuando esta imagen va a ser presentada en una pantalla de HDR de por ejemplo 4000 nits, a menudo es deseable que la salida de luz para las áreas oscuras no cambie sustancialmente mientras que la salida de luz para las áreas brillantes se debe aumentar muy sustancialmente. De este modo, se requiere una relación muy diferente entre los valores de luminancia (lineal) y los valores de accionamiento reales. Específicamente, se habría generado una imagen sustancialmente mejorada para una imagen de HDR si se hubiera usado la curva de mapeo 703 de la figura 7, es decir si se hubiera aplicado una gamma más alta en el mapeo de tonos de lado de contenido. Sin embargo, este mapeo más alto en una pantalla de 500 nits dará como resultado imágenes que parecen demasiado oscuras como se ilustra en la figura 9.
En el sistema, el dispositivo de procesamiento de imágenes 103 es informado del valor gamma para la pantalla de destino en el lado de contenido y de este modo puede derivar la curva 701. Además, la curva deseada 703 es conocida ya que depende del rango dinámico de pantalla para el cual se genera la imagen de salida (que por ejemplo puede proporcionarse al dispositivo de procesamiento de imágenes 103 desde la pantalla 107 o puede suponerse/predeterminarse). De este modo, el dispositivo de procesamiento de imágenes 103 puede aplicar a cada valor de luminancia de píxel una transformación que corresponde a la conversión de la curva 701 a la curva 703. De esta forma, el dispositivo de procesamiento de imágenes 103 puede proceder de este modo a usar la referencia de pantalla de destino proporcionada desde el aparato proveedor de contenido 101 para aplicar una transformada de rango dinámico que convierte la señal de salida generada de una adecuada para una pantalla de LDR a una adecuada para una pantalla de HDR.
Se apreciará que las mismas consideraciones pueden aplicarse al realizar la transformada de rango dinámico para reducir el rango dinámico. Por ejemplo, si el contenido recibido va a ser mostrado en una pantalla de baja calidad, baja luminancia, tal como una pantalla de teléfono móvil, la gamma preferida para la curva de mapeo puede ser como se indica por la curva 705 de la figura 7, es decir puede preferirse una gamma de menos de uno. Al presentarse en un LDR normal de 500 nits, una imagen correspondiente parecería ser demasiado brillante y tener muy poco contraste como se indica por la figura 10, y de hecho el escenario sería aún peor para una pantalla de HDR.
De este modo, si el dispositivo de procesamiento de imágenes 103 está generando una imagen para tal pantalla de brillo bajo, puede proceder a realizar una transformada de rango dinámico que reduzca el rango dinámico ajustando los valores de luminancia para las diferencias en la gamma entre la curva 701 y 705.
Como otro ejemplo, si el aparato proveedor de contenido 101 proporciona una imagen destinada a una pantalla de bajo brillo/rango dinámico y en consecuencia una imagen que está codificada de acuerdo con la curva 705, el dispositivo de procesamiento de imágenes 103 puede usar el conocimiento de esta gamma proporcionado por la transformada de rango dinámico para transformar los valores recibidos en valores adecuados ya sea para una pantalla de 500 nits adaptándose a la diferencia entre las curvas 705 y 701, o para una pantalla de 4000 nits adaptándose a la diferencia entre las curvas 705 y 703.
De este modo, la provisión de una transformada de rango dinámico que indica una luminancia máxima/luminancia de punto blanco y un valor gamma asumido para la pantalla de destino permite que el dispositivo de procesamiento de imágenes 103 convierta la imagen recibida a un valor gamma adecuado para el valor de luminancia de brillo específico de la pantalla en la cual se debe representar la imagen.
En algunos sistemas, la referencia de pantalla de destino puede comprender una indicación de mapeo de tonos que representa un mapeo de tonos usado para generar el primer flujo de vídeo codificado para la primera pantalla de destino.
En algunos sistemas, la referencia de pantalla de destino puede proporcionar directamente información de algunos de los mapeos de tonos específicos que se han realizado en el lado de proveedor de contenido. Por ejemplo, la referencia de pantalla de destino puede incluir información que define la luminancia de punto blanco y la gamma para la cual se ha generado la imagen de LDR (o HDR), es decir la pantalla para la cual se ha realizado el mapeo de tonos. Sin embargo, además, la referencia de pantalla de destino puede proporcionar alguna información específica que por ejemplo define algo de la información perdida en el mapeo de tonos que se ha realizado en el lado de proveedor de contenido.
Por ejemplo en el ejemplo de la figura 6, una imagen mapeada en tonos de LDR que corresponde a la imagen recortada se puede recibir por el dispositivo de procesamiento de imágenes 103. El dispositivo de procesamiento de imágenes 103 puede aplicar una transformada de rango dinámico que mapea esto al rango dinámico apropiado y a la relación no lineal con base en la información de la gamma de pantalla de destino y del punto blanco. Sin embargo, con el fin de proporcionar una adaptación mejorada, el recorte severo usado para la imagen de LDR debería traducirse preferiblemente en un recorte menos severo (o de hecho en algunos escenarios en ningún recorte). Por consiguiente, el aparato proveedor de contenido 101 puede proporcionar información adicional que identifica el recorte específico que se ha realizado para la imagen de<l>D<r>por el proveedor de contenido permitiendo de esa manera que el recorte se revierta parcial o totalmente. Por ejemplo, la transformada de rango dinámico puede definir el rango que ha sido recortado y el dispositivo de procesamiento de imágenes 103 puede distribuir en consecuencia los valores recortados sobre este rango de acuerdo con un algoritmo adecuado (por ejemplo identificando un área de valores recortados (tal como una explosión) y generando un brillo creciente hacia el centro de esta área).
La transformada de rango dinámico puede proporcionar de manera alternativa o adicional información que define un mapeo de tonos adicional que se ha realizado en el lado de proveedor de contenido. Por ejemplo, se puede realizar un mapeo de tonos relativamente estándar para la mayoría de las imágenes de una película u otra secuencia de vídeo. El dispositivo de procesamiento de imágenes 103 puede, con base en la luminancia gamma y de punto blanco, convertir tal imagen mapeada en tonos en una imagen de rango dinámico deseado (más alto o más bajo) usando una transformada de rango dinámico que supone un mapeo de tonos estándar en el lado de proveedor de contenido. Sin embargo, para algunas imágenes el proveedor de contenido puede haber realizado un mapeo de tonos dedicado y subjetivo. Por ejemplo, el calificador de color puede desear un efecto o calidad artística específica para algunas imágenes, tal como por ejemplo una gradación fina o un tono de color para imágenes oscuras de una situación tensa (decir en una película de terror) o un efecto específico para escenas como de ensueño. Este mapeo de tonos se puede caracterizar mediante datos en la referencia de pantalla de destino permitiendo de esa manera que el dispositivo de procesamiento de imágenes 103 adapte la transformada de rango dinámico al mapeo de tonos específico que se ha aplicado.
De este modo, específicamente, en algunos escenarios se realiza un mapeo de tonos adicional/modificado en el lado de proveedor de contenido para generar un aspecto específico de tal manera que la imagen se modifique en relación a lo cual se esperaría mediante una adaptación fija al comportamiento electroóptico desnudo de la pantalla de destino. Los datos proporcionados por el aparato proveedor de contenido 101 pueden especificar un aspecto deseado en comparación con la pantalla de referencia y esto puede ser usado por el dispositivo de procesamiento de imágenes 103 para generar realmente el comportamiento óptico deseado dados todos los factores (por ejemplo mientras que una codificación a ciegas en la señal de entrada podría terminar accidentalmente debajo de la luz circundante reflejada de tal manera que ya no pueda ser compensada de acuerdo con el comportamiento de lado de proveedor de contenido codificado).
Como ejemplo, si se conoce que la gamma de la pantalla de destino es baja para los valores más oscuros, es posible para tal pantalla (de referencia) ajustar el aspecto de, por decir, escenas de terror. Por ejemplo, la imagen puede compensarse mediante un impulso de luminancia extra de tal manera que la imagen siga apareciendo oscura pero al menos con alguna estructura de objeto que todavía es visible.
Como ejemplo, junto con la luminancia gamma y de punto blanco del objetivo de referencia, el calificador de color en el lado de provisión de contenido puede proporcionar alguna información (adicional) sobre la impresión artística de ciertas regiones y/o imágenes. Por ejemplo, para una EOTF dada, el proveedor de contenido puede indicar que se desea que una cierta área tenga brillo aumentado para mejor visibilidad, o contraste reducido para proporcionar un aspecto borroso etc. De este modo, junto con una EOTF (por ejemplo representada por luminancia gamma y de punto blanco) la referencia de pantalla de destino puede indicar los límites de un rango de luminancia de pantalla local/parcial y proporcionar datos de transformada de rango dinámico que proporcionan información más precisa sobre la asignación preferida de los niveles de gris para ello.
En algunas realizaciones, el procesador de rango dinámico (203) puede estar dispuesto para seleccionar entre generar la imagen de salida como la imagen codificada recibida y generar la imagen de salida como una imagen transformada de la primera imagen codificada en respuesta a la referencia de pantalla de destino.
Específicamente, si la luminancia de punto blanco indicada por la referencia de pantalla de destino es suficientemente cercana a la luminancia de punto blanco de la pantalla de usuario final, la transformada de rango dinámico puede consistir simplemente en no realizar ningún procesamiento en la imagen codificada recibida, es decir la imagen de entrada puede simplemente usarse como la imagen de salida. Sin embargo, si la luminancia de punto blanco indicada por la referencia de pantalla de destino es diferente a la luminancia de punto blanco de la pantalla de usuario final, la transformada de rango dinámico puede modificar la imagen recibida de acuerdo con un mapeo adecuado de los píxeles de imagen recibida a los píxeles de imagen de salida. En tales casos, el mapeo se puede adaptar dependiendo de la referencia de pantalla de destino. En otros ejemplos, se pueden usar uno o más mapeos predeterminados.
Por ejemplo, el dispositivo de procesamiento de imágenes 103 puede incluir un primer mapeo predeterminado que se ha determinado para proporcionar una imagen de salida adecuada para una duplicación en el nivel de luminancia de punto blanco y un segundo mapeo predeterminado que se ha determinado para proporcionar una imagen de salida adecuada para una reducción a la mitad del nivel de luminancia de punto blanco. En tal ejemplo, el dispositivo de procesamiento de imágenes 103 puede seleccionar entre el primer mapeo, el segundo mapeo y un mapeo unitario dependiente de la luminancia de punto blanco de la referencia de pantalla de destino y el punto blanco de la pantalla de usuario final. El dispositivo de procesamiento de imágenes 103 puede seleccionar específicamente el mapeo que corresponda más estrechamente con la relación entre la luminancia de punto blanco de referencia de pantalla de destino y la luminancia de punto blanco de pantalla de usuario final.
Por ejemplo, si se recibe una imagen de entrada con una referencia de pantalla de destino que indica que ha sido optimizada para una pantalla de 500 nits y la pantalla de usuario final es una pantalla de 1000 nits, el dispositivo de procesamiento de imágenes 103 seleccionará el primer mapeo. Si en cambio, la referencia de pantalla de destino indica que la imagen de entrada ha sido optimizada para una pantalla de 1000 nits, el dispositivo de procesamiento de imágenes 103 seleccionará el mapeo unitario (es decir usará la imagen de entrada directamente). Si la referencia de pantalla de destino indica que ha sido optimizada para una pantalla de 2000 nits, el dispositivo de procesamiento de imágenes 103 seleccionará el segundo mapeo.
Si se reciben valores intermedios para la luminancia de punto blanco de la pantalla de destino, el dispositivo de procesamiento de imágenes 103 puede seleccionar el mapeo más cercano a la relación entre las luminancias del punto blanco o puede por ejemplo interpolar entre los mapeos.
En algunas realizaciones, la transformada de rango dinámico puede comprender o consistir en una transformada de gama. De este modo, en algunas realizaciones, el procesador de rango dinámico 203 puede modificar las cromaticidades de la imagen representada dependiendo de la referencia de pantalla de destino. Por ejemplo, cuando una imagen de HDR recibida se representa en una pantalla de LDR la compresión puede dar como resultado una imagen más opaca con menos variaciones y gradaciones en los objetos de imagen individuales. La transformada de rango dinámico puede compensar tales reducciones incrementando las variaciones de croma. Por ejemplo, cuando una imagen con una manzana muy iluminada está optimizada para representación en una pantalla de HDR, la representación en una pantalla de LDR con rango dinámico reducido típicamente hará que la manzana parezca destacarse menos y verse menos clara y más opaca. Esto se puede compensar mediante la transformada de rango dinámico haciendo que el color de la manzana esté más saturado. Como otro ejemplo, las variaciones de textura pueden volverse menos significativas perceptualmente debido a las variaciones de luminancia reducidas y esto puede compensarse aumentando las variaciones de croma de la textura.
De acuerdo con la invención como se reivindica, la señal de vídeo comprende un campo de datos que incluye datos de control de transformada de rango dinámico y el procesador de rango dinámico 203 adapta la transformada de rango dinámico en respuesta a estos datos de control. Esto se puede usar por el propietario/proveedor de contenido para conservar al menos alguna entrada o control sobre la representación del contenido proporcionado.
Los datos de control definen un parámetro de la transformada de rango dinámico que se debe aplicar, se puede aplicar o que se recomienda que se aplique. Los datos de control pueden además diferenciarse para diferentes pantallas de usuario final. Por ejemplo, se pueden proporcionar datos de control individuales para una pluralidad de posibles pantallas de usuario final, tal como un conjunto de datos para una pantalla de 500 nits, otro conjunto para una pantalla de 1000 nits, otro conjunto de una pantalla de 2000 nits y aún otro conjunto para una pantalla de 4000 nits.
Como ejemplo, el creador de contenido puede especificar qué mapeo de tonos se debe realizar por el procesador de rango dinámico 203 dependiendo de las características de pantalla de usuario final como se ilustra en la figura 11. En el ejemplo, los datos de control pueden especificar un mapeo para cada una de las tres áreas que corresponden a valores dados de la luminancia máxima de la pantalla (eje x) y la luz ambiental incidente en la pantalla (y de este modo los reflejos de la pantalla - eje y).
De este modo, en el ejemplo específico se usa el mapeo 1 para pantallas de bajo brillo en entornos de baja luz ambiental. El mapeo 1 puede ser simplemente un mapeo unitario, es decir la imagen de LDR recibida puede usarse directamente. Para una pantalla de luminancia máxima alta (HDR) en un entorno ambiental relativamente oscuro (reflejos de pantalla bajos), se puede usar el mapeo 2. El mapeo 2 puede realizar un mapeo que extiende las luminancias brillantes de la imagen de LDR además mientras mantiene sustancialmente la intensidad de los segmentos más oscuros. Para una pantalla de luminancia máxima alta (HDR) en un entorno ambiental relativamente brillante (reflejos de pantalla sustanciales), se puede usar el mapeo 3. El mapeo 3 puede realizar un mapeo más agresivo que no solo extiende las luminancias brillantes de la imagen de LDR sino que también ilumina y aumenta el contraste de las áreas de imagen más oscuras.
En algunos escenarios, los datos de control pueden especificar los límites entre los mapeos siendo los mapeos predeterminados (por ejemplo estandarizados o conocidos tanto en el lado de proveedor de contenido como en el lado de generador). En algunos escenarios, los datos de control pueden definir además elementos de los diferentes mapeos o pueden incluso especificar los mapeos con precisión, por ejemplo usando un valor gamma o especificando una función de transformación específica.
En algunas realizaciones, los datos de control de transformada de rango dinámico pueden especificar directa y explícitamente la transformada de rango dinámico que se debe realizar para transformar la imagen recibida en una imagen con un rango dinámico diferente. Por ejemplo, los datos de control pueden especificar un mapeo directo de los valores de imagen de entrada a los valores de imagen de salida para un rango de puntos blancos de pantalla de salida de destino. El mapeo puede proporcionarse como un parámetro simple que permite que la transformada apropiada se realice por el procesador de rango dinámico 203 o pueden proporcionarse datos detallados tales como una tabla de búsqueda específica o una función matemática.
Como ejemplo de baja complejidad, la transformada de rango dinámico puede simplemente aplicar una función lineal según piezas a los valores de entrada de una imagen de LDR para generar valores de HDR mejorados. De hecho, en muchos escenarios, se puede usar un mapeo simple que consiste en dos relaciones lineales como se ilustra en la figura 12. El mapeo muestra un mapeo directo entre los valores de píxeles de entrada y los valores de píxeles de salida (o en algunos escenarios el mapeo puede reflejar un mapeo (posiblemente continuo) entre las luminancias de píxeles de entrada y luminancias de píxeles de salida). Se apreciará que se puede usar el mismo mapeo para mapear desde una imagen de HDR de entrada a una imagen de<l>D<r>de salida.
Específicamente, para un mapeo de LDR a HDR, el enfoque proporciona una transformada de rango dinámico que mantiene las áreas oscuras de una imagen para que permanezcan oscuras mientras que al mismo tiempo permite que se use el rango dinámico sustancialmente aumentado para proporcionar una representación mucho más brillante de las áreas brillantes, así como de hecho un rango medio mejorado y de aspecto más vivo. Para un mapeo de HDR a LDR, el enfoque proporciona una transformada de rango dinámico que mantiene las áreas oscuras de una imagen pero comprime las áreas más brillantes para reflejar el rango de brillo reducido de la pantalla.
Sin embargo, la transformación exacta depende de la pantalla de destino para la cual fue generada la imagen y de la pantalla en la cual va a ser representada. Por ejemplo, al representar una imagen para una pantalla de 500 nits en una pantalla de 1000 nits, se requiere una transformación relativamente modesta y el estiramiento de las áreas brillantes es relativamente limitado. Sin embargo, si va a ser mostrada la misma imagen en una pantalla de 5000 nits, se requiere una transformación mucho más extrema con el fin de explotar por completo el brillo disponible sin iluminar demasiado las áreas oscuras.
Asimismo, el mapeo puede depender de la pantalla de destino para la cual fue generada la imagen original. Por ejemplo, si va a ser representada una imagen de entrada optimizada para 1000 nits en una pantalla de 2000 nits, se requiere una transformación relativamente modesta y el estiramiento de las áreas brillantes es relativamente limitado. Sin embargo, si una imagen ha sido optimizada para una pantalla de 500 nits y va a ser mostrada en una pantalla de 2000 nits, se requiere una transformación mucho más extrema con el fin de explotar por completo el brillo disponible sin iluminar demasiado las áreas oscuras. La figura 13 ilustra cómo se pueden usar dos mapeos diferentes para respectivamente una imagen de entrada de 1000 nits (curva 1301, valor máximo de 255 que corresponde a 1000 nits) y una imagen de entrada de 500 nits (curva 1303 valor máximo de 255 que corresponde a 500 nits) para visualización en una imagen de entrada de LDR de 2000 nits (valor máximo de 255 que corresponde a 2000 nits).
Una ventaja de tal relación simple es que el mapeo de tonos deseado se puede comunicar con una sobrecarga muy baja. De hecho, los datos de control pueden especificar el punto de inflexión de la curva, es decir el punto de la transición entre las dos piezas lineales. De este modo, un simple valor de datos de dos componentes puede especificar el mapeo de tonos deseado que va a ser realizado por el dispositivo de procesamiento de imágenes 103 para diferentes pantallas. El dispositivo de procesamiento de imágenes 103 puede determinar además valores adecuados para otros valores de luminancia máxima interpolando entre los valores proporcionados.
En algunas implementaciones, se pueden proporcionar más puntos por ejemplo para definir una curva que todavía sea lineal según piezas pero con más intervalos lineales. Esto puede permitir un mapeo de tonos más preciso y mejorar la calidad de imagen resultante mientras que solo introduce una sobrecarga relativamente menor.
En muchas implementaciones, los datos de control pueden no especificar un mapeo de tonos específico que se debe realizar sino más bien proporcionar datos que definen límites dentro de los cuales la transformada de rango dinámico/mapeo de tonos puede ser adaptado libremente por el dispositivo de procesamiento de imágenes 103.
Por ejemplo, en lugar de especificar un punto de transición específico para las curvas de las figuras 12 y 13, los datos de control pueden definir límites para el punto de transición (siendo posiblemente los límites diferentes proporcionados para diferentes niveles de brillo máximo). De este modo, el dispositivo de procesamiento de imágenes 103 puede determinar individualmente los parámetros deseados para la transformada de rango dinámico de tal manera que pueda configurarse para proporcionar la transición preferida para la pantalla específica teniendo en cuenta por ejemplo las preferencias específicas de usuario. Sin embargo, al mismo tiempo el proveedor de contenido puede garantizar que esta libertad esté restringida a un rango aceptable permitiendo de esa manera al proveedor de contenido conservar algún control sobre cómo se representa el contenido.
De este modo, los datos de control de transformada de rango dinámico pueden incluir datos que definen parámetros de transformada que deben ser aplicados por la transformada de rango dinámico realizada por el procesador de rango dinámico 203 y/o que definen límites para los parámetros de transformada. Los datos de control pueden proporcionar tal información para un rango de niveles de brillo máximo permitiendo de esa manera la adaptación de la transformada de rango dinámico a diferentes pantallas de usuario final. Además, para niveles de brillo máximo no incluidos explícitamente en los datos de control, se pueden generar valores de datos apropiados a partir de los valores de datos disponibles por ejemplo mediante interpolación. Por ejemplo, si se indica un punto de inflexión entre dos piezas lineales para una pantalla de usuario final de 2000 nits y una de 4000 nits, se puede encontrar un valor adecuado para una pantalla de 3000 nits mediante una simple interpolación (por ejemplo mediante un promedio simple en el ejemplo específico).
Se apreciará que se pueden usar muchos enfoques diferentes y variados tanto para la transformada de rango dinámico como para cómo restringir, adaptar y controlar esta desde el lado de proveedor de contenido mediante datos de control adicionales en diferentes sistemas dependiendo de las preferencias y requisitos específicos de la aplicación individual.
De hecho, se pueden proporcionar muchos comandos o valores de parámetros diferentes en los datos de control para generar mapeos de tonos de acuerdo con las preferencias del proveedor de contenido.
Por ejemplo, en sistemas de baja complejidad, se puede aplicar una transformada de rango dinámico simple y el aparato proveedor de contenido 101 puede simplemente proporcionar un nivel de blanco y un nivel de negro para la pantalla de destino que luego es usado por el procesador de rango dinámico 203 para determinar el mapeo de tonos a aplicar. En algunos sistemas se puede proporcionar una función de mapeo de tonos (gamma o de otro modo) como obligatoria para mapear al menos un rango de la imagen de entrada. Por ejemplo, los datos de control pueden especificar que los rangos más oscuros y/o medios deben representarse de acuerdo con un mapeo dado mientras que se permite que los rangos más brillantes sean mapeados libremente por el dispositivo de procesamiento de imágenes 103.
En algunos escenarios, los datos de control pueden proporcionar simplemente una sugerencia de mapeo adecuado que se puede aplicar por ejemplo en el área de rango medio. En tal caso, el proveedor de contenido puede ayudar de este modo al dispositivo de procesamiento de imágenes 103 a proporcionar parámetros de transformada de rango dinámico sugeridos que se ha encontrado (por ejemplo a través de una optimización manual por el proveedor de contenido) que proporcionan una alta calidad de imagen cuando se visualizan en una pantalla de HDR dada. El dispositivo de procesamiento de imágenes 103 puede usar esto ventajosamente pero es libre de modificar el mapeo por ejemplo para acomodarlo a las preferencias individuales de usuario.
En muchos escenarios el mapeo se realiza al menos parcialmente con base en datos de control que representarán una relación funcional de complejidad relativamente baja, tal como un mapeo gamma, curva S, mapeo combinado definido por especificaciones parciales para rangos individuales etc. Sin embargo, en algunos escenarios se pueden usar mapeos más complejos.
También se apreciará que la transformada de rango dinámico a menudo puede incluir un aumento o disminución en el número de bits usados para representar los valores. Por ejemplo, una imagen de ocho bits puede transformarse en una imagen de 12 o 14 bits. En tales casos, los datos de control del aparato proveedor de contenido 101 pueden proporcionarse independientemente de la cuantificación cambiada. Por ejemplo, un mapeo de tonos cocodificado de 8 bits a 8 bits ("conformación" para la subdistribución de grises) se puede definir por el aparato proveedor de contenido 101 y el dispositivo de procesamiento de imágenes 103 puede escalar este mapeo al brillo blanco de pantalla específico al tomar en cuenta la transformación a más bits.
En otras realizaciones o escenarios, la transformada de rango dinámico puede incluir una disminución en el número de bits usados para representar los valores. Por ejemplo, una imagen de 12 bits puede transformarse en una imagen de 8 bits. Tales escenarios pueden producirse a menudo cuando se proporciona una reducción en el rango dinámico por la transformada de rango dinámico, por ejemplo al convertir una imagen de HDR de 12 bits para que se represente en una pantalla de LDR de valor de entrada de 8 bits.
Como se mencionó, los datos de control pueden proporcionar datos de control obligatorios o voluntarios. De hecho, los datos recibidos pueden incluir uno o más campos que indican si los parámetros de mapeo de tonos proporcionados son obligatorios, permitidos o sugeridos.
Por ejemplo, se puede proporcionar una función de mapeo de tonos sugerida junto con una indicación de qué tan grande puede ser aceptada una desviación de la misma. Un dispositivo de procesamiento de imágenes 103 en una configuración estándar puede entonces aplicar automáticamente el mapeo sugerido. Sin embargo, la transformada puede modificarse por ejemplo para reflejar las preferencias personales del usuario. Por ejemplo, una entrada de usuario puede cambiar las configuraciones del dispositivo de procesamiento de imágenes 103, por ejemplo de tal manera que las áreas oscuras de una imagen se representen más brillantes de lo que se considera ideal por el proveedor de contenido. Por ejemplo, un usuario puede simplemente presionar un botón para aumentar el brillo y el mapeo de tonos se puede cambiar en consecuencia (por ejemplo la sección lineal inferior de las curvas de las figuras 12 y 13 se mueven hacia arriba). El usuario puede de este modo introducir un ajuste fino al mapeo de tonos. Sin embargo, los datos de cuánto ajuste fino es aceptable para el proveedor de contenido se pueden incluir en los datos de control restringiendo de esa manera la transformada de rango dinámico para generar imágenes de salida que aún se consideran por el proveedor de contenido para conservar la integridad de la imagen que se proporcionan. Los datos de control también pueden especificar por ejemplo el efecto de las interacciones de usuario, tal como por ejemplo definir o limitar el cambio en brillo que se produce por cada presión del botón por un usuario.
La transformada de rango dinámico en consecuencia proporciona una transformada de rango dinámico que está prevista para proporcionar una imagen que sea apropiada para la pantalla de usuario final específica 107 mientras tiene en cuenta las características de pantalla de la pantalla para la cual se genera la imagen de entrada. De este modo, el dispositivo de procesamiento de imágenes 103 genera una señal de salida que está asociada con un valor máximo de luminancia/brillo dado, es decir que está prevista para representación en una pantalla con ese valor de luminancia máxima/punto blanco. En algunos sistemas, la luminancia de punto blanco de la pantalla puede no conocerse con presión por el dispositivo de procesamiento de imágenes 103, y de este modo la señal de salida puede generarse para una luminancia de punto blanco supuesta (por ejemplo ingresada manualmente por un usuario). En otras aplicaciones (como se describirá más adelante), la pantalla puede proporcionar información sobre la luminancia de punto blanco y el dispositivo de procesamiento de imágenes 103 puede adaptar la transformada de rango dinámico con base en esta información.
Si la luminancia de punto blanco para la cual se genera la señal de salida corresponde de manera exacta o suficientemente de manera estrecha a la luminancia de punto blanco de una de las imágenes recibidas (de acuerdo con cualquier criterio adecuado, tal como una diferencia de las luminancias de punto blanco que están por debajo de un umbral), el dispositivo de procesamiento de imágenes 103 puede proceder a usar esta imagen directamente en la imagen de salida, es decir la transformada de rango dinámico puede ser simplemente un mapeo unitario. Además, si la luminancia de punto blanco de salida no corresponde directamente a una luminancia de punto blanco de una imagen recibida pero sí coincide con una luminancia de punto blanco de pantalla de usuario final para la cual se han proporcionado datos explícitos de control de transformada de rango dinámico, estos datos de control se pueden usar directamente para adaptar la transformada de rango dinámico. Si la luminancia de punto blanco de salida no se corresponde directamente con la luminancia de punto blanco de una imagen recibida o con una luminancia de punto blanco para la cual se han proporcionado datos de control de transformada de rango dinámico, los parámetros de mapeo de tonos proporcionados por los datos de control para diferentes luminancias de punto blanco se pueden usar para adaptar la transformada de rango dinámico en dependencia la luminancia de punto blanco de salida. En particular, el procesador de rango dinámico 203 puede interpolar entre los parámetros de mapeo de tonos para otros valores de luminancia de punto blanco a la luminancia de punto blanco de salida específica. En muchas realizaciones, una interpolación lineal simple será suficiente pero se apreciará que se pueden usar muchos otros enfoques.
De hecho, los datos de control pueden por ejemplo proporcionar también información sobre cómo deben procesarse los parámetros de mapeo de tonos proporcionados para diferentes luminancias de punto blanco de pantalla para generar parámetros de mapeo de tonos para la luminancia de punto blanco de salida específica. Por ejemplo, los datos de control pueden indicar una función de interpolación no lineal que debe usarse para generar parámetros de mapeo de tonos apropiados.
También se apreciará que la transformada de rango dinámico no es necesariamente constante para diferentes imágenes o incluso para la misma imagen.
De hecho, en muchos sistemas los datos de control de transformada de rango dinámico pueden actualizarse continuamente permitiendo de esa manera que la transformada de rango dinámico realizada por el procesador de rango dinámico 203 se adapte a las características actuales. Esto puede permitir que se usen mapeos de tonos diferentes para imágenes/escenas oscuras que para imágenes/escenas brillantes. Esto puede proporcionar un rendimiento mejorado. De hecho, una transformada de rango dinámico variable en el tiempo controlada en respuesta a datos de control de transformada de rango dinámico actualizados dinámicamente se puede usar para proporcionar control adicional al proveedor de contenido. Por ejemplo, la representación de una escena oscura puede ser diferente en una pantalla de HDR dependiendo de si la escena es una escena tensa prevista para proporcionar inquietud o si la escena es simplemente oscura con el fin de corresponderse con un escenario nocturno (en el primer caso, la escena oscura puede representarse tan oscura en la pantalla de HDR como en una pantalla de LDR, y en el segundo caso, la escena oscura puede representarse algo más clara explotando de esa manera el rango dinámico adicional para permitir una diferenciación perceptible visualmente mejorada en áreas oscuras).
Las mismas consideraciones pueden aplicarse dentro de una imagen. Por ejemplo, una escena puede corresponder a un cielo brillante sobre un fondo oscuro sombrío (por ejemplo un cielo brillante en la mitad superior de la imagen y un bosque en la mitad inferior de la imagen). Las dos áreas pueden mapearse ventajosamente de manera diferente cuando se mapea de LDR a HDR, y los datos de control de transformada de rango dinámico pueden especificar la diferencia en estos mapeos. De este modo, los datos de control de transformada de rango dinámico pueden incluir parámetros de mapeo de tonos que cambian para diferentes imágenes y/o que dependen de la posición en la imagen.
Como ejemplo específico, al menos algunos datos de control pueden estar asociados con un área de imagen, rango de luminancia y/o rango de imagen dados.
Los datos de control de transformada de rango dinámico se pueden proporcionar al dispositivo de procesamiento de imágenes 103 de acuerdo con cualquier enfoque o estándar de comunicación adecuado.
En el ejemplo específico de la comunicación entre el aparato proveedor de contenido 101 y el dispositivo de procesamiento de imágenes 103 se usa un medio Blu-ray™. La transmisión de comandos de control para la transformada de rango dinámico se puede lograr incorporando estos valores de parámetros en los datos de BDROM en el disco. Para esto se puede usar una estructura de datos de extensión en el archivo de lista de reproducción (xxxxx.mpls). Esta estructura de datos de extensión tendrá una identificación única y nueva. Los reproductores de BDRO<m>heredados desconocerán esta nueva estructura de datos y simplemente la ignorarán.
Esto garantizará la compatibilidad con versiones anteriores. A continuación se muestra una posible implementación de la sintaxis y semántica de tal LHDR_ descriptor.
En este ejemplo, el LHDR_descriptor contiene tres descriptores de procesamiento. Estos parámetros especifican el procesamiento adicional del vídeo en caso de que la categoría de pantalla de destino sea diferente de la categoría de pantalla de usuario final. Como ejemplo, estos parámetros pueden tener los siguientes valores.
Video_Process_descriptor:
DR_Process_descriptor:
Level_Process_descriptor :
Los ejemplos previos se centraron en ejemplos en donde la señal recibida del aparato proveedor de contenido 101 comprende solo una versión de la secuencia de imagen/vídeo, y específicamente donde la señal comprende solo una secuencia de imagen/vídeo de LDR.
Sin embargo, en algunos sistemas e implementaciones, el aparato proveedor de contenido 101 puede generar una señal de imagen que comprende más de una versión de las imágenes. En tales escenarios una imagen puede ser mapeada en tonos para una pantalla de destino y otra imagen puede corresponder a la misma imagen original pero mapeada en tonos para una pantalla de destino diferente. Específicamente, una imagen puede ser una imagen de LDR generada por ejemplo para una pantalla de 500 nits y otra imagen puede ser una imagen de HDR generada por ejemplo para una pantalla de 2000 nits.
En tal ejemplo, la señal de imagen puede comprender además una segunda referencia de pantalla de destino, es decir se puede proporcionar una referencia de pantalla de destino para cada una de las imágenes indicando de esa manera las características de pantalla para las cuales se ha optimizado el mapeo de tonos en el lado de codificador para las imágenes individuales. Específicamente, se puede proporcionar un parámetro de brillo máximo y gamma para cada secuencia de imagen/vídeo.
En tales sistemas, el dispositivo de procesamiento de imágenes 103 puede estar dispuesto para aplicar la transformada de rango dinámico en respuesta a la segunda referencia de pantalla de destino, y específicamente considerando tanto la primera como segunda referencias de pantalla de destino.
La transformada de rango dinámico no solo puede adaptar el mapeo u operación específica que se realiza en una imagen sino que también puede dependiendo de las referencias de pantalla de destino seleccionar qué imagen usar como la base para la transformación. Como ejemplo de baja complejidad, el procesador de rango dinámico 203 puede seleccionar entre usar la primera y segunda imágenes dependiendo de qué tan cerca la referencia de pantalla de destino asociada coincide con la luminancia de punto blanco para la cual se genera la señal de salida. Específicamente, se puede seleccionar la imagen asociada con una luminancia de punto blanco más cercana a la luminancia de punto blanco de salida deseada. De este modo, si se genera una imagen de salida de LDR, la transformada de rango dinámico se puede realizar a partir de la imagen de LDR codificada. Sin embargo, si se genera una imagen de HDR con un brillo máximo mayor que la imagen de HDR codificada, la transformada de rango dinámico se puede realizar en la imagen de h Dr codificada.
Si se debe generar una imagen para un brillo máximo entre las luminancias de punto blanco de las imágenes codificadas (por ejemplo para una pantalla de 1000 nits), la transformada de rango dinámico puede basarse en ambas imágenes. En particular, se puede realizar una interpolación entre las imágenes. Tal interpolación puede ser lineal o no lineal y puede realizarse directamente en las imágenes codificadas antes de la transformación o puede aplicarse en las imágenes después de la aplicación de la transformación. La ponderación de las imágenes individuales típicamente puede depender de qué tan cerca estén del brillo máximo de salida deseado.
Por ejemplo, una primera imagen transformada se puede generar aplicando una transformada de rango dinámico a la primera imagen codificada (la imagen de LDR) y una segunda imagen transformada se puede generar aplicando una transformada de rango dinámico a la segunda imagen transformada. La primera y segunda imágenes transformadas luego se combinan (por ejemplo se suman) para generar la imagen de salida. Los pesos de la primera y la segunda imágenes transformadas respectivamente se determinan mediante qué tan cerca coinciden las referencias de pantalla de destino de la primera y segunda imágenes codificadas respectivamente con el brillo máximo de salida deseado.
Por ejemplo, para una pantalla de 700 nits, la primera imagen transformada puede estar ponderada mucho más alto que la segunda imagen transformada y para una pantalla de 3000 nits, la segunda imagen transformada puede estar ponderada significativamente más alto que la primera imagen transformada. Para una pantalla de 2000 nits, las dos imágenes transformadas pueden posiblemente ponderarse de manera igual y los valores de salida pueden generarse mediante un promedio de los valores de cada imagen.
Como otro ejemplo, la transformación puede realizarse de manera selectiva con base en la primera o segunda imagen para diferentes áreas de imagen, por ejemplo dependiendo de las características de imagen.
Por ejemplo, para áreas relativamente oscuras la transformada de rango dinámico se puede aplicar a la imagen de LDR para generar valores de píxeles que sean adecuados para una pantalla de 1000 nits pero que utilicen la resolución más fina que pueda estar disponible para las áreas oscuras de la imagen de LDR que corresponde a la imagen de HDR (por ejemplo si se usa el mismo número de bits para ambas imágenes). Sin embargo, para áreas más brillantes los valores de píxeles se pueden generar aplicando una transformada de rango dinámico a la imagen de HDR explotando de esa manera que esta imagen típicamente tendrá más información en los rangos de alto brillo (específicamente la pérdida de información debido al recorte típicamente es mucho menor para una imagen de HDR en relación con una imagen de LDR).
De este modo, cuando se recibe más de una imagen del aparato proveedor de contenido 101, el dispositivo de procesamiento de imágenes 103 puede generar la imagen de salida a partir de una de estas imágenes o puede combinarlas al generar una imagen de salida. La selección y/o combinación de las imágenes codificadas se basa en la referencia de pantalla de destino proporcionada para cada imagen así como en el brillo máximo para el cual se genera la señal de salida.
Se apreciará que además de la combinación y/o selección de las imágenes codificadas individuales, las transformadas de rango dinámico individuales también pueden ajustarse y adaptarse en respuesta a la transformada de rango dinámico. Por ejemplo, los enfoques descritos previamente pueden aplicarse individualmente a cada transformada de rango dinámico. De manera similar, se pueden recibir datos de control de transformada de rango dinámico que pueden usarse para adaptar y controlar cada transformada de rango dinámico como se describió previamente. Además, los datos de control de transformada de rango dinámico pueden contener información que define parámetros obligatorios, opcionales o preferidos/sugeridos para la combinación del procesamiento de la primera y segunda imágenes codificadas.
En algunos sistemas, los datos de control de transformada de rango dinámico comprenden diferentes datos de control de transformada para diferentes categorías de imágenes. Específicamente, diferentes tipos de imágenes/contenidos pueden procesarse de manera diferente al realizar la transformada de rango dinámico. Por ejemplo, se pueden definir o sugerir diferentes mapeos de tonos para diferentes tipos de contenido de vídeo. Por ejemplo, se define una transformada de rango dinámico diferente para un dibujo animado, una película de terror, un partido de fútbol etc. La señal de vídeo recibida puede en tal caso proporcionar metadatos que describan el tipo de contenido (o se puede aplicar un análisis de contenido localmente en el dispositivo de procesamiento de imágenes 103) y aplicar la transformada de rango dinámico apropiada para el contenido específico.
Como otro ejemplo, una imagen representada puede generarse como una combinación de imágenes superpuestas con diferentes transformadas que se proporcionan para las diferentes imágenes. Por ejemplo, en Blu-ray™ se define un número de planos de presentación diferentes (como se ilustra en la figura 5) y se pueden aplicar diferentes transformadas de rango dinámico para los diferentes planos de presentación. Las características de cada uno de estos planos de presentación están optimizadas por el proveedor de contenido para una pantalla de destino específica. La experiencia de visualización para el usuario final se puede optimizar adaptando las características de los planos de presentación a la pantalla de usuario final. Típicamente la adaptación óptima será diferente para los diferentes planos de presentación.
Con respecto al mapeo de tonos, la situación en el sistema de BDROM actual es de la siguiente manera: - El mapeo de tonos de vídeo (global y/o local) se realiza en el estudio usando un monitor de estudio.
- El mapeo de tonos de gráficos (generalmente diferente del mapeo de tonos de Vídeo) se realiza en el estudio usando un monitor de estudio.
- El mapeo de tonos OSD se realiza en el reproductor de BDROM.
- El mapeo de tonos global y/o local se realiza en la pantalla en la señal combinada de Vídeo y Gráficos. Este procesamiento no puede ser controlado por el usuario final.
- El mapeo de tonos global se realiza en la pantalla en la señal combinada de Vídeo y Gráficos. Este procesamiento depende, entre otras cosas, de los valores de brillo y contraste establecidos por el usuario final. Se consigue una calidad de imagen mejorada cuando:
1. El mapeo de tonos de vídeo está optimizado para la pantalla de usuario final.
2. El mapeo de tonos de gráficos está optimizado para la pantalla de usuario final.
3. El sistema permite un mapeo de tonos de Gráficos diferente del mapeo de tonos de Vídeo.
4. El Sistema permite diferente mapeo de tonos de Gráficos para diferentes componentes Gráficos.
5. El sistema permite el mapeo de tonos de Vídeo y Gráficos dependiendo de las características de Vídeo. También anotar que en caso de que estén presente tanto una versión de LDR como una de HDR del Vídeo en el disco, el mapeo de tonos adicional dependerá de dos conjuntos de parámetros para las pantallas de destino: uno para la versión de LDR del vídeo y uno para la versión de HDR del vídeo.
En otra implementación mejorada, el mapeo de tonos de Vídeo y/o Gráficos varía en el tiempo y depende por ejemplo del contenido de Vídeo en una escena. El proveedor de contenido puede enviar instrucciones de mapeo de tonos al reproductor dependiendo de las características del contenido de Vídeo y Gráficos. En otra implementación, el reproductor extrae de manera autónoma las características del Vídeo de la señal de Vídeo y adapta el mapeo de tonos de Vídeo y Gráficos dependiendo de estas características.
Por ejemplo los subtítulos pueden atenuarse durante un cierto período de tiempo o puede implementarse un cierto cambio de gamma durante una cantidad de tiempo (y ambos pueden coordinarse).
A continuación se describe un ejemplo de cómo proporcionar comandos de control para el mapeo de tonos de Gráficos para una BDROM.
Un flujo de gráficos de BDROM consiste en segmentos embebidos en paquetes PES que están embebidos en un flujo de transporte. La figura 14 ilustra la estructura de datos apropiada.
La sincronización con el vídeo principal se hace a nivel de flujo elemental usando valores PTS en los paquetes PES. El segmento de gráficos de BDROM consiste en un descriptor de segmento y los datos de segmento. El descriptor de segmento contiene el tipo del segmento y la longitud.
La siguiente tabla muestra algunos tipos de segmentos definidos en el estándar de Disco Blu-ray:
En la especificación existente, los valores 0x83 a 0xFF están reservados. Por lo tanto, se define un nuevo tipo de segmento usando por ejemplo el valor 0x83 para indicar un segmento que contiene el segmento LHDR_Processing_definition. En general, el segmento LHDR_Processing_definition define la forma en que el decodificador de gráficos procesa los gráficos en caso de que la pantalla de destino sea diferente de la pantalla de usuario final.
La siguiente tabla muestra un ejemplo de una posible estructura del segmento LHDR_Processing_definition:
____________ _____________________________________
En este ejemplo, el segmento LHDR_Processing_definition contiene dos descriptores de procesamiento: Popup_process_descriptor y Subtitle_process_descriptor. El segmento también puede contener paletas que van a ser usadas en caso de que la categoría de pantalla de destino sea diferente de la categoría de pantalla de usuario final. La paleta LHDR contiene el mismo número de entradas que la paleta original pero las entradas están optimizadas para la otra categoría de pantalla.
El parámetro Pop-up_process_descriptor especifica el procesamiento adicional de los gráficos emergentes en caso de que la categoría de pantalla de destino sea diferente de la categoría de pantalla de usuario final. Como ejemplo, este parámetro puede tener los siguientes valores.
- Pop-up_process_descriptor=0x00: Sin procesamiento adicional.
- Pop-up_process_descriptor=0x01 a 0x03: establecer el valor mínimo de transparencia.
- Pop-up_process_descriptor=0x04: el procesador gráfico usa las paletas definidas en el segmento LHDR_Processing_definition.
- Pop-up_process_descriptor=0x05: Sin restricciones en procesamiento adicional.
El parámetro Subtitle_process_descriptor especifica el procesamiento adicional de los gráficos de Subtítulos en caso de que la categoría de pantalla de destino sea diferente de la categoría de pantalla de usuario final. Como ejemplo, este parámetro puede tener los siguientes valores.
- Subtitle_process_descriptor =0x00: Sin procesamiento adicional.
- Pop-up_process_descriptor=0x01 a 0x03: Adaptar valor de luma.
- Subtitle_process_descriptor =0x04: el procesador gráfico usa las paletas definidas en el segmento LHDR_Processing_definition.
- Subtitle_process_descriptor = 0x05: Sin restricciones en procesamiento adicional.
En las siguientes tablas se proporcionan ejemplos específicos de sintaxis para el Pop-up_process_descriptor y el Subtitle_process_descriptor:
En las figuras 15 y 16 se ilustran ejemplos específicos de mapeo de tonos diferenciado dependiendo de las características de pantalla. En estos ejemplos, el contenido original presenta contenido de vídeo de HDR y subtítulos. El mapeo de tonos para el vídeo es el mismo que en el ejemplo de la figura 6.
Los gráficos presentan caracteres de subtítulos blancos con un borde negro. El histograma original muestra un pico en el rango de luma baja y otro pico en el rango de luma alta. Este histograma para el contenido de subtítulos es muy adecuado para una pantalla de LDR ya que dará como resultado un texto brillante legible en la pantalla. Sin embargo, en una pantalla de HDR estos caracteres serían demasiado brillantes causando molestias, halos y reflejos. Por esa razón, el mapeo de tonos para los gráficos de subtítulos se adaptará como se representa en la figura 16.
En los ejemplos previos, el dispositivo de procesamiento de imágenes 103 ha generado una imagen de salida que corresponde a un brillo máximo deseado, es decir prevista para representación en una pantalla con un rango dinámico/luminancia de punto blanco dados. La señal de salida puede generarse específicamente para corresponder a una configuración de usuario que indica una luminancia máxima/de punto blanco deseada, o puede simplemente asumir un rango dinámico dado para la pantalla 107.
En algunos sistemas el dispositivo de procesamiento de imágenes 103 puede comprender un procesador de rango dinámico 203 que está dispuesto para adaptar su procesamiento en dependencia de los datos recibidos desde la pantalla 107 que indican una característica de luminancia de la pantalla 107.
Un ejemplo de tal dispositivo de procesamiento de imágenes 103 se ilustra en la figura 17. El dispositivo de procesamiento de imágenes 103 corresponde al de la figura 1 pero en este ejemplo el dispositivo de procesamiento de imágenes 103 también comprende un receptor de pantalla 1701 que recibe una señal de datos de la pantalla 107. La señal de datos comprende un campo de datos que comprende una indicación de rango dinámico de pantalla para la pantalla 107. La indicación de rango dinámico de pantalla comprende al menos una especificación de luminancia indicativa de una propiedad de luminancia de la pantalla. Específicamente, la especificación de luminancia puede incluir una especificación de un brillo máximo, es decir de una luminancia máxima/de punto blanco para la pantalla. Específicamente, la indicación de rango dinámico de pantalla puede definir si la pantalla es una pantalla de HDR o LDR y puede indicar en particular la salida de luz máxima en nits. De este modo, la indicación de rango dinámico de pantalla puede definir si la pantalla es una pantalla de 500 nits, 1000 nits, 2000 nits, 4000 nits etc.
El receptor de pantalla 1701 del dispositivo de procesamiento de imágenes 103 está acoplado al procesador de rango dinámico 203 al cual se le alimenta la indicación de rango dinámico de pantalla. El procesador de rango dinámico 203 puede generar en consecuencia una señal de salida que corresponde directamente a la pantalla específica en lugar de generar la señal de salida para una luminancia de punto blanco supuesta o establecida manualmente.
El procesador de rango dinámico 203 puede adaptar en consecuencia la transformada de rango dinámico en respuesta a la indicación de rango dinámico de pantalla recibida. Por ejemplo, la imagen codificada recibida puede ser una imagen de LDR y se puede suponer que esta imagen ha sido optimizada para una pantalla de 500 nits. Si la indicación de rango dinámico de pantalla indica que la pantalla es de hecho una pantalla de 500 nits, el dispositivo de procesamiento de imágenes 103 puede usar la imagen codificada directamente. Sin embargo, si la indicación de rango dinámico de pantalla indica que la pantalla es una pantalla de 1000 nits, se puede aplicar una primera transformada dinámica. Si la indicación de rango dinámico de pantalla indica que la pantalla 107 es una pantalla de 2000 nits, se puede aplicar una transformada diferente, etc. De manera similar, si la imagen recibida es una imagen optimizada de 2000 nits, el dispositivo de procesamiento de imágenes 103 puede usar esta imagen directamente si la indicación de rango dinámico de pantalla indica que la pantalla es una pantalla de 2000 nits. Sin embargo, si la indicación de rango dinámico de pantalla indica que la pantalla es una pantalla de 1000 nits o una de 500 nits, el dispositivo de procesamiento de imágenes 103 puede realizar la transformada de rango dinámico apropiada para reducir el rango dinámico.
Por ejemplo, con referencia a la figura 18, se pueden definir dos transformaciones diferentes para una pantalla de 1000 nits y para una pantalla de 4000 nits respectivamente, y con un tercer mapeo uno a uno que se define para una pantalla de 500 nits. En la figura 1, el mapeo para la pantalla de 500 nits está indicado por la curva 1801, el mapeo para la pantalla de 1000 nits está indicado por la curva 1803 y el mapeo para la pantalla de 4000 nits está indicado por la curva 1805. De este modo, en el ejemplo, se supone que la imagen codificada recibida es una imagen de 500 nits y esta se convierte automáticamente en una imagen adecuada para la pantalla específica. De este modo, el dispositivo de procesamiento de imágenes 103 puede adaptarse y generar automáticamente una imagen optimizada para la pantalla específica a la cual está conectado. En particular, el dispositivo de procesamiento de imágenes 103 puede adaptarse automáticamente a si la pantalla es una pantalla de HDR o LDR, y puede adaptarse además a la luminancia blanca específica de la pantalla.
Se apreciará que se pueden usar mapeos inversos cuando se mapea desde un rango dinámico más alto a un rango dinámico más bajo.
Si la pantalla tiene una luminancia blanca que corresponde a una de las tres curvas de la figura 18, se puede aplicar el mapeo correspondiente a la imagen codificada. Si la pantalla tiene un valor de luminancia diferente, se puede usar una combinación de las transformaciones.
De este modo, el procesador de rango dinámico 203 puede seleccionar una transformada de rango dinámico apropiada dependiendo de la indicación de rango dinámico de pantalla. Como ejemplo de baja complejidad, el procesador de rango dinámico 203 puede seleccionar entre usar las curvas dependiendo de qué tan cerca la luminancia de punto blanco asociada coincide con la luminancia de punto blanco indicada por la indicación de rango dinámico de pantalla. Específicamente, se puede seleccionar el mapeo que está asociado con una luminancia de punto blanco más cercana a la luminancia de punto blanco deseada indicada en la indicación de rango dinámico de pantalla. De este modo, si se genera una imagen de salida de LDR, la transformada de rango dinámico se puede realizar usando la curva 1801. Si se genera una imagen de HDR de luminancia de punto blanco relativamente baja, se usa el mapeo de la curva 1803. Sin embargo, si se genera una imagen de HDR de alta luminancia de punto blanco, se usa la curva 1805.
Si se debe generar una imagen para una luminancia blanca en medio de las transformadas de rango dinámico para las dos configuraciones de HDR (por ejemplo para una pantalla de 2000 nits), se pueden usar ambos mapeos 1803, 1805. En particular, se puede realizar una interpolación entre las imágenes transformadas para los dos mapeos. Tal interpolación puede ser lineal o no lineal. La ponderación de las imágenes transformadas individuales generalmente puede depender típicamente de qué tan cerca estén del brillo máximo de salida deseado.
Por ejemplo, una primera imagen transformada se puede realizar aplicando un primer mapeo 1803 a la imagen codificada (la imagen de LDR) y una segunda imagen transformada se puede realizar aplicando un segundo mapeo a la imagen codificada. La primera y segunda imágenes transformadas luego se combinan (por ejemplo se suman) para generar la imagen de salida. Los pesos de la primera y la segunda imágenes transformadas respectivamente se determinan mediante qué tan cerca la luminancia blanca asociada con los diferentes mapeos coincide con la luminancia blanca de pantalla indicada en la indicación de rango dinámico de pantalla.
Por ejemplo, para una pantalla de 1500 nits, la primera imagen transformada puede estar ponderada mucho más alta que la segunda imagen transformada y para una pantalla de 3500 nits la segunda imagen transformada puede estar ponderada significativamente más alta que la primera imagen transformada.
En algunas realizaciones, el procesador de rango dinámico (203) puede estar dispuesto para seleccionar entre generar la imagen de salida como la imagen codificada recibida y generar la imagen de salida como una imagen transformada de la imagen codificada recibida en respuesta a la indicación de rango dinámico de pantalla.
Específicamente, si la luminancia de punto blanco indicada por la indicación de rango dinámico de pantalla es suficientemente cercana a la luminancia de punto blanco indicada o supuesta para la imagen recibida, la transformada de rango dinámico puede consistir simplemente en no realizar ningún procesamiento en la imagen recibida, es decir la imagen de entrada puede simplemente usarse como la imagen de salida. Sin embargo, si la luminancia de punto blanco indicada por la indicación de rango dinámico de pantalla es diferente a la luminancia de punto blanco supuesta o indicada para la imagen recibida, la transformada de rango dinámico puede modificar la imagen codificada recibida de acuerdo con un mapeo adecuado de los píxeles de imagen de entrada a los píxeles de imagen de salida. En tales casos, el mapeo se puede adaptar dependiendo de la indicación recibida de la luminancia de punto blanco de la pantalla de usuario final. En otros ejemplos, se pueden usar uno o más mapeos predeterminados.
Por ejemplo, el dispositivo de procesamiento de imágenes 103 puede incluir un primer mapeo predeterminado que se ha determinado para proporcionar una imagen de salida adecuada para una duplicación en el nivel de punto blanco y un segundo mapeo predeterminado que se ha determinado para proporcionar una imagen de salida adecuada para una reducción a la mitad en el nivel de punto blanco. En tal ejemplo, el dispositivo de procesamiento de imágenes 103 puede seleccionar entre el primer mapeo, el segundo mapeo y un mapeo unitario dependiente de la luminancia de punto blanco de la imagen recibida (por ejemplo como se indica mediante la referencia de pantalla de destino) y la luminancia de punto blanco para la pantalla de usuario final como se indica mediante la indicación de rango dinámico de pantalla. El dispositivo de procesamiento de imágenes 103 puede seleccionar específicamente el mapeo que más estrechamente se corresponda con la relación entre las luminancias de punto blanco de la imagen de entrada y la pantalla de usuario final.
Por ejemplo, si se recibe una imagen de entrada con una referencia de pantalla de destino que indica que ha sido optimizada para una pantalla de 1000 nits y la pantalla de usuario final es una pantalla de 2000 nits, el dispositivo de procesamiento de imágenes 103 seleccionará el primer mapeo. Si en cambio, la indicación de rango dinámico de pantalla indica que la pantalla de usuario final es una pantalla de 1000 nits, el dispositivo de procesamiento de imágenes 103 seleccionará el mapeo unitario (es decir usará la imagen de entrada directamente). Si la indicación de rango dinámico indica que la pantalla de usuario final es una pantalla de 500 nits, el dispositivo de procesamiento de imágenes 103 seleccionará el segundo mapeo.
Si se reciben valores intermedios para la luminancia de punto blanco de la pantalla de usuario final, el dispositivo de procesamiento de imágenes 103 puede seleccionar el mapeo más cercano a la relación entre las luminancias de punto blanco o puede por ejemplo interpolar entre los mapeos.
En el ejemplo de la figura 2, el dispositivo de procesamiento de imágenes 103 está dispuesto para realizar una transformada de rango dinámico con base en una referencia de pantalla de destino recibida desde el aparato proveedor de contenido 101 pero sin ninguna información o conocimiento específico de la pantalla específica 107 (es decir puede simplemente generar la imagen de salida que va a ser optimizada para un rango dinámico/punto blanco dado pero sin conocer explícitamente si la pantalla conectada 107 tiene ese valor). De este modo, se puede usar una luminancia de punto blanco supuesta o de referencia. En el ejemplo de la figura 17, el dispositivo de procesamiento de imágenes 103 puede realizar una transformada de rango dinámico con base en una indicación de rango dinámico de pantalla recibida desde la pantalla 107 pero sin ninguna información o conocimiento específico del rango dinámico específico y la luminancia de punto blanco para los que se ha generado la imagen codificada recibida (es decir puede simplemente generar la imagen de salida con base en un rango dinámico/luminancia de punto blanco dados para la imagen codificada recibida pero sin conocer explícitamente si la imagen se ha generado realmente para tal rango y luminancia). De este modo, se puede usar una luminancia de punto blanco supuesta o de referencia para la imagen codificada. Sin embargo, se apreciará que en muchas implementaciones el dispositivo de procesamiento de imágenes 103 puede estar dispuesto para realizar la transformada de rango dinámico en respuesta tanto a la información recibida del lado de proveedor de contenido como de la pantalla de usuario final. La figura 19 muestra un ejemplo de un dispositivo de procesamiento de imágenes 103 que comprende un procesador de rango dinámico 203 dispuesto para realizar una transformada de rango dinámico en respuesta tanto a la referencia de pantalla de destino como a la indicación de rango dinámico de pantalla. También se apreciará que los comentarios y descripciones proporcionados para los enfoques independientes de las figuras 2 y 17 se aplican igualmente (haciendo los cambios necesarios) al sistema de la figura 19.
Los enfoques pueden ser particularmente ventajosos en sistemas de distribución de contenidos no homogéneos tal como por ejemplo el que se percibe cada vez más para futuros sistemas de televisión. De hecho, el brillo (pico) de las pantallas está aumentando rápidamente en la actualidad y en el futuro cercano, se espera que coexistan en el mercado pantallas con una amplia variedad de brillo (pico). Dado que el brillo de pantalla (y típicamente la función de transferencia electroóptica que especifica cómo una pantalla convierte los valores de accionamiento de píxeles de entrada (color) en valores de luz que luego proporcionan una impresión psicovisual particular al espectador) ya no se conoce en el lado de generación de contenido (y que además generalmente es diferente del monitor de referencia para el cual estaba previsto/calificado el contenido), se vuelve un desafío proporcionar la mejor/óptima calidad de imagen en la pantalla.
Por lo tanto, en el sistema de la figura 1 la pantalla 107 (o dispositivo colector) puede enviar información acerca de sus capacidades de brillo (brillo pico, función de transferencia de representación de gris (/color) u otras propiedades de representación de gris en su rango de HDR, como una función de transferencia electroóptica particular etc.) de vuelta al dispositivo de procesamiento de imágenes 103.
En el ejemplo específico, el dispositivo de procesamiento de imágenes 103 es un reproductor de BDROM conectado a una pantalla por medio de una interfaz HDMI, y de este modo la indicación de rango dinámico de pantalla puede comunicarse desde la pantalla al dispositivo de procesamiento de imágenes 103 a través de una interfaz HDMI. De este modo, la indicación de rango dinámico de pantalla se puede comunicar específicamente como parte de la información EDID que se puede señalar a través de HDMI desde la pantalla 107 al dispositivo de procesamiento de imágenes 103. Sin embargo, se apreciará que el enfoque se puede aplicar a muchos otros dispositivos generadores de vídeo/gráficos como receptores DVB, receptores ATSC, ordenadores Personales, tabletas, teléfonos inteligentes y consolas de juegos etc. También se apreciará que se pueden usar muchas otras interfaces cableadas e inalámbricas tales como Display Port, USB, Ethernet y WIFI etc.
El dispositivo de procesamiento de imágenes 103 puede entonces seleccionar por ejemplo una de diferentes versiones del contenido/señal dependiendo por ejemplo del brillo de pantalla. Por ejemplo, si la señal del aparato proveedor de contenido 101 comprende tanto una imagen de LDR como de HDR, el dispositivo de procesamiento de imágenes 103 puede seleccionar entre estas con base en si la indicación de rango dinámico de pantalla es indicativa de que la pantalla es una pantalla de LDR o una pantalla de HDR. Como otro ejemplo, el dispositivo de procesamiento de imágenes 103 puede interpolar/mezclar diferentes versiones de brillo del contenido para derivar una nueva señal que sea aproximadamente óptima para el brillo de pantalla. Como otro ejemplo, puede adaptar el mapeo de la imagen codificada a la imagen de salida.
Se apreciará que en diferentes implementaciones se pueden proporcionar diferentes parámetros e información en la indicación de rango dinámico de pantalla. En particular, se nota que los comentarios y descripciones proporcionados previamente para la referencia de pantalla de destino pueden aplicarse igualmente a la indicación de rango dinámico de pantalla. De este modo, los parámetros e información comunicados desde la pantalla 107 al dispositivo de procesamiento de imágenes 103 pueden ser como los descritos para la comunicación de información en la pantalla de destino desde el aparato proveedor de contenido 101 al dispositivo de procesamiento de imágenes 103.
Específicamente, la pantalla puede comunicar una luminancia máxima/luminancia de punto blanco para la pantalla y esto puede ser usado por el procesador de rango dinámico 203 para adaptar la señal de salida como se describió previamente.
En algunas realizaciones, la indicación de rango dinámico de pantalla puede incluir alternativa o adicionalmente una luminancia de punto negro para la pantalla 107. La luminancia de punto negro típicamente puede indicar una luminancia que corresponde a los valores de accionamiento que corresponden al valor de píxel más oscuro. La luminancia de punto negro intrínseca de una pantalla puede corresponder en algunas pantallas a una salida de luz prácticamente nula. Sin embargo, para muchas pantallas la configuración más oscura por ejemplo de los elementos de LCD aún puede dar como resultado alguna salida de luz de la pantalla dando como resultado que las áreas de imagen negras se perciban más claras y grisáceas en lugar de un negro profundo. Para tales pantallas, la información de la luminancia de punto negro puede ser usada por el procesador de rango dinámico 203 para realizar un mapeo de tonos donde por ejemplo todos los niveles de negro por debajo de la luminancia de punto negro de la pantalla se convertirán al valor de píxel oscuro más profundo (o por ejemplo usando una transición más gradual). En algunos escenarios, la luminancia de punto negro puede incluir una contribución de la luz ambiental. Por ejemplo, la luminancia de punto negro puede reflejar la cantidad de luz que se refleja desde la pantalla.
Además, la indicación de rango dinámico de pantalla puede incluir en muchas pantallas más información que caracteriza la OETF de la pantalla. Específicamente, como se mencionó previamente, la pantalla puede incluir la luminancia de punto blanco y/o la luminancia de punto negro. En muchos sistemas, la indicación de rango dinámico de pantalla también puede incluir más detalles sobre la OETF de la pantalla en salidas de luz intervinientes. Específicamente, la indicación de rango dinámico de pantalla puede incluir una gamma de la OETF para la pantalla.
El procesador de rango dinámico 203 puede entonces usar información de esta OETF para adaptar la transformada de rango dinámico específica para proporcionar el rendimiento deseado y en particular, la conversión a una imagen de HDR puede reflejar no solo que es posible una salida de luz más brillante sino que también puede tomar en consideración exactamente cómo se debe generar la relación entre los valores de accionamiento para proporcionar la salida de luz deseada en el rango de brillo aumentado. De manera similar, la conversión a una imagen de LDR puede reflejar no solo que está disponible una salida de luz menos brillante sino que también puede tener en consideración exactamente cómo debe generarse la relación entre los valores de accionamiento para proporcionar la salida de luz deseada en el rango de brillo reducido.
La indicación de rango dinámico de pantalla puede de este modo proporcionar específicamente información que informe al procesador de rango dinámico 203 de cómo debe mapear valores de entrada que corresponden a un rango dinámico a valores de salida que corresponden a otro y típicamente rango dinámico más grande. El procesador de rango dinámico 203 puede tomar esto en consideración y puede por ejemplo compensar cualquier variación o no linealidad en la representación mediante la pantalla 107.
Se apreciará que son posibles muchas transformadas de rango dinámico diferentes y que se pueden usar muchas formas diferentes de adaptar tales transformadas de rango dinámico con base en la indicación de rango dinámico de pantalla. De hecho, se apreciará que la mayoría de los comentarios proporcionados para la transformada de rango dinámico basada en la referencia de pantalla de destino del aparato proveedor de contenido 101 son igualmente apropiados (haciendo los cambios necesarios) para la transformada de rango dinámico basada en la información de las características de luminancia de la pantalla de usuario final.
Como ejemplo de baja complejidad, la transformada de rango dinámico puede simplemente aplicar una función lineal según piezas a los valores de entrada de una imagen de LDR para generar valores de HDR mejorados (o a los valores de entrada de una imagen de HDR para generar valores de LDR mejorados). De hecho, en muchos escenarios, se puede usar un mapeo simple que consiste en dos relaciones lineales como se ilustra en la figura 20. El mapeo muestra un mapeo directo entre los valores de píxeles de entrada y los valores de píxeles de salida (o en algunos escenarios el mapeo puede reflejar un mapeo (posiblemente continuo) entre las luminancias de píxeles de entrada y las luminancias de píxeles de salida).
Específicamente, el enfoque proporciona una transformada de rango dinámico que mantiene las áreas oscuras de una imagen para permanecer oscuras mientras que al mismo tiempo permite que se use el rango dinámico sustancialmente aumentado para proporcionar una representación mucho más brillante de las áreas brillantes, así como de hecho un rango medio mejorado y de aspecto más vivo. Sin embargo, la transformación exacta depende de la pantalla en la cual vaya a ser representada. Por ejemplo, al representar una imagen para una pantalla de 500 nits en una pantalla de 1000 nits, se requiere una transformación relativamente modesta y el estiramiento de las áreas brillantes es relativamente limitado. Sin embargo, si va a ser mostrada la misma imagen en una pantalla de 5000 nits, se requiere una transformación mucho más extrema con el fin de explotar por completo el brillo disponible sin iluminar demasiado las áreas oscuras. La figura 20 ilustra cómo se pueden usar dos mapeos diferentes para una pantalla de 1000 nits (curva 2001, valor máximo de 255 que corresponde a 1000 nits) y una pantalla de 5000 nits (curva 2003, valor máximo de 255 que corresponde a 5000 nits) respectivamente para una imagen de entrada de LDR de 500 nits (valor máximo de 255 que corresponde a 500 nits). El dispositivo de procesamiento de imágenes 103 puede determinar además valores adecuados para otras luminancias máximas interpolando entre los valores proporcionados. En algunas implementaciones, se pueden usar más puntos para definir una curva que aún es lineal según piezas pero con más intervalos lineales.
Se apreciará que se pueden usar los mismos mapeos al mapear desde una imagen de entrada de HDR a una imagen de salida de LDR.
En algunas realizaciones, la transformada de rango dinámico puede comprender o consistir en una transformada de gama que puede ser dependiente de la indicación de rango dinámico de pantalla recibida. De este modo, en algunas realizaciones, el procesador de rango dinámico 203 puede modificar las cromaticidades de la imagen representada dependiendo de la indicación de rango dinámico de pantalla. Por ejemplo, cuando una imagen de HDR recibida se representa en una pantalla de LDR, la compresión puede dar como resultado una imagen más opaca con menos variaciones y gradaciones en los objetos de imagen individuales. La transformada de rango dinámico puede compensar tales reducciones incrementando las variaciones de croma. Por ejemplo, cuando una imagen con una manzana muy iluminada está optimizada para representación en una pantalla de HDR, la representación en una pantalla de LDR con rango dinámico reducido típicamente hará que la manzana parezca destacarse menos y aparecer menos clara y más opaca. Esto se puede compensar mediante la transformada de rango dinámico haciendo que el color de la manzana esté más saturado. Como otro ejemplo, las variaciones de textura pueden volverse menos significativas perceptualmente debido a las variaciones de luminancia reducidas y esto puede compensarse aumentando las variaciones de croma de la textura.
La indicación de rango dinámico de pantalla puede en algunos ejemplos o escenarios proporcionar información genérica para la pantalla, tales como los parámetros de fabricación estándar, la EOTF predeterminada etc. En algunos ejemplos y escenarios, la indicación de rango dinámico de pantalla puede reflejar además el procesamiento específico realizado en la pantalla y puede reflejar específicamente las configuraciones de usuario. De este modo, en tales ejemplos, la indicación de rango dinámico de pantalla no solamente proporciona información fija e invariable que depende solo de la pantalla sino que en cambio proporciona una función que varía en el tiempo que puede reflejar la operación específica de la pantalla.
Por ejemplo, la pantalla puede ser capaz de operar en diferentes modos de imagen con diferentes características de representación. Por ejemplo, en un modo de visualización "vívido", la pantalla puede representar imágenes con las áreas brillantes más brillantes de lo normal, en un modo de visualización "silenciado" la pantalla puede representar las imágenes con las áreas brillantes más oscuras de lo normal etc. La información sobre el modo actual, por ejemplo la gamma específica para este modo, se puede reportar al dispositivo de procesamiento de imágenes 103 como parte de la indicación de rango dinámico de pantalla permitiendo de esa manera que el dispositivo de procesamiento de imágenes 103 adapte la transformada de rango dinámico para reflejar las características de representación. El dispositivo de procesamiento de imágenes 103 puede por ejemplo anular la configuración de pantalla compensando esto o puede optimizar la transformada para mantener la configuración específica.
La indicación de rango dinámico de pantalla también puede reflejar otras configuraciones de procesamiento para la pantalla. Por ejemplo, los niveles de recorte, configuraciones de potencia de luz de fondo, mapeos de esquemas de color etc. se pueden comunicar al dispositivo de procesamiento de imágenes 103 donde pueden ser usados por el procesador de rango dinámico 203 para adaptar la transformada de rango dinámico.
La figura 21 ilustra un ejemplo de elementos de la pantalla 107 donde la pantalla proporciona una indicación de rango dinámico de pantalla al dispositivo de procesamiento de imágenes 103.
En el ejemplo, la pantalla comprende un receptor 2101 que recibe la señal de imagen emitida desde el dispositivo de procesamiento de imágenes 103. La señal de imagen recibida se acopla a un accionador 2103 que está acoplado además a un panel de visualización 2105 que representa la imagen. El panel de visualización puede ser por ejemplo un panel de visualización de LCD o plasma como se conocerá por la persona experta.
El accionador 2103 está dispuesto para accionar el panel de visualización 2105 de tal manera que represente la imagen codificada. En algunas realizaciones, el accionador 2103 puede realizar algoritmos de procesamiento de señales avanzados y posiblemente adaptativos que incluyen mapeo de tonos, gradación de color etc. En otras realizaciones, el accionador 2103 puede ser de complejidad relativamente baja y puede por ejemplo simplemente realizar un mapeo estándar desde los valores de señal de entrada para accionar valores para los elementos de píxeles del panel de visualización 2105.
En el sistema, la pantalla 107 comprende además un transmisor 2107 que está dispuesto para transmitir una señal de datos al dispositivo de procesamiento de imágenes 103. La señal de datos puede por ejemplo para una conexión de HDMI comunicarse en un canal DDC usando la estructura E-EDID como se describirá más adelante.
El transmisor 2107 genera la señal de datos para incluir la indicación de rango dinámico de pantalla para la pantalla (107). De este modo, específicamente el transmisor 2107 que indica por ejemplo la luminancia de punto blanco y opcionalmente la EOTF de la pantalla. Por ejemplo, se puede generar y transmitir un valor de datos que proporcione un índice entre un número de luminancias de punto blanco o EOTF predeterminadas.
En algunas realizaciones de baja complejidad, por ejemplo la luminancia de punto blanco puede ser un valor fijo almacenado en el transmisor 2107 que simplemente comunica este valor estándar. En valores más complejos, la indicación de rango dinámico de pantalla puede determinarse para reflejar valores adaptados y/o que varían dinámicamente. Por ejemplo, el accionador 2103 puede estar dispuesto para operar en diferentes modos de visualización, y la indicación de rango dinámico de pantalla puede adaptarse en consecuencia. Como otro ejemplo, la configuración de usuario por ejemplo de un nivel de brillo para la pantalla puede reflejarse mediante la indicación de rango dinámico de pantalla generada y transmitida por el transmisor 2107.
Como se mencionó previamente, la indicación de rango dinámico de pantalla puede comprender una medida de luz ambiental y el procesador de rango dinámico puede estar dispuesto para adaptar la transformada de rango dinámico en respuesta a la medida de luz ambiental. La medida de luz ambiental puede proporcionarse como datos explícitos y separados o puede reflejarse en otros parámetros. Por ejemplo, la medida de luz ambiental puede reflejarse en la luminancia de punto negro que puede incluir una contribución que corresponde a los reflejos de luz de la pantalla.
En muchos escenarios la pantalla puede incluir un detector de luz posicionado en la parte frontal de la pantalla. Este detector de luz puede detectar el nivel general de luz ambiental o puede medir específicamente la luz que llega a la pantalla de una manera directa dada que es probable que se refleje de vuelta hacia el espectador. Con base en esta detección de luz, la pantalla puede de este modo generar una indicación de luz ambiental que refleja por ejemplo el nivel de luz ambiental del entorno de visualización en general o por ejemplo que refleja específicamente una estimación de la luz reflejada de la pantalla. La pantalla 107 puede reportar este valor al dispositivo de procesamiento de imágenes 103, ya sea como un valor individual o por ejemplo calculando el nivel de luminancia negra efectiva para reflejar la cantidad de reflejos de luz.
El procesador de rango dinámico 203 puede luego adaptar la transformada de rango dinámico en consecuencia. Por ejemplo, cuando el nivel de luz ambiental es alto, se puede usar de manera más agresiva un mayor uso de los niveles de brillo adicionales de una pantalla de HDR para generar una imagen de aspecto brillante con un alto contraste. Por ejemplo, la salida de luz promedio puede configurarse relativamente alta e incluso las luminancias de rango medio pueden llevarse hacia el rango de HDR. Las áreas brillantes se pueden representar usando el rango de HDR completo e incluso las áreas oscuras típicamente se representarían a niveles de luz relativamente altos. Sin embargo, el rango dinámico aumentado de una imagen de HDR permite que tal imagen relativamente brillante aún exhiba grandes variaciones de luminancia y de este modo aún tenga un alto contraste.
De este modo, las capacidades de HDR de la pantalla se usan para generar una imagen que proporciona imágenes que se perciben como brillantes y tienen un alto contraste incluso cuando se ven por ejemplo a plena luz del día. Tal imagen típicamente no sería apropiada en un recinto oscuro ya que sería abrumadora y parecería demasiado brillante. De este modo, en un entorno oscuro, la transformada de rango dinámico realizaría una transformada de LDR a HDR mucho más conservadora que por ejemplo mantiene la misma salida de luz de LDR para valores oscuros y de rango medio y solo aumenta el brillo para las áreas más brillantes.
El enfoque puede permitir que el dispositivo de procesamiento de imágenes 103 adapte automáticamente la transformada de rango dinámico de LDR a HDR (o por ejemplo una transformada de rango dinámico de HDR a HDR) para que coincida con el entorno de visualización específico de la pantalla. Esto es posible además sin requerir que el dispositivo de procesamiento de imágenes 103 haga ninguna medición de o de hecho incluso se posicione en o cerca de este entorno.
La indicación de luz ambiental típicamente puede ser opcional y de este modo el dispositivo de procesamiento de imágenes 103 puede usarla si está disponible y de otro modo simplemente realizar una transformada de rango dinámico predeterminada para las características específicas (por ejemplo OETF de la pantalla).
La información de extensión opcional proporcionada por la pantalla acerca de su entorno de visualización (especialmente luz circundante) es de este modo usada por el dispositivo de procesamiento de imágenes 103 para ejecutar transformadas de optimización de imagen/vídeo más complicadas para presentar una imagen/vídeo óptimo en la pantalla donde la optimización puede incluir no solo características de la pantalla sino también del entorno de visualización.
De este modo, se pueden realizar optimizaciones adicionales cuando la información se proporciona por la pantalla sobre el entorno de visualización. La pantalla típicamente medirá periódicamente la luz circundante y enviará información (por ejemplo brillo y color en la forma de tres parámetros: XYZ) sobre esto al dispositivo de procesamiento de imágenes 103. Esta información típicamente puede no proporcionarse como parte de los datos EDID ni de ningún otro tipo de datos usados principalmente para la comunicación de información por única vez. Más bien, se puede comunicar por ejemplo en un canal separado, tal como por ejemplo usando HDMI-CEC. Esta medición y actualización periódica puede por ejemplo dar como resultado que si el usuario por ejemplo apaga la luz en las cercanías de la pantalla, el dispositivo de procesamiento de imágenes 103 pueda adaptar automáticamente el procesamiento para proporcionar imágenes más adecuadas para la situación de visualización más oscura, por ejemplo aplicando diferentes mapeos de color/luminancia.
Un ejemplo de un conjunto de parámetros relevantes que puede reportarse por la pantalla de usuario final en la indicación de rango dinámico de pantalla incluye:
• La luminancia máxima absoluta (luminancia de punto blanco) de la pantalla de usuario final.
• Gamma de la pantalla de usuario final - configuración de fábrica.
La luminancia máxima absoluta de la pantalla de usuario final podría definirse por ejemplo para configuraciones de pantalla típicas, configuraciones predeterminadas de fábrica o configuraciones que produzcan el mayor brillo.
Otro ejemplo de un conjunto de parámetros relevantes que puede reportarse por la pantalla de usuario final en la indicación de rango dinámico de pantalla incluye:
• Luminancia máxima de la pantalla de usuario final para las configuraciones actuales de brillo, contraste, etc.
• Gamma de la pantalla de usuario final - configuraciones actuales.
El primer conjunto de parámetros es independiente del tiempo mientras que el segundo conjunto varía en el tiempo ya que depende de las configuraciones de usuario. La aplicación de uno u el otro conjunto tiene consecuencias para el comportamiento del sistema y la experiencia de usuario, y se apreciará que el conjunto específico de parámetros usados en un sistema específico depende de las preferencias y requisitos del sistema. De hecho, los parámetros se pueden mezclar entre los dos conjuntos y por ejemplo se pueden proporcionar las configuraciones predeterminadas de fábrica en el encendido con parámetros dependientes de configuración de usuario siendo reportados periódicamente posteriormente.
También se aprecia que los conjuntos de parámetros específicos pueden caracterizar una EOTF para la pantalla que es ya sea la EOTF predeterminada de fábrica o la EOTF dependiente de configuración de usuario actual específica. De este modo, los parámetros pueden proporcionar información sobre el mapeo entre los valores de accionamiento y una salida de luminancia de la pantalla que permite que el dispositivo de procesamiento de imágenes 103 genere los valores de accionamiento que darán como resultado la imagen de salida deseada. Se apreciará que en otras implementaciones se pueden usar otros parámetros para caracterizar parte o la totalidad del mapeo entre los valores de accionamiento y la salida de luz para la pantalla.
Se apreciará que se pueden usar muchos enfoques diferentes para comunicar la indicación de rango dinámico de pantalla desde la pantalla al dispositivo de procesamiento de imágenes 103.
Por ejemplo, para parámetros de la pantalla que son independientes de las configuraciones de usuario y no varían con el tiempo, la comunicación para una conexión de HDMI puede transferirse efectivamente en un canal DDC usando la estructura E-EDID.
En un enfoque de baja complejidad, se puede definir un conjunto de categorías para las pantallas de usuario final con cada categoría definiendo rangos de los parámetros relevantes. En tal enfoque solo es necesario transmitir un código de identificación de categoría para la pantalla de usuario final.
Se describirá un ejemplo específico de una comunicación de datos de indicación de rango dinámico de pantalla en un formato E-EDID.
En el ejemplo específico, los primeros 128 bytes del E-EDID contendrán una estructura EDID 1.3 (bloque EDID base).
Para los parámetros de indicación de rango dinámico de pantalla, se puede definir un nuevo Bloque Descriptor de Pantalla en la estructura de datos E-EDID. Como los dispositivos actuales desconocen tal nuevo Bloque Descriptor de Pantalla, simplemente lo ignorarán proporcionando de esa manera compatibilidad con versiones anteriores. En la siguiente tabla se enumera un posible formato de este descriptor de "comportamiento de Luminancia".
Byte # # de bytes Valores Descripción
0,1 2 00h Indica que este descriptor de 18 bytes es un descriptor de pantalla 2 1 00h Reservado
3 1 F6h Número de Etiqueta de Descriptor de Pantalla que indica que esto es un descriptor de Luminancia.
4 1 00h Reservado
5 1 Peak_Luminance
6-8 3 curva de transferencia (opcional; por ejemplo alfa, beta, compensación)
Peak_Luminance es un parámetro con un valor entre 0 y 255 que indica la luminancia pico de la pantalla de acuerdo con:
luminancia pico de pantalla (cd/m2) = 50 x Peak_Luminance,
cubriendo de esa manera un rango de 0 a 255*50=12750 cd/m2
o 255*100
La curva de transferencia puede ser una curva gamma (como en ITU601, ITU709, etc.) pero permitiendo una gamma mucho más alta (hasta 10). O en algunos escenarios puede ser más apropiado un parámetro de curva de transferencia (o registro) diferente. Por ejemplo, en lugar de la función gamma:
x r
una función de potencia:
a ^ x—A
podría usarse donde los parámetros a, p y A se pueden establecer para proporcionar la caracterización deseada.
La información adicional puede de este modo ser usada por el dispositivo de procesamiento de imágenes 103 para tomar decisiones más avanzadas para determinar diferentes niveles de gris de vídeo y gráficos (o componentes de múltiples imágenes), como por ejemplo el procesamiento global tales como modificaciones basadas en gamma. Al tener más información, tal como sobre cómo la pantalla remapeará la gamma de todos los valores de gris, el procesador de rango dinámico 203 puede tomar decisiones mucho más inteligentes para el aspecto final del vídeo y las imágenes secundarias (y cómo pueden superponerse en luminancia, dependiendo también por ejemplo de propiedades geométricas como qué tan grandes son las subregiones etc.).
En los ejemplos previos, la pantalla 107 proporciona una indicación de rango dinámico de pantalla que informa al dispositivo de procesamiento de imágenes 103 cómo la pantalla mostrará una señal de visualización entrante. Específicamente, la indicación de rango dinámico de pantalla puede indicar el mapeo entre los valores de accionamiento y la salida de luz que se aplica por la pantalla. De este modo, en estos ejemplos la indicación de rango dinámico de pantalla informa al dispositivo de procesamiento de imágenes 103 del rango dinámico disponible y cómo se presenta este, y el dispositivo de procesamiento de imágenes 103 es libre de adaptar la transformada de rango dinámico como lo considere conveniente.
Sin embargo, en algunos sistemas la pantalla también puede ser capaz de ejercer algún control sobre la transformada de rango dinámico realizada por el dispositivo de procesamiento de imágenes 103. Específicamente, la indicación de rango dinámico de pantalla puede comprender datos de control de transformada de rango dinámico, y el procesador de rango dinámico 203 puede estar dispuesto para realizar la transformada de rango dinámico en respuesta a estos datos de control de transformada de rango dinámico.
Los datos de control pueden definir por ejemplo una operación o parámetro de la transformada de rango dinámico que se debe aplicar, se puede aplicar o que se recomienda que se aplique. Los datos de control pueden además diferenciarse para diferentes características de la imagen que va a ser codificada. Por ejemplo, se pueden proporcionar datos de control individuales para una pluralidad de posibles imágenes iniciales, tales como un conjunto para una imagen de LDR de 500 nits, otro para una imagen codificada de 1000 nits etc.
Como ejemplo, la pantalla puede especificar qué mapeo de tonos se debe realizar por el procesador de rango dinámico 203 dependiendo del rango dinámico de la imagen recibida. Por ejemplo, para una pantalla de 2000 nits, los datos de control pueden especificar un mapeo que se debe usar al mapear desde una imagen de LDR de 500 nits, y otro mapeo que se debe usar al mapear desde una imagen de 1000 nits etc.
En algunos escenarios, los datos de control pueden especificar los límites entre los mapeos estando los mapeos predeterminados dentro de cada intervalo (por ejemplo estandarizados o conocidos tanto en el lado de proveedor de contenido como en el lado de generador). En algunos escenarios, los datos de control pueden definir además elementos de los diferentes mapeos o pueden incluso especificar los mapeos con precisión, por ejemplo usando un valor gamma o especificando una función de transformación específica.
En algunas realizaciones, los datos de control de transformada de rango dinámico pueden especificar directa y explícitamente la transformada de rango dinámico que se debe realizar para transformar la imagen recibida en una imagen con un rango dinámico que corresponde al rango dinámico de la pantalla. Por ejemplo, los datos de control pueden especificar un mapeo directo de los valores de imagen de entrada a los valores de imagen de salida para un rango de puntos blancos de imagen recibida. El mapeo puede proporcionarse como un parámetro simple que permite que la transformada apropiada se realice por el procesador de rango dinámico 203 o pueden proporcionarse datos detallados tales como una tabla de búsqueda específica o una función matemática.
Como ejemplo de baja complejidad, la transformada de rango dinámico puede simplemente aplicar una función lineal según piezas a los valores de entrada de una imagen de LDR para generar valores de HDR mejorados (o a los valores de entrada de una imagen de HDR para generar valores de LDR mejorados). De hecho, en muchos escenarios, se puede usar un mapeo simple que consiste en dos relaciones lineales como se ilustra en la figura 20.
Específicamente, como se describió previamente, tal enfoque puede proporcionar una transformada de rango dinámico que mantiene las áreas oscuras de una imagen para permanecer oscuras mientras que al mismo tiempo permite que se use el rango dinámico sustancialmente aumentado para proporcionar una representación mucho más brillante de las áreas brillantes, así como de hecho un rango medio mejorado y de aspecto más vivo. Sin embargo, la transformación exacta depende del rango dinámico de la imagen recibida así como del rango dinámico de la pantalla de destino final. En algunos sistemas, la pantalla puede especificar de este modo un mapeo de tonos que va a ser realizado por el dispositivo de procesamiento de imágenes 103 simplemente comunicando las coordenadas del punto de inflexión de la función (es decir de la intersección entre los elementos lineales del mapeo).
Una ventaja de tal relación simple es que el mapeo de tonos deseado se puede comunicar con una sobrecarga muy baja. De hecho, un simple valor de datos de dos componentes puede especificar el mapeo de tonos deseado que va a ser realizado por el dispositivo de procesamiento de imágenes 103 para diferentes pantallas. Se pueden comunicar diferentes coordenadas del punto de "inflexión" para diferentes imágenes de entrada y el dispositivo de procesamiento de imágenes 103 puede determinar valores adecuados para otras imágenes de entrada interpolando entre los valores proporcionados.
Se apreciará que la mayoría de los comentarios proporcionados con respecto a la provisión de datos de control de transformada de rango dinámico desde el aparato proveedor de contenido 101 se aplican igualmente bien (haciendo los cambios necesarios) a los datos de control de transformada de rango dinámico recibidos desde la pantalla 107.
De este modo, en algunos escenarios la pantalla 107 puede estar en control de la transformada de rango dinámico realizada por el dispositivo de procesamiento de imágenes 103. Una ventaja de tal enfoque es que puede por ejemplo permitir a un usuario controlar la imagen representada deseada controlando la pantalla y sin ningún requisito de proporcionar entradas o configuraciones de usuario al dispositivo de procesamiento de imágenes 103. Esto puede ser particularmente ventajoso en escenarios donde se usa una pluralidad de dispositivos de procesamiento de imágenes con la misma pantalla, y en particular puede ayudar a proporcionar homogeneidad entre imágenes de diferentes dispositivos de procesamiento de imágenes.
En muchas implementaciones, los datos de control de la pantalla 107 pueden no especificar un mapeo de tonos específico que se debe realizar sino más bien proporcionar datos que definen límites dentro de los cuales la transformada de rango dinámico/mapeo de tonos se puede adaptar libremente mediante el dispositivo de procesamiento de imágenes 103.
Por ejemplo, en lugar de especificar un punto de transición específico para la curva de la figura 20, los datos de control pueden definir límites para el punto de transición (con posiblemente límites diferentes que se proporcionan para diferentes niveles de brillo máximo). De este modo, el dispositivo de procesamiento de imágenes 103 puede determinar individualmente los parámetros deseados para la transformada de rango dinámico de tal manera que esto pueda configurarse para proporcionar la transición preferida para la pantalla específica teniendo en cuenta por ejemplo las preferencias específicas de usuario. Sin embargo, al mismo tiempo la visualización puede restringir esta libertad a un nivel aceptable.
De este modo, los datos de control de transformada de rango dinámico pueden incluir datos que definen parámetros de transformada que deben ser aplicados por la transformada de rango dinámico realizada por el procesador de rango dinámico 203 y/o que definen límites para los parámetros de transformada. Los datos de control pueden proporcionar tal información para un rango de rangos dinámicos de imágenes de entrada permitiendo de esa manera la adaptación de la transformada de rango dinámico a diferentes imágenes recibidas. Además, para las imágenes de entrada con rangos dinámicos no incluidos explícitamente en los datos de control, se pueden generar valores de datos apropiados a partir de los valores de datos disponibles, por ejemplo mediante interpolación. Por ejemplo, si se indica un punto de inflexión entre dos piezas lineales para una imagen de entrada de 500 nits y una de 2000 nits, se puede encontrar un valor adecuado para una imagen de entrada de 1000 nits mediante una simple interpolación (por ejemplo mediante un promedio simple en el ejemplo específico).
Se apreciará que se pueden usar muchos enfoques diferentes y variados tanto para la transformada de rango dinámico como para cómo restringir, adaptar y controlar esta desde el lado de pantalla mediante datos de control adicionales en diferentes sistemas dependiendo de las preferencias y requisitos específicos de la aplicación individual.
En algunos escenarios, los datos de control pueden proporcionar simplemente una sugerencia de mapeo adecuado que se puede aplicar por ejemplo en el área de rango medio. En tal caso, el fabricante de pantalla puede ayudar en consecuencia al dispositivo de procesamiento de imágenes 103 a proporcionar parámetros de transformada de rango dinámico sugeridos que se han encontrado (por ejemplo a través de una optimización manual por el fabricante de pantalla) que proporcionan una alta calidad de imagen cuando se visualizan en la pantalla específica. El dispositivo de procesamiento de imágenes 103 puede usar esto ventajosamente pero es libre de modificar el mapeo por ejemplo para acomodarlo a las preferencias individuales de usuario.
En muchos escenarios el mapeo que se realiza al menos parcialmente sobre la base de los datos de control representará una relación funcional de complejidad relativamente baja, tal como un mapeo gamma, curva S, mapeo combinado definido por especificaciones parciales para rangos individuales etc. Sin embargo, en algunos escenarios se pueden por supuesto usar mapeos más complejos.
Como se mencionó, los datos de control pueden proporcionar datos de control obligatorios o voluntarios. De hecho, los datos recibidos pueden incluir uno o más campos que indican si los parámetros de mapeo de tonos proporcionados son obligatorios, permitidos o sugeridos.
En algunos sistemas, la pantalla puede ser capaz de operar de acuerdo con diferentes rangos dinámicos. Por ejemplo, una pantalla de HDR muy brillante con una luminancia de punto blanco de, por decir, 5000 nits también puede ser capaz de operar en un modo de visualización con una luminancia de punto blanco de 4000 nits, otra con 3000 nits, una con 2000 nits, otra adicional con 1000 nits y finalmente puede operar en un modo de LDR que tiene una luminancia blanca de solo 500 nits.
En tal escenario, la señal de datos de la pantalla puede indicar una pluralidad de rangos dinámicos de luminancia. De este modo, cada uno de los diferentes rangos dinámicos de luminancia puede corresponder a un modo de rango dinámico para la pantalla. En tal disposición, el procesador de rango dinámico 203 puede seleccionar uno de los rangos dinámicos de luminancia y proceder a realizar la transformada de rango dinámico en respuesta al rango dinámico de pantalla seleccionado. Por ejemplo, el procesador de rango dinámico 203 puede seleccionar el rango dinámico de 2000 nits y luego proceder a realizar la transformada de rango dinámico para optimizar la imagen generada para esta luminancia de punto blanco.
La selección de un rango dinámico de luminancia adecuado para la pantalla puede ser dependiente de diferentes aspectos. En algunos sistemas, el dispositivo de procesamiento de imágenes 103 puede estar dispuesto para seleccionar un rango dinámico de pantalla adecuado con base en el tipo de imagen. Por ejemplo, cada rango puede estar asociado con un tipo de imagen dado, y el dispositivo de procesamiento de imágenes 103 puede seleccionar el tipo de imagen que corresponda más estrechamente a la imagen recibida y luego proceder a usar el rango dinámico asociado con este tipo de imagen.
Por ejemplo, se puede definir un número de tipos de imágenes que corresponden a diferentes tipos de contenido. Por ejemplo, un tipo de imagen puede estar asociado con dibujos animados, otro con un partido de fútbol, otro con un programa de noticias, otro con una película etc. El dispositivo de procesamiento de imágenes 103 puede entonces determinar el tipo apropiado para la imagen recibida (por ejemplo con base en metadatos explícitos o en un análisis de contenido) y proceder a aplicar el rango dinámico correspondiente. Esto puede dar como resultado por ejemplo que los dibujos animados se presenten de manera muy vívida y con alto contraste y alto brillo, mientras que permite al mismo tiempo que por ejemplo las películas oscuras no se representen de manera poco natural.
El sistema puede de este modo adaptarse a las señales específicas que se representan. Por ejemplo, un vídeo de consumo pobremente hecho, un partido de fútbol muy iluminado, un programa de noticias bien iluminado (por ejemplo escenas con contraste reducido) etc. se pueden mostrar de manera diferente y específicamente, el rango dinámico de la imagen representada se puede adaptar al que sea específicamente adecuado para la imagen específica.
Fue mencionado previamente que la pantalla puede proporcionar datos de control al dispositivo de procesamiento de imágenes 103. Sin embargo, en algunos sistemas alternativa o adicionalmente puede ser el dispositivo de procesamiento de imágenes 103 que proporciona datos de control a la pantalla 107.
De este modo, como se ilustra en la figura 22, el dispositivo de procesamiento de imágenes 103 puede comprender un controlador 2201 que es capaz de emitir una señal de datos de control de pantalla a la pantalla 107.
La señal de control de pantalla puede instruir específicamente a la pantalla que opere en el modo de rango dinámico específico que fue seleccionado por el dispositivo de procesamiento de imágenes 103 para la imagen específica. De este modo, como resultado, una imagenam ateurpobremente iluminada se representará con un rango dinámico bajo, evitándose de esa manera la introducción de errores inaceptables debido a la transformación a un rango dinámico alto que en realidad no está presente en la imagen original. Al mismo tiempo, el sistema puede adaptarse automáticamente de tal manera que las imágenes de alta calidad puedan transformarse efectivamente en imágenes de alto rango dinámico y presentarse como tales. Como ejemplo específico, para una secuencia de vídeoamateur,el dispositivo de procesamiento de imágenes 103 y la pantalla pueden adaptarse automáticamente con el fin de presentar el vídeo con un rango dinámico de 1000 nits. Sin embargo, para una imagen de alta calidad capturada profesionalmente, el dispositivo de procesamiento de imágenes 103 y la pantalla 107 pueden adaptarse automáticamente para presentar el vídeo usando todo el rango dinámico de 5000 nits del que es capaz la pantalla 107.
La señal de control de pantalla puede generarse de este modo para incluir comandos tales como "usar un rango dinámico de 1000 nits", "usar rango de LDR", "usar rango dinámico máximo" etc.
Los datos de control de pantalla se pueden usar para proporcionar un número de comandos en la dirección de avance (desde el dispositivo de procesamiento de imágenes 103 a la pantalla). Por ejemplo, los datos de control pueden incluir instrucciones de procesamiento de imágenes para la pantalla y específicamente pueden incluir indicaciones de mapeo de tonos para la pantalla.
Por ejemplo, los datos de control pueden especificar una configuración de brillo, configuración de recorte o configuración de contraste que se debe aplicar por la pantalla 107. La instrucción de procesamiento de imágenes puede de este modo definir una operación obligatoria, voluntaria o sugerida que se debe realizar por la pantalla 107 en la señal de visualización recibida. Estos datos de control pueden de este modo permitir que el dispositivo de procesamiento de imágenes 103 controle algo del procesamiento que se realiza por la pantalla 107.
Los datos de control pueden por ejemplo especificar que se debe aplicar o no se debe aplicar un filtrado específico. Como otro ejemplo, los datos de control pueden especificar cómo se deben realizar las operaciones de luz de fondo. Por ejemplo, la pantalla puede ser capaz de operar en un modo de baja potencia que usa una atenuación local agresiva de una luz de fondo o puede ser capaz de operar en un modo de alta potencia donde la atenuación local solo se usa cuando puede mejorar la representación de áreas oscuras. Los datos de control se pueden usar para conmutar la visualización entre estos modos de operación.
Los datos de control pueden en algunos ejemplos especificar un mapeo de tonos específico que se debe realizar por la pantalla, o pueden de hecho especificar que las funciones de mapeo de tonos deben desactivarse (permitiendo de esa manera que el dispositivo de procesamiento de imágenes 103 controle completamente el mapeo de tonos global).
Se apreciará que en algunas realizaciones, el sistema puede usar datos de control en ambas direcciones, es decir tanto en una dirección hacia adelante desde el dispositivo de procesamiento de imágenes 103 a la pantalla 107 como en una dirección hacia atrás desde la pantalla 107 al dispositivo de procesamiento de imágenes 103. En tales casos, puede ser necesario introducir condiciones y reglas operativas que resuelvan potenciales conflictos. Por ejemplo, se puede disponer que el dispositivo de procesamiento de imágenes 103 sea el dispositivo maestro que controla la pantalla 107 y anula la pantalla 107 en caso de conflictos. Como otro ejemplo, los datos de control pueden restringirse a parámetros específicos en las dos direcciones de tal manera que no se produzcan conflictos.
Como otro ejemplo, las relaciones maestro y esclavo pueden ser configuradas por el usuario. Por ejemplo, un dispositivo de procesamiento de imágenes 103 y una pantalla 107 pueden estar ambos dispuestos para proporcionar datos de control para la otra entidad, y pueden específicamente ser ambos capaces de operar como el dispositivo maestro. En tales sistemas el usuario puede designar uno de los dispositivos como dispositivo maestro con el otro volviéndose un dispositivo esclavo. El usuario puede seleccionar esto específicamente con base en una preferencia para él para controlar el sistema desde el dispositivo de procesamiento de imágenes 103 o desde la pantalla 107.
El sistema descrito anteriormente puede de este modo permitir la comunicación entre el proveedor de contenido y el dispositivo de procesamiento de imágenes y/o la comunicación entre el dispositivo de procesamiento de imágenes y la pantalla. Estos enfoques podrían aplicarse en muchos sistemas que presentan un canal de comunicación entre un proveedor de contenido y un dispositivo de procesamiento de imágenes y/o entre un dispositivo de procesamiento de imágenes y una pantalla. Ejemplos incluyen BDROM, ATSC y DVB, o internet, etc.
El sistema puede utilizar un canal de comunicación entre un dispositivo de procesamiento de imágenes y una pantalla tal como una interfaz de comunicación de HDMI o Display Port. Esta comunicación puede ser en dos direcciones. Por ejemplo, si una pantalla inteligente está haciendo todo el mapeo óptimo de vídeo y gráficos, el dispositivo de procesamiento de imágenes puede por ejemplo leer los parámetros de control y reformatearlos y transmitirlos en una estructura de HDMI similar.
El enfoque se puede aplicar particularmente en un sistema de BDROM. Como tal el enfoque puede ampliar las especificaciones de BDROM para permitir la transmisión de parámetros de pantalla de destino y comandos de control. El uso de tales datos, en combinación con los parámetros de visualización de usuario final, puede permitir que el reproductor de BDROM por ejemplo:
• realice mapeo de tonos de vídeo y/o gráficos adicionales u otro procesamiento en el reproductor dependiendo de las características de la pantalla de destino y la pantalla de usuario final.
• realice mapeo de tonos de vídeo y/o gráficos adicionales u otro procesamiento dirigido por comandos en el flujo de datos proporcionado por el proveedor de contenido.
En algunas realizaciones, el dispositivo de procesamiento de imágenes 103 también puede comprender un transmisor para transmitir datos de control de rango dinámico al aparato proveedor de contenido 101. De este modo, el dispositivo de procesamiento de imágenes 103 puede ser capaz de controlar o al menos influir en el procesamiento o la operación realizada en el aparato proveedor de contenido 101.
Como ejemplo específico, los datos de control pueden incluir una indicación de un rango dinámico preferido para la imagen y pueden incluir específicamente una indicación de un rango dinámico (por ejemplo luminancia de punto blanco y opcionalmente función de EOTF o gamma) para la pantalla de usuario final.
En algunas realizaciones, el aparato proveedor de contenido 101 puede estar dispuesto para tener en cuenta la indicación del rango dinámico preferido al realizar un mapeo de tonos. Sin embargo, en otras realizaciones, el aparato proveedor de contenido 101 puede proporcionar un número de mapeos de tonos predeterminados, por ejemplo que involucran una mapeo de tonos manual por un experto de mapeo de tonos. Por ejemplo, se puede generar una imagen mapeada en tonos para una pantalla de 500 nits, para una pantalla de 1000 nits y para una pantalla de 2000 nits.
En tal escenario, el aparato proveedor de contenido 101 puede estar dispuesto para seleccionar qué imagen transmitir al dispositivo de procesamiento de imágenes 103 con base en los datos de control recibidos. Específicamente, se puede seleccionar la imagen que esté más próxima al rango dinámico indicado por los datos de control y transmitir la imagen al dispositivo de procesamiento de imágenes 103.
Tal enfoque puede ser particularmente adecuado para una aplicación de generación de flujo donde la señal generada en flujo puede actualizarse dinámicamente para coincidir lo más posible con el rango dinámico de la pantalla de usuario final.
El enfoque puede reducir el grado de transformación de rango dinámico que se debe aplicar en el dispositivo de procesamiento de imágenes 103 y puede específicamente para escenarios donde el aparato proveedor de contenido 101 puede proporcionar un tono de imagen mapeado al mismo rango dinámico que la pantalla de usuario final permitir que la transformada de rango dinámico sea una operación nula simple (es decir puede permitir que la imagen recibida sea usada directamente por el dispositivo de procesamiento de imágenes 103.
Hay diversos escenarios de aplicación en los cuales las presentes realizaciones pueden ser útiles. Por ejemplo, la codificación de un punto blanco particular, o blanco deseado, o valor similar con el contenido de imagen de píxeles (por ejemplo una codificación DCT de las texturas de objetos locales), permite una asignación más inteligente de los niveles de código necesarios frente a las luminancias de salida deseadas para diversas señales de salida posibles. Por ejemplo, se puede codificar la textura de un recinto oscuro como si estuviera bien iluminado (es decir hasta lumas de píxeles de 255, en lugar de tener un luma máximo de por ejemplo 40 en la imagen de escena oscura), pero especificar que el "blanco", es decir los 255 tiene que tratarse de una forma particular, es decir que tiene que representarse oscuro. Una forma sencilla de hacer esto es cocodificar por ejemplo la luminancia de salida que va a ser representada en la pantalla, para este código de luma de 255. Se puede hacer lo mismo para codificar valores predominantemente muy brillantes, tal como por ejemplo en una escena brumosa con luces fuertes en ella.
En cuanto a la gamma, esta se puede usar por ejemplo para indicar si el material fue codificado por ejemplo a partir de material negativo de celuloide gradual, o con una cámara digital con una configuración de saturación fuerte. O cualquier otra razón para desviarse de una intención gamma a otra, típicamente para la pantalla final en la cual se producirá la representación. Las EOTF típicamente pueden codificar por ejemplo un comportamiento de valores grises bastante aproximados, tal como la compensación de por ejemplo una pantalla con una gamma diferente o de diferentes entornos de visualización, compensables como gammas diferentes. Por tanto se puede transmitir información tal como "señal codificada/prevista para, por ejemplo, optimizada en, pantalla de referencia de gamma= X", de tal manera que otra pantalla con otras características conozca cómo procesarla para obtener una representación más óptima hacia las intenciones del artista. Los mapeos de tonos pueden ser más genéricos, ya que también pueden transmitir por ejemplo qué intenciones de representación típicas fueron aplicadas a la imagen (por ejemplo los artistas hicieron las nubes más amenazadoramente oscuras, lo cual con cualquier matemática de representación de pantalla final, aún debería mostrarse al menos aproximadamente en la imagen mostrada de salida).
Se elucida un ejemplo adicional por medio de la figura 23, a saber el principio de codificar cualquier escena de HDR (aproximadamente) en una imagen de LDR ("HDR_encoded_as_LDR"), que podría ser por ejemplo un estándar de imagen de 10 bits, pero se explicará la interesante variante de codificación en una imagen clásica de 8 bits, es decir una imagen que sea compatible por ejemplo con un estándar de MPEG2 o AVC, y que podría así usarse directamente mediante una tecnología de representación clásica. Aunque se pueden desear muchos bits para una señal de HDR, por ejemplo 12, 16 o 22, 8 bits para el canal de luma ya transmiten mucha información (muchos colores posibles, especialmente para aproximar texturas complejas) para cualquier blanco pico de una representación. También, muchas señales de HDR pueden permitir un grado significativo de aproximación, dado que por ejemplo no es necesario codificar el sol exactamente con el brillo que realmente tiene, dado que se aproximará de todos modos cuando se represente en una pantalla. Para los rangos de LDR de luminancia, incluso una cantidad menor de bits a menudo será razonablemente suficiente, dado que por ejemplo 6 bits dan una aproximación/calidad razonable de una imagen (como se conoce de la impresión).
En el ejemplo se codifica por tanto una imagen de HDR exactamente dentro de una estructura de luma de 8 bits, aplicando los mapeos apropiados es decir transformaciones matemáticas al menos en las luma de los píxeles, que típicamente son simples. Los criterios son que por un lado (al cocodificar las transformaciones), se puede reconstruir la imagen de HDR (es decir por ejemplo una aproximación de interpolación de 8 bits o 12 bits prevista para una representación de pantalla de 0.1-5000 nits) a partir de la imagen de LDR codificada de 8 bits, invirtiendo los mapeos cocodificados (sin la necesidad de ninguna o significativa posterior corrección), es decir la imagen de HDR se verá ya sea psicovisualmente (casi) indistinguible, o al menos seguirá siendo una buena imagen de HDR (es decir mostrará típicamente el aspecto de escena de HDR, aproximándose a cómo se representaría el HDR si fuera generado directamente a partir de la imagen de HDR original por ejemplo de 12 bits IM_HDR, con su rango de HDR HDR_Rng de las luminancias que van a ser representadas). Pero por otro lado, se desea una imagen de LDR, es decir si la señal de 8 bits fuera aplicada directamente a una pantalla de LDR de por ejemplo 0.1-400 nit, que aún permite una buena representación visual. Por ejemplo, uno podría simplemente comprimir linealmente la imagen de HDR IM_HDR al rango LDR LDR_Rng por ejemplo eliminando los bits menos significativos y asumiendo que el blanco (valor de código máximo 255) está previsto para ser representado a 400 nit. Sin embargo, debido a que tales imágenes de HDR típicamente contienen objetos muy brillantes en la parte superior de su rango de luma, tal imagen de 8 bits se verá demasiado oscura en una pantalla de LDR, debido a que las partes más oscuras relevantes de la imagen/escena ahora terminarán en códigos de luma muy bajos, es decir luminancias de salida de pantalla. Sin embargo, ya se pueden lograr muchas mejoras aplicando una gamma óptima antes de la codificación de la imagen de HDR/12bit/5000nit en la representación clásica de LDR/8bit/400nit por ejemplo AVC. Es decir, esta gamma mapeará los objetos brillantes a las partes más brillantes (por ejemplo haciéndolos menos contrastantes y pastel pero aún aceptables en la pantalla de LDR, pero con suficiente información para hacer un mapeo inverso razonable a HDR de nuevo), coordinado de manera óptima al mismo tiempo no apretando demasiado las partes más oscuras (por ejemplo árbol oscuro), de tal manera que estos objetos oscuros todavía se vean razonablemente brillantes en la pantalla de LDR (y también se puede recrear una buena parte oscura de HDR para una visualización envolvente de visualización oscura; o están disponibles suficientes datos de textura para una codificación más brillante de estos en la pantalla de HDR).
En general, tal mapeo puede ser una transformación global genérica de los lumas (es decir un mapeo que no tiene en cuenta detalles geométricos locales, tales como dónde reside un píxel en la imagen, o cuáles son los lumas de sus píxeles vecinos, o a qué tipo de objeto de escena pertenece, sino que más bien solo toma como entrada el valor de luma del píxel). Se pueden cocodificar mapeos algo más complejos, tal como una transformación solo para una subregión u objeto demarcado en la imagen (mapeo local, en cuyo caso típicamente se cocodifica información adicional tal como la definición del límite del objeto). Pero en general, aunque se podría prever cualquier transformación para trabajar con nuestras realizaciones divulgadas, aunque sea solo para reducir la cantidad de trabajo de típicamente un calificador humano que define estos mapeos óptimos, típicamente serán pocas y simples (no se codificará ningún mapeo local si una función global general tal como una curva S o un función seccionada multipunto es suficiente).
Se elucida el ejemplo con un aparato de codificación de imágenes de lado de creador de contenido 510, con codificación optimizada para humanos de la imagen de salida que es típicamente una imagen de LDR de 8 bits Im_1 (como típicamente se abarca con las funciones de transformación/mapeo o estrategias algorítmicas como metadatos<m>E<t>en alguna estructura de señal de imagen S tal como se prescribe en AVC o HEVC) a una memoria (tal como un disco Blu-ray 511, o una memoria temporal, para codificación final en una señal que va a ser almacenada o transmitida). Este calificador puede verificar la imagen en una o más pantallas 530, por ejemplo verificando si tanto la imagen de LDR como de HDR recuperable se ven bien en las respectivas pantallas de LDR y HDR de referencia, antes de enviar sus instrucciones a la unidad de codificación de imagen 550 (que realiza el mapeo al luma de 8 bits) y al formateador 554, que finaliza la imagen y sus códigos de color de acuerdo con el estándar de codificación de imagen usado actualmente, y cocodifica la imagen de textura con los metadatos de la transformación a una salida 512.
En la parte superior se ve cómo la imagen de HDR IM_HDR (que se ingresa a través de una entrada 511 del aparato de codificación de imágenes 510) con su rango de HDR se mapea a la imagen de LDR con su rango de LDR de luminancias representadas si está en una pantalla de LDR.
Aunque se elucida el "HDR_encoded_as_LDR" con una codificación en un lado de creación de contenido para la transmisión a un lado de uso de contenido tal como la vivienda de un consumidor, las mismas realizaciones "HDR_encoded_as_LDR" obviamente también se pueden usar cuando se transmite (por ejemplo mediante transcodificación) entre diferentes aparatos, tales como por ejemplo dos aparatos domésticos en una red doméstica. Luego por ejemplo una unidad de análisis y mapeo automático de imágenes puede aplicar un análisis automático de imágenes y un método de mapeo de luma correspondiente. Esto se puede hacer por ejemplo mediante un aparato receptor o de almacenamiento de contenido cuando tiene una primera representación de imagen, tal como por ejemplo la imagen de HDR de 12 bits, y la envía a través de una conexión de HDMI u otra de red a un televisor. O la imagen de LDR de 8 bits puede codificarse de acuerdo con o para un estándar inalámbrico, para generarse en flujo a una pantalla móvil, con capacidades de HDR, aunque de todos modos de menor calidad visual.
Típicamente, al menos para los nuevos estándares de HDR, en caso de que se realice tal codificación de 8 bits (por ejemplo luma de 8 bits y codificaciones normales de 2x8 bits para croma) en un esquema de LDR clásico (por ejemplo MPEG), el estándar anotará en los metadatos que esta imagen de LDR en realidad no es una imagen de LDR destinada principalmente a pantallas de lDr (aunque como se dijo, puede que se haya construido de tal manera que aún se vea razonable en una pantalla de LDR de por ejemplo 100 nits de brillo pico o blanco pico), sino que es una imagen de HDR. Esto puede hacerse con un código de HDR genérico, que se supone por ejemplo que da representaciones razonables para pantallas de HDR con un brillo pico de alrededor de 3500 nits. La referencia de primera pantalla de destino cocodificada en metadatos también puede ser algo más específica, ya que esta señal de h Dr fue calificada originalmente en por ejemplo una pantalla de 5000 nits. Esto significará que los lumas reales de los objetos de imagen (también cuando se mapean a lumas de LDR) tendrán valores dependiendo de lo que típicamente se representa en una pantalla de 5000 nits (por ejemplo reservando un subrango de alto brillo y empujando el objeto de escena de brillo normal, típicamente los objetos principales en la escena, hacia valores de luma más profundos, ya en la gradación en bruto de HDR de 16 bits por ejemplo). En este caso, una pantalla real de 3500 nit o 2500 nit, en lugar de usar solo la señal de HDR para accionar la pantalla asumiendo que aún dará una imagen razonable (el brillo pico estando en un rango alrededor del valor deseado de 5000 nit), puede optimizar además sus funciones de transformación de color para un mapeo de gama de manera óptima a la gama de pantalla real de acuerdo con un criterio de calidad (por ejemplo similitud de luminancia de salida o una medida de calidad de apariencia psicovisual en los efectos de HDR, etc.). Incluso se podría cocodificar un segundo valor de brillo pico para la imagen HDR_encoded_as_LDR final (por ejemplo, se ve más razonable en una pantalla de 250 nits, comenzando a mostrar ligeros artefactos en brillos pico más altos y o más bajos, potencialmente incluso especificando además tales artefactos, preferiblemente de una forma funcional (por ejemplo ubicación geométrica, etc.), de tal manera que un generador pueda intentar corregir los artefactos).
Con pantalla de HDR se refiere a una pantalla de un brillo pico mayor que 750 nits, siendo las pantallas con un brillo pico inferior y especialmente por debajo de 500 nits las pantallas de LDR.
El criterio de calidad predeterminado para juzgar si la representación de LDR y la representación de HDR de una señal de HDR recuperada de la imagen de LDR (típicamente derivada solamente mediante la inversión de los mapeos cocodificados, pero se puede realizar algún procesamiento adicional, como el aparato de lado receptor que puede aplicar un procesamiento de imagen que mitigue el límite de cuantificación por ejemplo) será ya sea un algoritmo matemático o el operador humano que juzga que es lo suficientemente bueno al codificar las codificaciones de imagen finales para distribución. Tanto los estimadores de calidad aplicados por humanos como codificados por software aplicarán tales criterios de análisis de imágenes como: hay suficiente contraste (local) en diversas regiones (es decir aún se conserva suficiente visibilidad de la imagen original por ejemplo escaneo negativo de celuloide maestro de HDR de 12 o 14 bits), en particular las regiones centrales en la imagen, hay muchos artefactos como límites de cuantificación y qué tan grandes o anchas son las etapas, hay suficientes submodos espaciales del histograma de luminancia (se conserva el aspecto/intención cinematográfica original), en particular, los objetos separados espacialmente tienen suficiente contraste interregiones, etc. Y, en particular, si hay originales presentes, como por ejemplo en un sistema en red de aparatos conectados, el aparato emisor (por ejemplo un decodificador) juzga si la señal de HDR recuperable es suficientemente cercana a la señal de HDR original por ejemplo de 12 bits presente en esa ubicación (lo cual se puede hacer con base en tales criterios matemáticos como MSE o PSNR, o diferencias ponderadas psicovisualmente, etc.). Por ejemplo, después de una transformación de luma automática y un ajuste de color automático correspondiente (que puede ser por ejemplo una función gamma o una función de potencia similar, o una curva S, ajustada a tales factores como un brillo típico por ejemplo medio en la escena, o un análisis de imagen adicional como la detección de pequeñas regiones brillantes y darles su propio subrango y función de mapeo correspondiente, etc.), un calificador de color (por ejemplo después de haber realizado primero la gradación maestra en el HDR original de 16 bits) entonces calificará en color además la imagen HDR_encoded_as_LDR. Por un lado, esto se hace por tanto para dar una buena gradación de LDR utilizable, pero por otro lado también un HDR recuperable, por lo que pueda asignar regiones que contienen información importante a subregiones del rango de LDR que tienen suficientes valores de código, pero aún cambiarlas a rangos de luma "promedio" que muestran una buena representación en LDR (por ejemplo no demasiado oscuro, de tal manera que las regiones más oscuras aún sean bien visibles, pero lo suficientemente oscuras para transmitir el estado de ánimo). Típicamente, él puede hacerlo modificando las funciones de mapeo de luma/color de las automáticas. Al menos los lumas deberían estar posicionados correctamente, para luego poder optimizar el color a partir de ahí. Por ejemplo, si una cierta región de fondo salió demasiado oscura en la representación de LDR, él aún puede ajustar la función de mapeo global en la parte que corresponde a esos píxeles, siempre que no empeore en otras partes de la representación de LDR y, por supuesto, a través del mapeo inverso la imagen de HDR recuperable no se vuelva de una calidad subcrítica. En principio, él podría incluso elegir calificar una región de imagen local espacialmente (ya sea por primera vez o por segunda vez además de una primera codificación de imagen para esa región) de tal manera que corresponda a otro brillo pico de pantalla, o gamma etc. diferente del resto de la imagen, de tal manera que antes de la representación el generador tendría que tener eso en cuenta. Esto podría ser útil por ejemplo para enfatizar regiones oscuras, pero en general uno simplemente mantendría las cosas fijas en una codificación de pantalla de HDR prevista. Por lo que entonces también se cocodifican la función de mapeo global de HDR a LDR (o su inversa, mapeo de LDR a_HDR) y si es aplicable datos de transformación adicionales. Los sistemas heredados ignorarán todo eso, y en principio pueden usar la imagen de LDR codificada clásicamente incluso si la primera referencia de pantalla de destino y otra información se eliminan de la señal de codificación de imagen, pero en general esto se escribirá en sectores de los datos que estaban por ejemplo reservados para la actualización y son ignorados por los sistemas más antiguos, pero usados por los más nuevos. Una caja de decodificación de imágenes de HDR podría echar un vistazo a estos datos de todos modos, incluso aunque pueda conectarse a una pantalla de LDR antigua. En lugar de simplemente aplicar la señal de LDR a la pantalla para accionar la representación, podría entonces mejorar la señal de LDR un poco mediante una transformación de color, dados todos los factores locales y toda esta información de metadatos adicional (ya sea usando solo el tipo de pantalla que estaba prevista y transformando "a ciegas" la señal ingresada de LDR con base en la similitud del entorno de representación actual con el previsto con el que estaba trabajando el calificador, o también usando parte o toda la información en las funciones de mapeo entre la codificación de LDR y la codificación de HDR original, cuya información dice algo sobre la diferencia entre las dos, es decir la naturaleza de HDR y la composición de la escena original y/o la señal de HDR calificada).
Tal señal tiene la ventaja de que cualquier sistema con capacidad de HDR conoce que en realidad se tiene una imagen de HDR codificada como un LDR y puede recuperar de manera óptima esa imagen de HDR antes de representarla, aunque los sistemas de LDR heredados, compatibles con versiones anteriores también pueden usar directamente la imagen de LDR para representación.
Debería ser claro para las personas expertas qué combinaciones se pueden hacer a partir de nuestras enseñanzas, tales como por ejemplo codificar varias gradaciones de HDR para varias pantallas de HDR por ejemplo en varias codificaciones de LDR, regradaciones, alternativas para diferentes situaciones tal como un cambio en el entorno de visualización que también puede verse como un tipo de representación de pantalla. Donde se mencionan parámetros específicos tales como codificación heredada de 8 bits, por supuesto debe entenderse que lo mismo puede hacerse con por ejemplo una tecnología de codificación de LDR de 10 bits, y no se quiere excluir de la protección ninguna variante, combinación o realización alternativa simple. Por lo que las enseñanzas de nuestras reivindicaciones pueden por supuesto combinarse y considerarse así descritas sin el tedio de una especificación explícita de todas y cada una de las variantes fácilmente colegibles, a menos que de la descripción sea claro especialmente que tal cosa no es posible o no se pretende. Por supuesto, las codificaciones se pueden usar en diversos escenarios, ya sean profesionales o por ejemplo para consumidores móviles, en varias aplicaciones como por ejemplo sistemas de seguridad, recopilación de noticias, etc. Se puede usar de manera en gran medida automática dentro de cualquier sistema técnico, como dentro de un IC o multichip, o un sistema técnico en red, etc. Algunas de las partes de la invención pueden formar aplicaciones comerciales separadas, como por ejemplo cualquiera de las gradaciones se puede realizar como una regradación en una codificación de imagen existente, ya sea que ya esté calificada de esta forma, pero ahora mejorada, o que carezca de algún tipo de gradación, como para una nueva pantalla popular o una forma de visualización.
Se apreciará que la descripción anterior para claridad ha descrito realizaciones de la invención con referencia a diferentes circuitos funcionales, unidades y procesadores. Sin embargo, será evidente que se puede usar cualquier distribución adecuada de funcionalidad entre diferentes circuitos, unidades o procesadores funcionales sin detrimento de la invención. Por ejemplo, la funcionalidad que se ilustra que debe ser realizada por procesadores o controladores separados puede ser realizada por el mismo procesador o controladores. Por tanto, las referencias a unidades funcionales o circuitos específicos solo deben verse como referencias a medios adecuados para proporcionar la funcionalidad descrita en lugar de ser indicativas de una estructura u organización lógica o física estricta.
Todas las realizaciones y enseñanzas de método corresponden a los aparatos correspondientes y potencialmente a productos adicionales tales como señales de salida, realizaciones y viceversa. La invención puede implementarse en cualquier forma adecuada incluyendo hardware, software, firmware o cualquier combinación de estos. La invención puede implementarse opcionalmente al menos parcialmente como software de ordenador que se ejecuta en uno o más procesadores de datos y/o procesadores de señales digitales. Los elementos y componentes de una realización de la invención pueden implementarse física, funcional y lógicamente de cualquier forma adecuada. De hecho, la funcionalidad puede implementarse en una única unidad, en una pluralidad de unidades o como parte de otras unidades funcionales. Como tal, la invención puede implementarse en una única unidad o puede distribuirse física y funcionalmente entre diferentes unidades, circuitos y procesadores.
Aunque la presente invención se ha descrito en relación con algunas realizaciones, no está prevista para limitarse a la forma específica establecida en este documento. Más bien, el alcance de la presente invención está limitado solamente por las reivindicaciones acompañantes. Adicionalmente, aunque una característica puede parecer que está descrita en conexión con realizaciones particulares, un experto en la técnica reconocería que diversas características de las realizaciones descritas pueden combinarse de acuerdo con la invención. En las reivindicaciones, el término que comprende no excluye la presencia de otros elementos o etapas.
Además, aunque se enumeren individualmente, una pluralidad de medios, elementos, circuitos o etapas de método pueden implementarse mediante por ejemplo un único circuito, unidad o procesador. Adicionalmente, aunque se pueden incluir características individuales en diferentes reivindicaciones, estas pueden posiblemente combinarse de manera ventajosa y la inclusión en diferentes reivindicaciones no implica que una combinación de características no sea factible y/o ventajosa. También la inclusión de una característica en una categoría de reivindicaciones no implica una limitación a esta categoría sino que más bien indica que la característica es igualmente aplicable a otras categorías de reivindicaciones según sea apropiado. Además, el orden de las características en las reivindicaciones no implica ningún orden específico en el cual se deben trabajar las características y en particular el orden de las etapas individuales en una reivindicación de método no implica que las etapas se deban realizar en este orden. Más bien, las etapas pueden realizarse en cualquier orden adecuado. Además, las referencias singulares no excluyen la pluralidad. De este modo, las referencias a "un", "uno, una", "primero", "segundo" etc. no excluyen una pluralidad. Los signos de referencia en las reivindicaciones se proporcionan solamente como un ejemplo esclarecedor que no deben interpretarse en modo alguno como que limitan el alcance de las reivindicaciones.

Claims (16)

REIVINDICACIONES
1. Un aparato de procesamiento de imágenes que comprende:
un receptor (201) dispuesto para recibir una señal de imagen, comprendiendo la señal de imagen al menos una imagen codificada y una referencia de pantalla de destino, especificando la referencia de pantalla de destino un rango dinámico de una pantalla de destino que es una pantalla para la cual la imagen codificada está optimizada y codificada;
en donde la referencia de pantalla de destino comprende una luminancia de punto blanco de la pantalla de destino que es una cantidad de nits,
y en donde la señal de imagen comprende datos de control de transformada de rango dinámico, cuyos datos de control de transformada de rango dinámico comprenden diferentes parámetros de transformada de rango dinámico para diferentes niveles de luminancia máxima de visualización, en donde los datos de control de transformada de rango dinámico son indicativos de un parámetro de una transformada de rango dinámico para la imagen codificada;
un procesador de rango dinámico (203) dispuesto para generar una imagen de salida aplicando una transformada de rango dinámico a la imagen codificada, cuya transformada de rango dinámico se adapta a la luminancia de punto blanco y a una luminancia de punto blanco de referencia, y es en respuesta a los datos de control de transformada de rango dinámico;
y una salida (205) para emitir una señal de imagen de salida que comprende la imagen de salida.
2. El aparato de procesamiento de imágenes de la reivindicación 1 en donde los datos de control de transformada de rango dinámico comprenden diferentes parámetros de mapeo de tonos para diferentes niveles de luminancia máxima de visualización, y en donde el procesador de rango dinámico (203) está dispuesto para determinar parámetros de mapeo de tonos para la transformada de rango dinámico en respuesta a los diferentes parámetros de mapeo de tonos y una luminancia máxima para la señal de imagen de salida.
3. El aparato de procesamiento de imágenes de la reivindicación 1 o 2 en donde la luminancia de punto blanco de la pantalla de destino tiene un valor de al menos 1000 nits.
4. El aparato de procesamiento de imágenes de una de las reivindicaciones anteriores en donde la referencia de pantalla de destino comprende una indicación de Función de Transferencia Electroóptica de la pantalla de destino.
5. El aparato de procesamiento de imágenes de la reivindicación 1 que comprende:
un receptor (1701) para recibir una señal de datos desde una pantalla (107), comprendiendo la señal de datos un campo de datos que comprende una indicación de rango dinámico de pantalla de la pantalla, comprendiendo la indicación de rango dinámico de pantalla al menos una especificación de luminancia; y en donde el procesador de rango dinámico (203) está dispuesto para aplicar la transformada de rango dinámico a la imagen codificada en respuesta a la indicación de rango dinámico de pantalla.
6. Un aparato de codificación de señales de imagen que comprende:
un receptor dispuesto para recibir una imagen codificada;
un generador dispuesto para generar una señal de imagen que comprende la imagen codificada y una referencia de pantalla de destino, especificando la referencia de pantalla de destino un rango dinámico de una pantalla de destino que es una pantalla para la cual la imagen codificada está optimizada y codificada; en donde la referencia de pantalla de destino comprende una luminancia de punto blanco de la pantalla de destino que es una cantidad de nits;
y en donde el generador está dispuesto para
colocar datos de control de transformada de rango dinámico en un campo de datos de la señal de imagen, cuyos datos de control de transformada de rango dinámico comprenden diferentes parámetros de transformada de rango dinámico para diferentes niveles de luminancia máxima de visualización, en donde los datos de control de transformada de rango dinámico son indicativos de un parámetro de una transformada de rango dinámico para la imagen codificada;
y un transmisor dispuesto para transmitir la señal de imagen.
7. El aparato de codificación de señales de imagen de la reivindicación 6, en donde los datos de control de transformada de rango dinámico comprenden diferentes parámetros de mapeo de tonos para diferentes niveles de luminancia máxima de visualización.
8. El aparato de codificación de señales de imagen de la reivindicación 6 o 7 en donde la luminancia de punto blanco de la pantalla de destino tiene un valor de al menos 1000 nits.
9. El aparato de codificación de señales de imagen como se reivindica en una de las reivindicaciones anteriores del aparato de codificación de señales de imagen en donde la referencia de pantalla de destino comprende una indicación de Función de Transferencia Electroóptica de la pantalla de destino.
10. Un método de procesamiento de imágenes que comprende:
recibir una señal de imagen, comprendiendo la señal de imagen al menos una imagen codificada y una referencia de pantalla de destino, especificando la referencia de pantalla de destino un rango dinámico de una pantalla de destino que es una pantalla para la cual la imagen codificada está optimizada y codificada; en donde la referencia de pantalla de destino comprende una luminancia de punto blanco de la pantalla de destino que es una cantidad de nits;
y en donde la señal de imagen comprende datos de control de transformada de rango dinámico, cuyos datos de control de transformada de rango dinámico comprenden diferentes parámetros de transformada de rango dinámico para diferentes niveles de luminancia máxima de visualización, en donde los datos de control de transformada de rango dinámico son indicativos de un parámetro de una transformada de rango dinámico para la imagen codificada;
y procesamiento de rango dinámico para generar una imagen de salida aplicando una transformada de rango dinámico a la imagen codificada, cuya transformada de rango dinámico se adapta a la luminancia de punto blanco y a una luminancia de punto blanco de referencia, y en respuesta a los datos de control de transformada de rango dinámico;
y emitir una señal de imagen de salida que comprende la imagen de salida.
11. Un método para transmitir una señal de imagen, comprendiendo el método:
recibir una imagen codificada;
generar una señal de imagen que comprende la imagen codificada y una referencia de pantalla de destino, especificando la referencia de pantalla de destino un rango dinámico de una pantalla de destino que es una pantalla para la cual la imagen codificada está optimizada y codificada;
en donde la referencia de pantalla de destino comprende una luminancia de punto blanco de la pantalla de destino que es una cantidad de nits;
en donde la señal de imagen comprende un campo de datos que comprende datos de control de transformada de rango dinámico, cuyos datos de control de transformada de rango dinámico comprenden diferentes parámetros de transformada de rango dinámico para diferentes niveles de luminancia máxima de visualización, en donde los datos de control de transformada de rango dinámico son indicativos de un parámetro de una transformada de rango dinámico para la imagen codificada;
y transmitir la señal de imagen.
12. Un producto de programa de ordenador que comprende un código de programa de ordenador adaptado para realizar las etapas de la reivindicación 10 cuando dicho programa se ejecuta en un ordenador.
13. Un producto de programa de ordenador que comprende un código de programa de ordenador adaptado para realizar las etapas de la reivindicación 11 cuando dicho programa se ejecuta en un ordenador.
14. Una señal de imagen que comprende al menos una primera imagen codificada y una primera referencia de pantalla de destino, especificando la referencia de pantalla de destino un rango dinámico de una pantalla de destino que es una pantalla para la cual la imagen codificada está optimizada y codificada;
en donde la referencia de pantalla de destino comprende una luminancia de punto blanco de la pantalla de destino que es una cantidad de nits, y en donde la señal de imagen comprende un campo de datos que comprende datos de control de transformada de rango dinámico, cuyos datos de control de transformada de rango dinámico comprenden diferentes parámetros de transformada de rango dinámico para diferentes niveles de luminancia máxima de visualización, en donde los datos de control de transformada de rango dinámico son indicativos de un parámetro de una transformada de rango dinámico para la imagen codificada.
15. La señal de imagen como se reivindica en la reivindicación 14, que comprende diferentes parámetros de mapeo de tonos para diferentes niveles de luminancia máxima de visualización.
16. La señal de imagen como se reivindica en la reivindicación 14 o 15, en donde la referencia de pantalla de destino comprende una indicación de Función de Transferencia Electroóptica de la pantalla de destino.
ES24182195T 2011-09-27 2012-09-20 Apparatus and method for dynamic range transforming of images Active ES3030342T3 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11182922 2011-09-27
US201261588731P 2012-01-20 2012-01-20
EP12160557 2012-03-21

Publications (1)

Publication Number Publication Date
ES3030342T3 true ES3030342T3 (en) 2025-06-27

Family

ID=47994354

Family Applications (3)

Application Number Title Priority Date Filing Date
ES24182195T Active ES3030342T3 (en) 2011-09-27 2012-09-20 Apparatus and method for dynamic range transforming of images
ES24181926T Active ES3033067T3 (en) 2011-09-27 2012-09-20 Apparatus and method for dynamic range transforming of images
ES12778432T Active ES3001557T3 (en) 2011-09-27 2012-09-20 Apparatus and method for dynamic range transforming of images

Family Applications After (2)

Application Number Title Priority Date Filing Date
ES24181926T Active ES3033067T3 (en) 2011-09-27 2012-09-20 Apparatus and method for dynamic range transforming of images
ES12778432T Active ES3001557T3 (en) 2011-09-27 2012-09-20 Apparatus and method for dynamic range transforming of images

Country Status (18)

Country Link
US (10) US11640656B2 (es)
EP (4) EP2745507A1 (es)
JP (4) JP6133300B2 (es)
KR (1) KR101972748B1 (es)
CN (3) CN107103588B (es)
AU (4) AU2012313935B9 (es)
BR (2) BR112014006977B1 (es)
CA (2) CA2850037C (es)
ES (3) ES3030342T3 (es)
IN (1) IN2014CN01863A (es)
MX (2) MX2014003554A (es)
PE (1) PE20141864A1 (es)
PH (3) PH12017502053B1 (es)
PL (2) PL4421797T3 (es)
RU (3) RU2761120C2 (es)
UA (1) UA116082C2 (es)
WO (2) WO2013046095A1 (es)
ZA (2) ZA201403080B (es)

Families Citing this family (344)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2638264B2 (ja) * 1990-07-30 1997-08-06 ヤマハ株式会社 電子楽器用コントローラ
US8988552B2 (en) 2011-09-26 2015-03-24 Dolby Laboratories Licensing Corporation Image formats and related methods and apparatuses
WO2013086169A1 (en) 2011-12-06 2013-06-13 Dolby Laboratories Licensing Corporation Device and method of improving the perceptual luminance nonlinearity - based image data exchange across different display capabilities
US10242650B2 (en) 2011-12-06 2019-03-26 Dolby Laboratories Licensing Corporation Perceptual luminance nonlinearity-based image data exchange across different display capabilities
TWI586150B (zh) * 2012-06-29 2017-06-01 新力股份有限公司 影像處理裝置及非暫態電腦可讀儲存媒體
KR102037716B1 (ko) * 2012-11-23 2019-10-30 삼성디스플레이 주식회사 디스플레이 장치의 감마 데이터 저장 방법, 디스플레이 장치 및 디스플레이 장치의 구동 방법
US9332215B1 (en) * 2013-01-23 2016-05-03 Rockwell Collins, Inc. System and method for displaying to airborne personnel mission critical high dynamic range video on a low resolution display
JP6420540B2 (ja) * 2013-02-04 2018-11-07 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
EP3783883B1 (en) 2013-02-21 2023-10-04 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
US10055866B2 (en) * 2013-02-21 2018-08-21 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
ES2708954T3 (es) 2013-02-21 2019-04-12 Dolby Laboratories Licensing Corp Gestión de visualización para video de alto rango dinámico
PL2959672T3 (pl) 2013-02-21 2020-06-01 Koninklijke Philips N.V. Ulepszone sposoby i urządzenia do kodowania i dekodowania obrazu hdr
US9860505B2 (en) 2013-04-30 2018-01-02 Saturn Licensing Llc Transmitting device, transmitting method, receiving device, and receiving method
CN106488246B (zh) * 2013-06-17 2019-06-11 杜比实验室特许公司 用于增强动态范围信号的分层编码的自适应整形的方法
JP2015005878A (ja) 2013-06-20 2015-01-08 ソニー株式会社 再生装置、再生方法、および記録媒体
EP3013040A4 (en) 2013-06-20 2016-12-28 Sony Corp PLAYING DEVICE, PLAYING METHOD AND RECORDING MEDIUM
TWI711310B (zh) 2013-06-21 2020-11-21 日商新力股份有限公司 送訊裝置、高動態範圍影像資料送訊方法、收訊裝置、高動態範圍影像資料收訊方法及程式
US9781401B2 (en) * 2013-06-24 2017-10-03 Sony Corporation Reproduction device, reproduction method, and recording medium
JP2015008361A (ja) * 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
JP2015008360A (ja) 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
WO2015005189A1 (ja) * 2013-07-12 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
JP2016530780A (ja) * 2013-07-14 2016-09-29 エルジー エレクトロニクス インコーポレイティド デジタル放送システムにおける高品質の色感表現のための超高画質放送信号送受信方法及び装置
US10194162B2 (en) * 2013-07-18 2019-01-29 Koninklijke Philips N.V. Methods and apparatuses for creating code mapping functions for encoding an HDR image, and methods and apparatuses for use of such encoded images
JP6419807B2 (ja) 2013-07-19 2018-11-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Hdrメタデータ転送
CN105474631A (zh) * 2013-08-20 2016-04-06 索尼公司 再现装置、再现方法以及记录介质
US9264683B2 (en) 2013-09-03 2016-02-16 Sony Corporation Decoding device and decoding method, encoding device, and encoding method
CN105531992A (zh) 2013-09-06 2016-04-27 Lg电子株式会社 用于在数字广播系统中发送和接收用于高动态范围呈现的超高清晰度广播信号的方法和装置
KR102113178B1 (ko) * 2013-09-12 2020-05-21 삼성디스플레이 주식회사 표시 장치 및 액정 표시 장치
EP3051535B1 (en) * 2013-09-27 2020-12-30 Sony Corporation Reproduction device, reproduction method, and recording medium
US9460125B2 (en) 2013-09-30 2016-10-04 Duelight Llc Systems, methods, and computer program products for digital photography
US9460118B2 (en) * 2014-09-30 2016-10-04 Duelight Llc System, method, and computer program product for exchanging images
US9508133B2 (en) 2014-11-18 2016-11-29 Duelight Llc System and method for generating an image result based on availability of a network resource
US9448771B2 (en) 2014-10-17 2016-09-20 Duelight Llc System, computer program product, and method for generating a lightweight source code for implementing an image processing pipeline
US20230061404A1 (en) * 2013-09-30 2023-03-02 Duelight Llc System, method, and computer program product for exchanging images
ES2987869T3 (es) 2013-10-10 2024-11-18 Dolby Laboratories Licensing Corp Visualización de contenido DCI y otro en un proyector de rango dinámico mejorado
JP6202330B2 (ja) * 2013-10-15 2017-09-27 ソニー株式会社 復号装置および復号方法、並びに符号化装置および符号化方法
WO2015061335A2 (en) * 2013-10-22 2015-04-30 Dolby Laboratories Licensing Corporation Guided color grading for extended dynamic range
KR101827191B1 (ko) * 2013-11-04 2018-02-07 돌비 레버러토리즈 라이쎈싱 코오포레이션 글로벌 조광을 갖는 싱글 및 멀티-모듈레이터 프로젝터 시스템들
EP2989793B1 (en) 2013-11-13 2017-04-05 Dolby Laboratories Licensing Corporation Workflow for content creation and guided display management of enhanced dynamic range video
WO2015076608A1 (ko) 2013-11-21 2015-05-28 엘지전자 주식회사 비디오 처리 방법 및 비디오 처리 장치
US10291827B2 (en) 2013-11-22 2019-05-14 Futurewei Technologies, Inc. Advanced screen content coding solution
EP3072288B1 (en) 2013-11-22 2019-06-12 Dolby Laboratories Licensing Corporation Methods and systems for inverse tone mapping
BR112016012417B1 (pt) 2013-12-18 2023-04-11 Hfi Innovation Inc Método e aparelho para inicialização e gerenciamento de paleta
EP3087738B1 (en) 2013-12-27 2019-10-02 MediaTek Inc. Method and apparatus for palette coding with cross block prediction
KR20160102438A (ko) * 2013-12-27 2016-08-30 톰슨 라이센싱 하이 다이내믹 레인지 이미지를 톤-매핑하기 위한 방법 및 장치
CA2934743C (en) 2013-12-27 2018-11-27 Hfi Innovation Inc. Method and apparatus for syntax redundancy removal in palette coding
CN110225345B (zh) 2013-12-27 2022-07-19 寰发股份有限公司 用于主颜色索引图编码的方法及装置
CN105850132B (zh) * 2014-01-07 2019-10-22 联发科技股份有限公司 编解码视频数据块的方法和装置
KR102293193B1 (ko) * 2014-01-24 2021-08-25 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
EP4432660A3 (en) 2014-02-07 2024-11-27 Sony Group Corporation Transmission device, transmission method, reception device, reception method, display device, and display method
KR20150099672A (ko) * 2014-02-22 2015-09-01 삼성전자주식회사 전자 장치 및 그것의 디스플레이 제어 방법
DE112015000950T5 (de) 2014-02-25 2016-12-08 Apple Inc. Abwärtskompatible Einrichtung und abwärtskompatibles Verfahren zum Bereitstellen von Video mit sowohl Standard- als auch hohem Dynamikbereich
EP3111635B1 (en) 2014-02-27 2018-06-27 Dolby Laboratories Licensing Corporation Systems and methods to control judder visibility
JP6439418B2 (ja) * 2014-03-05 2018-12-19 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
WO2015143351A1 (en) * 2014-03-21 2015-09-24 Futurewei Technologies, Inc. Advanced screen content coding with improved color table and index map coding methods
JP6471752B2 (ja) * 2014-05-12 2019-02-20 ソニー株式会社 通信装置及び通信方法、並びにコンピューター・プログラム
KR20170007261A (ko) * 2014-05-15 2017-01-18 소니 주식회사 통신 장치 및 통신 방법과 컴퓨터 프로그램
EP3678359B1 (en) * 2014-05-16 2025-03-05 Panasonic Intellectual Property Management Co., Ltd. Converting method and converting apparatus
JP6751901B2 (ja) * 2014-05-16 2020-09-09 パナソニックIpマネジメント株式会社 輝度変換方法、輝度変換装置および映像表示装置
KR101785671B1 (ko) * 2014-05-20 2017-11-06 엘지전자 주식회사 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
US10091512B2 (en) 2014-05-23 2018-10-02 Futurewei Technologies, Inc. Advanced screen content coding with improved palette table and index map coding methods
US9786251B1 (en) * 2014-05-28 2017-10-10 Musco Corporation Apparatus, method, and system for visually indicating perceived glare thresholds
EP3324629B1 (en) * 2014-05-28 2019-06-19 Koninklijke Philips N.V. Methods and apparatuses for encoding an hdr images, and methods and apparatuses for use of such encoded images
JP6443857B2 (ja) * 2014-06-05 2018-12-26 キヤノン株式会社 画像処理装置、画像処理方法、及び、プログラム
JP6643669B2 (ja) * 2014-06-10 2020-02-12 パナソニックIpマネジメント株式会社 表示装置および表示方法
EP3157242B1 (en) 2014-06-10 2019-07-03 Panasonic Intellectual Property Management Co., Ltd. Display system, display method, and display device
CN106105177B (zh) 2014-06-10 2019-09-27 松下知识产权经营株式会社 变换方法及变换装置
EP3157257A4 (en) * 2014-06-13 2018-01-17 Sony Corporation Transmission device, transmission method, reception device, and reception method
CN110460897B (zh) * 2014-06-16 2021-11-26 松下知识产权经营株式会社 显示装置、显示方法、再现装置及再现方法
EP2958075A1 (en) * 2014-06-20 2015-12-23 Thomson Licensing Method and apparatus for dynamic range expansion of LDR video sequence
CN105493490B (zh) * 2014-06-23 2019-11-29 松下知识产权经营株式会社 变换方法和变换装置
WO2015198552A1 (ja) * 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 コンテンツデータ生成方法、映像ストリーム伝送方法及び映像表示方法
MX358934B (es) 2014-06-26 2018-09-10 Panasonic Ip Man Co Ltd Dispositivo de salida de datos, metodo de salida de datos y metodo de generacion de datos.
EP3163894B1 (en) * 2014-06-27 2020-08-19 Panasonic Intellectual Property Management Co., Ltd. Data output device, data output method, and data generation method
JP2019216431A (ja) * 2014-06-27 2019-12-19 パナソニックIpマネジメント株式会社 表示装置
JP6731627B2 (ja) * 2014-06-30 2020-07-29 パナソニックIpマネジメント株式会社 再生装置で実行される方法、及び再生装置
CN111263096B (zh) 2014-06-30 2021-06-01 松下知识产权经营株式会社 由再现装置执行的方法以及再现装置
US9613407B2 (en) 2014-07-03 2017-04-04 Dolby Laboratories Licensing Corporation Display management for high dynamic range video
JP6478499B2 (ja) * 2014-07-07 2019-03-06 キヤノン株式会社 画像処理装置、画像処理方法、及び、プログラム
JP6421504B2 (ja) * 2014-07-28 2018-11-14 ソニー株式会社 画像処理装置及び画像処理方法
WO2016021120A1 (ja) * 2014-08-07 2016-02-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生装置、再生方法および記録媒体
JP6466258B2 (ja) * 2014-08-07 2019-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置、再生方法および記録媒体
WO2016021809A1 (ko) * 2014-08-08 2016-02-11 엘지전자 주식회사 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
RU2686642C2 (ru) * 2014-08-08 2019-04-29 Конинклейке Филипс Н.В. Способы и устройства для кодирования hdr-изображений
TWI539433B (zh) * 2014-08-13 2016-06-21 友達光電股份有限公司 曲面顯示裝置及其伽馬校正方法
MX2019008379A (es) * 2014-08-19 2019-09-09 Panasonic Ip Man Co Ltd Metodo de transmision, metodo de reproduccion y dispositivo de reproduccion.
WO2016027426A1 (ja) * 2014-08-19 2016-02-25 パナソニックIpマネジメント株式会社 映像ストリーム生成方法、再生装置及び記録媒体
WO2016027423A1 (ja) * 2014-08-19 2016-02-25 パナソニックIpマネジメント株式会社 伝送方法、再生方法及び再生装置
JP6331882B2 (ja) 2014-08-28 2018-05-30 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2016058848A (ja) 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法
TWI683307B (zh) * 2014-09-08 2020-01-21 日商新力股份有限公司 資訊處理裝置,資訊記錄媒體及資訊處理方法以及程式
JP6134076B2 (ja) * 2014-09-08 2017-05-24 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
EP3370233B1 (en) * 2014-09-10 2022-08-10 Panasonic Intellectual Property Corporation of America Recording medium and playback device
US9501855B2 (en) 2014-09-11 2016-11-22 Sony Corporation Image processing apparatus and image processing method
WO2016040906A1 (en) * 2014-09-11 2016-03-17 Grundy Kevin Patrick System and method for controlling dynamic range compression image processing
EP4280598A3 (en) * 2014-09-12 2024-02-21 Panasonic Intellectual Property Corporation of America Recording medium, playback device, and playback method
EP3196882A4 (en) * 2014-09-12 2018-05-16 Sony Corporation Information processing device, information processing method, program, and recording medium
JP6471915B2 (ja) * 2014-09-12 2019-02-20 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム
US10910017B2 (en) 2014-09-12 2021-02-02 Sony Corporation Reproducing device, reproducing method, information processing device, information processing method, program, and recording medium
JP2016062637A (ja) * 2014-09-12 2016-04-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生装置、および再生方法
MX367898B (es) * 2014-09-22 2019-09-11 Panasonic Ip Man Co Ltd Metodo de reproduccion y aparato de reproduccion.
MX360781B (es) * 2014-09-22 2018-11-16 Panasonic Ip Man Co Ltd Método de reproducción y aparato de reproducción.
US9729801B2 (en) * 2014-10-02 2017-08-08 Dolby Laboratories Licensing Corporation Blending images using mismatched source and display electro-optical transfer functions
CN107079079B (zh) 2014-10-02 2019-10-15 杜比实验室特许公司 用于抖动可视性控制的双端元数据
JP6539032B2 (ja) 2014-10-06 2019-07-03 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
US10313687B2 (en) * 2014-10-10 2019-06-04 Koninklijke Philips N.V. Saturation processing specification for dynamic range mappings
KR20160044954A (ko) * 2014-10-16 2016-04-26 삼성전자주식회사 정보 제공 방법 및 이를 구현하는 전자 장치
JP2016081553A (ja) * 2014-10-17 2016-05-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
WO2016063474A1 (ja) * 2014-10-21 2016-04-28 パナソニックIpマネジメント株式会社 再生装置、表示装置および伝送方法
TWI685837B (zh) * 2014-10-23 2020-02-21 日商新力股份有限公司 資訊處理裝置、資訊處理方法、及程式產品、以及記錄媒體
WO2016063475A1 (ja) * 2014-10-24 2016-04-28 パナソニックIpマネジメント株式会社 送信方法および再生装置
CN107077726B (zh) * 2014-10-27 2019-04-09 杜比实验室特许公司 使用扩展颜色范围的内容映射
CN106464828B (zh) * 2014-11-04 2020-03-13 松下电器(美国)知识产权公司 再现方法、再现装置以及记录介质
US12401911B2 (en) 2014-11-07 2025-08-26 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
WO2016072347A1 (ja) 2014-11-07 2016-05-12 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2016100039A (ja) * 2014-11-17 2016-05-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
US12401912B2 (en) 2014-11-17 2025-08-26 Duelight Llc System and method for generating a digital image
EP3029925A1 (en) * 2014-12-01 2016-06-08 Thomson Licensing A method and device for estimating a color mapping between two different color-graded versions of a picture
KR20160067275A (ko) * 2014-12-03 2016-06-14 삼성디스플레이 주식회사 표시 장치 및 이의 구동 방법
JP6601729B2 (ja) * 2014-12-03 2019-11-06 パナソニックIpマネジメント株式会社 データ生成方法、データ再生方法、データ生成装置及びデータ再生装置
HUE064079T2 (hu) 2014-12-03 2024-02-28 Panasonic Ip Man Co Ltd Adat elõállító eszköz
WO2016092759A1 (ja) 2014-12-09 2016-06-16 パナソニックIpマネジメント株式会社 送信方法、受信方法、送信装置および受信装置
JP6741975B2 (ja) * 2014-12-09 2020-08-19 パナソニックIpマネジメント株式会社 送信方法および送信装置
ES2825699T3 (es) 2014-12-11 2021-05-17 Koninklijke Philips Nv Optimización e imágenes de alto rango dinámico para pantallas particulares
JP6619813B2 (ja) * 2014-12-11 2019-12-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 特定のディスプレイに対する高ダイナミックレンジ画像の最適化
TW201633779A (zh) * 2014-12-16 2016-09-16 湯姆生特許公司 將圖像之高動態範圍版本轉換至該圖像之標準動態範圍版本之方法及裝置
EP3035678A1 (en) * 2014-12-16 2016-06-22 Thomson Licensing Method and device of converting a high-dynamic-range version of a picture to a standard-dynamic-range version of said picture
EP3240285B1 (en) * 2014-12-22 2021-04-21 Sony Corporation Information processing device, information recording medium, information processing method, and program
EP3242487B1 (en) * 2014-12-29 2021-10-13 Sony Group Corporation Transmitting device, transmitting method, receiving device and receiving method
EP3248367B1 (en) 2015-01-19 2018-08-29 Dolby Laboratories Licensing Corporation Display management for high dynamic range video
JP7106273B2 (ja) * 2015-01-27 2022-07-26 インターデジタル マディソン パテント ホールディングス, エスアーエス 画像及びビデオを電気光変換及び光電気変換するための方法、システム、及び機器
CN107211077A (zh) * 2015-01-29 2017-09-26 皇家飞利浦有限公司 局部动态范围调整颜色处理
EP3051825A1 (en) * 2015-01-30 2016-08-03 Thomson Licensing A method and apparatus of encoding and decoding a color picture
EP3051821A1 (en) * 2015-01-30 2016-08-03 Thomson Licensing Method and apparatus for encoding and decoding high dynamic range (HDR) videos
CA2975172C (en) 2015-01-30 2023-04-04 Thomson Licensing A method and apparatus of encoding and decoding a color picture
KR102295970B1 (ko) * 2015-02-06 2021-08-30 엘지전자 주식회사 영상표시장치,
GB2534929A (en) * 2015-02-06 2016-08-10 British Broadcasting Corp Method and apparatus for conversion of HDR signals
PH12017501536B1 (en) * 2015-03-05 2023-02-22 Sony Corp Transmission device, transmission method, receiving device, and receiving method
EP3067882A1 (en) 2015-03-10 2016-09-14 Thomson Licensing Adaptive color grade interpolation method and device
JP6463179B2 (ja) * 2015-03-17 2019-01-30 キヤノン株式会社 信号処理装置、信号処理方法および撮像装置
BR112017018552B1 (pt) 2015-03-20 2019-10-22 Dolby Laboratories Licensing Corp aproximação para remodelagem de sinal
JP2016178595A (ja) * 2015-03-23 2016-10-06 シャープ株式会社 受信装置、受信方法、及びプログラム
WO2016152684A1 (ja) * 2015-03-24 2016-09-29 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10097886B2 (en) 2015-03-27 2018-10-09 Panasonic Intellectual Property Management Co., Ltd. Signal processing device, record/replay device, signal processing method, and program
US10109228B2 (en) 2015-04-10 2018-10-23 Samsung Display Co., Ltd. Method and apparatus for HDR on-demand attenuation control
KR102322709B1 (ko) * 2015-04-29 2021-11-08 엘지디스플레이 주식회사 영상 처리 방법 및 영상 처리 회로와 그를 이용한 표시 장치
US10257526B2 (en) * 2015-05-01 2019-04-09 Disney Enterprises, Inc. Perceptual color transformations for wide color gamut video coding
US12445736B2 (en) 2015-05-01 2025-10-14 Duelight Llc Systems and methods for generating a digital image
US10708564B2 (en) 2015-05-11 2020-07-07 Samsung Electronics Co., Ltd. Image processing apparatus and image processing method based on metadata
WO2016181819A1 (ja) * 2015-05-12 2016-11-17 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP6731722B2 (ja) * 2015-05-12 2020-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
MX2019013303A (es) * 2015-05-12 2020-07-20 Panasonic Ip Corp America Metodo de presentacion visual y dispositivo de presentacion visual.
WO2016181584A1 (ja) * 2015-05-12 2016-11-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 表示方法および表示装置
KR102337159B1 (ko) * 2015-05-21 2021-12-08 삼성전자주식회사 컨텐츠 출력 장치 및 방법과, 디스플레이 장치
JP6663214B2 (ja) * 2015-05-26 2020-03-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
JP6666022B2 (ja) 2015-06-04 2020-03-13 キヤノン株式会社 画像表示装置、画像出力装置、及び、それらの制御方法
WO2016197033A1 (en) * 2015-06-05 2016-12-08 Apple Inc. Rendering and displaying high dynamic range content
US10007412B2 (en) * 2015-06-24 2018-06-26 Samsung Electronics Co., Ltd. Tone mastering system with creative intent metadata
CN107736017B (zh) 2015-06-25 2020-07-28 三菱电机株式会社 影像再现装置和影像再现方法
US11245939B2 (en) * 2015-06-26 2022-02-08 Samsung Electronics Co., Ltd. Generating and transmitting metadata for virtual reality
GB2539917B (en) * 2015-06-30 2021-04-07 British Broadcasting Corp Method and apparatus for conversion of HDR signals
US10701359B2 (en) * 2015-06-30 2020-06-30 Dolby Laboratories Licensing Corporation Real-time content-adaptive perceptual quantizer for high dynamic range images
EP3113495A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing Methods and devices for encoding and decoding a hdr color picture
EP3113496A1 (en) 2015-06-30 2017-01-04 Thomson Licensing Method and device for encoding both a hdr picture and a sdr picture obtained from said hdr picture using color mapping functions
JP6611494B2 (ja) * 2015-07-08 2019-11-27 キヤノン株式会社 画像表示装置及びその制御方法
KR102309676B1 (ko) 2015-07-24 2021-10-07 삼성전자주식회사 사용자 적응 이미지 보상기
WO2017022513A1 (ja) * 2015-07-31 2017-02-09 ソニー株式会社 映像信号処理装置および映像信号処理方法、ならびに表示装置
EP3131284A1 (en) * 2015-08-13 2017-02-15 Thomson Licensing Methods, systems and aparatus for hdr to hdr inverse tone mapping
KR102049481B1 (ko) * 2015-08-19 2019-11-27 삼성전자주식회사 이미지 변환을 수행하는 전자 장치 및 이의 방법
KR102509504B1 (ko) * 2015-08-24 2023-03-13 인터디지털 매디슨 페턴트 홀딩스 에스에이에스 코딩 및 디코딩 방법과 대응하는 디바이스
WO2017032822A1 (en) 2015-08-25 2017-03-02 Thomson Licensing Inverse tone mapping based on luminance zones
KR102531489B1 (ko) 2015-08-28 2023-05-11 애리스 엔터프라이지즈 엘엘씨 높은 동적 범위 및 넓은 컬러 영역 시퀀스들의 코딩에서의 컬러 볼륨 변환들
KR102523505B1 (ko) 2015-08-31 2023-04-18 인터디지털 매디슨 페턴트 홀딩스 에스에이에스 역 톤 매핑을 위한 방법 및 장치
WO2017037971A1 (ja) * 2015-09-01 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 変換方法および変換装置
WO2017047014A1 (ja) * 2015-09-14 2017-03-23 パナソニックIpマネジメント株式会社 映像受信方法、映像送信方法、映像受信装置及び映像送信装置
WO2017047466A1 (ja) * 2015-09-18 2017-03-23 シャープ株式会社 受信装置、受信方法、プログラム
KR102121676B1 (ko) * 2015-09-21 2020-06-10 돌비 레버러토리즈 라이쎈싱 코오포레이션 지각 코드 공간에서 디스플레이를 동작시키기 위한 기술들
US10638023B2 (en) 2015-09-25 2020-04-28 Sony Corporation Image processing apparatus and image processing method
JP6830190B2 (ja) * 2015-10-07 2021-02-17 パナソニックIpマネジメント株式会社 映像送信方法、映像受信方法、映像送信装置及び映像受信装置
WO2017061071A1 (ja) * 2015-10-07 2017-04-13 パナソニックIpマネジメント株式会社 映像送信方法、映像受信方法、映像送信装置及び映像受信装置
US10140953B2 (en) * 2015-10-22 2018-11-27 Dolby Laboratories Licensing Corporation Ambient-light-corrected display management for high dynamic range images
CN112822537B (zh) 2015-11-09 2023-07-11 交互数字Vc控股公司 使视频内容适应到显示特性的方法、设备及介质
JP6872098B2 (ja) * 2015-11-12 2021-05-19 ソニーグループ株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
EP3169071B1 (en) * 2015-11-16 2020-01-29 InterDigital VC Holdings, Inc. Backward-compatible encoding of a hdr picture
CN105336290B (zh) * 2015-11-18 2018-06-01 青岛海信电器股份有限公司 伽马Gamma校正方法及装置
PL3381179T3 (pl) * 2015-11-24 2024-06-10 Koninklijke Philips N.V. Obsługa wielu źródeł obrazów hdr
AU2015261734A1 (en) * 2015-11-30 2017-06-15 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data according to local luminance intensity
KR102631844B1 (ko) * 2015-12-16 2024-01-31 비<>컴 디지털 이미지를 프로세싱하기 위한 방법, 디바이스, 단말 장비 및 연관된 컴퓨터 프로그램
CN108370405B (zh) * 2015-12-23 2019-11-26 华为技术有限公司 一种图像信号转换处理方法、装置及终端设备
JP6559803B2 (ja) * 2015-12-25 2019-08-14 シャープ株式会社 表示装置、表示装置の制御方法、制御プログラム、および記録媒体
US9984446B2 (en) * 2015-12-26 2018-05-29 Intel Corporation Video tone mapping for converting high dynamic range (HDR) content to standard dynamic range (SDR) content
JP6710970B2 (ja) 2015-12-28 2020-06-17 ソニー株式会社 送信装置および送信方法
JP6233424B2 (ja) * 2016-01-05 2017-11-22 ソニー株式会社 撮像システムおよび撮像方法
JP6237797B2 (ja) * 2016-01-05 2017-11-29 ソニー株式会社 ビデオシステム、ビデオ処理方法、プログラム、およびビデオコンバーター
KR20170088303A (ko) * 2016-01-22 2017-08-01 한국전자통신연구원 화질 열화 감소를 위한 영상 신호 변환 방법 및 장치
WO2017129265A1 (en) * 2016-01-29 2017-08-03 Barco Nv Digital image processing chain and processing blocks and a display including the same
US10764615B2 (en) 2016-02-09 2020-09-01 Sony Corporation Transmission device, transmission method, reception device and reception method
US10264196B2 (en) 2016-02-12 2019-04-16 Contrast, Inc. Systems and methods for HDR video capture with a mobile device
US10257394B2 (en) 2016-02-12 2019-04-09 Contrast, Inc. Combined HDR/LDR video streaming
KR102405309B1 (ko) 2016-02-12 2022-06-07 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
JP2017151308A (ja) * 2016-02-25 2017-08-31 キヤノン株式会社 情報処理装置および情報処理方法
US20180358048A1 (en) * 2016-02-26 2018-12-13 Sony Corporation Information processing device, display device, information recording medium, information processing method, and program
JP6824055B2 (ja) * 2016-03-02 2021-02-03 シャープ株式会社 受信装置および放送システム
JP6451669B2 (ja) * 2016-03-04 2019-01-16 ソニー株式会社 評価装置、評価方法およびカメラシステム
JP6161222B1 (ja) * 2016-03-17 2017-07-12 シャープ株式会社 受信装置および放送システム
EP3220645A1 (en) * 2016-03-18 2017-09-20 Thomson Licensing A method and a device for encoding a high dynamic range picture, corresponding decoding method and decoding device
RU2728516C2 (ru) * 2016-03-18 2020-07-30 Конинклейке Филипс Н.В. Кодирование и декодирование hdr видео
JP6757157B2 (ja) * 2016-03-29 2020-09-16 キヤノン株式会社 投影装置およびその制御方法
JP6830244B2 (ja) * 2016-03-29 2021-02-17 パナソニックIpマネジメント株式会社 表示装置及びその制御方法
US20170289571A1 (en) * 2016-04-01 2017-10-05 Intel Corporation Temporal control for spatially adaptive tone mapping of high dynamic range video
GB2549521A (en) * 2016-04-21 2017-10-25 British Broadcasting Corp Method and apparatus for conversion of dynamic range of video signals
JP6755701B2 (ja) 2016-04-25 2020-09-16 キヤノン株式会社 撮像装置、表示装置及び画像処理装置
EP3244616A1 (en) * 2016-05-13 2017-11-15 Thomson Licensing A method for encoding an input video comprising a luma component and two chroma components, the method comprising reshaping of said input video based on reshaping functions
KR102488954B1 (ko) * 2016-05-16 2023-01-16 엘지전자 주식회사 영상 처리 장치 및 그의 영상 처리 방법
CN105979192A (zh) * 2016-05-16 2016-09-28 福州瑞芯微电子股份有限公司 一种视频显示方法和装置
WO2017203942A1 (ja) * 2016-05-25 2017-11-30 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
PL3745390T3 (pl) 2016-05-27 2024-03-04 Dolby Laboratories Licensing Corporation Przechodzenie pomiędzy priorytetem wideo a priorytetem grafiki
US20170353704A1 (en) * 2016-06-01 2017-12-07 Apple Inc. Environment-Aware Supervised HDR Tone Mapping
US10032263B2 (en) * 2016-06-12 2018-07-24 Apple Inc. Rendering information into images
JP6729055B2 (ja) * 2016-06-23 2020-07-22 セイコーエプソン株式会社 映像処理装置、表示装置および映像処理方法
US10638105B2 (en) 2016-06-27 2020-04-28 Intel Corporation Method and system of multi-dynamic range multi-layer video blending with alpha channel sideband for video playback
US9916638B2 (en) * 2016-07-20 2018-03-13 Dolby Laboratories Licensing Corporation Transformation of dynamic metadata to support alternate tone rendering
CA3033242A1 (en) 2016-08-09 2018-02-15 Contrast, Inc. Real-time hdr video for vehicle control
WO2018035696A1 (zh) * 2016-08-22 2018-03-01 华为技术有限公司 一种图像处理方法以及装置
TWI631505B (zh) * 2016-08-26 2018-08-01 晨星半導體股份有限公司 應用於播放裝置的影像處理方法及相關的電路
JP6276815B1 (ja) * 2016-09-02 2018-02-07 シャープ株式会社 画像処理装置、テレビジョン受像機、画像処理システム、画像処理プログラム、記録媒体、および映像提供装置
WO2018047753A1 (ja) * 2016-09-09 2018-03-15 パナソニックIpマネジメント株式会社 表示装置および信号処理方法
JP7054851B2 (ja) 2016-09-09 2022-04-15 パナソニックIpマネジメント株式会社 表示装置および信号処理方法
JP6751233B2 (ja) * 2016-09-12 2020-09-02 オンキヨー株式会社 映像処理装置
KR102594201B1 (ko) * 2016-09-22 2023-10-27 삼성디스플레이 주식회사 영상 처리 방법 및 이를 수행하는 표시 장치
EP3522527B1 (en) * 2016-09-29 2023-09-06 Panasonic Intellectual Property Management Co., Ltd. Reproduction method, creation method, reproduction device, and creation device
GB2554669B (en) * 2016-09-30 2022-04-06 Apical Ltd Image processing
WO2018070822A1 (ko) * 2016-10-14 2018-04-19 엘지전자 주식회사 적응적 영상 재생을 위한 데이터 처리 방법 및 장치
EP3470976A1 (en) 2017-10-12 2019-04-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for efficient delivery and usage of audio messages for high quality of experience
US10218952B2 (en) 2016-11-28 2019-02-26 Microsoft Technology Licensing, Llc Architecture for rendering high dynamic range video on enhanced dynamic range display devices
JP2018091999A (ja) * 2016-12-02 2018-06-14 キヤノン株式会社 画像処理装置、表示装置及び画像処理方法
CN110050292B (zh) * 2016-12-12 2023-08-01 杜比实验室特许公司 用于调整高动态范围图像的视频处理曲线的系统和方法
TWI839775B (zh) 2017-01-03 2024-04-21 美商康寧公司 具有彎曲的覆蓋玻璃以及顯示器或觸控面板的車輛內部系統及其形成方法
US11128850B2 (en) 2017-01-16 2021-09-21 Sony Corporation Video processing apparatus, video processing method, and program
US10104334B2 (en) * 2017-01-27 2018-10-16 Microsoft Technology Licensing, Llc Content-adaptive adjustment of display device brightness levels when rendering high dynamic range content
US10176561B2 (en) 2017-01-27 2019-01-08 Microsoft Technology Licensing, Llc Content-adaptive adjustments to tone mapping operations for high dynamic range content
WO2018147196A1 (ja) * 2017-02-09 2018-08-16 シャープ株式会社 表示装置、テレビジョン受像機、映像処理方法、バックライト制御方法、受信装置、映像信号生成装置、送信装置、映像信号伝送システム、受信方法、プログラム、制御プログラム、及び記録媒体
JP6466488B2 (ja) * 2017-02-09 2019-02-06 シャープ株式会社 表示装置、テレビジョン受像機、映像処理方法、制御プログラム、及び記録媒体
CN106713907B (zh) * 2017-02-21 2018-08-03 京东方科技集团股份有限公司 一种显示器的hdr图像显示性能评测方法及装置
JP7086587B2 (ja) * 2017-02-24 2022-06-20 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 復号された画像データから画像データを再構成する方法および装置
JP6381704B1 (ja) * 2017-02-28 2018-08-29 シャープ株式会社 映像信号生成装置、受信装置、テレビジョン受像機、送受信システム、制御プログラム、及び記録媒体
KR102308192B1 (ko) 2017-03-09 2021-10-05 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11158032B2 (en) 2017-03-20 2021-10-26 Dolby Laboratories Licensing Corporation Perceptually preserving scene-referred contrasts and chromaticities
JP2017143546A (ja) * 2017-03-21 2017-08-17 ソニー株式会社 再生装置、記録媒体、表示装置、および情報処理方法
CN110574356B (zh) * 2017-04-10 2024-01-12 惠普发展公司,有限责任合伙企业 动态色域可调整显示器
JP7018567B2 (ja) * 2017-04-21 2022-02-14 パナソニックIpマネジメント株式会社 再生装置、再生方法、表示装置、および、表示方法
EP3399497A1 (en) * 2017-05-05 2018-11-07 Koninklijke Philips N.V. Optimizing decoded high dynamic range image saturation
US10403214B2 (en) * 2017-05-12 2019-09-03 Apple Inc. Electronic devices with tone mapping to accommodate simultaneous display of standard dynamic range and high dynamic range content
US11288781B2 (en) * 2017-06-16 2022-03-29 Dolby Laboratories Licensing Corporation Efficient end-to-end single layer inverse display management coding
US11032448B2 (en) 2017-06-21 2021-06-08 Panasonic Intellectual Property Management Co., Ltd. Video display system and video display method
EP3418972A1 (en) * 2017-06-23 2018-12-26 Thomson Licensing Method for tone adapting an image to a target peak luminance lt of a target display device
WO2019008482A1 (ja) * 2017-07-07 2019-01-10 株式会社半導体エネルギー研究所 表示システム、および表示システムの動作方法
US11049225B2 (en) 2017-07-07 2021-06-29 Panasonic Intellectual Property Management Co., Ltd. Video processing system and video processing method
WO2019014057A1 (en) 2017-07-10 2019-01-17 Contrast, Inc. Stereoscopic camera
CN109691115B (zh) 2017-07-14 2022-02-08 松下知识产权经营株式会社 影像显示装置及影像显示方法
EP3655282B1 (en) 2017-07-18 2023-02-15 Corning Incorporated Vehicle interior system comprising a cold formed complexly curved glass article
US10504263B2 (en) * 2017-08-01 2019-12-10 Samsung Electronics Co., Ltd. Adaptive high dynamic range (HDR) tone mapping with overlay indication
CN111356662B (zh) 2017-09-12 2022-10-04 康宁公司 用于装饰玻璃上的包括触摸面板的显示器的死前端及相关方法
US11065960B2 (en) 2017-09-13 2021-07-20 Corning Incorporated Curved vehicle displays
JP6697755B2 (ja) 2017-09-13 2020-05-27 パナソニックIpマネジメント株式会社 映像表示装置及び映像表示方法
KR102614338B1 (ko) * 2017-09-21 2023-12-19 소니그룹주식회사 재생 장치, 재생 방법, 프로그램, 및 기록 매체
US11019302B2 (en) * 2017-09-28 2021-05-25 Dolby Laboratories Licensing Corporation Frame rate conversion metadata
US11272308B2 (en) 2017-09-29 2022-03-08 Apple Inc. File format for spatial audio
WO2019069482A1 (ja) 2017-10-06 2019-04-11 パナソニックIpマネジメント株式会社 映像表示システム及び映像表示方法
TWI888167B (zh) 2017-10-10 2025-06-21 美商康寧公司 具有改善可靠性的彎曲的覆蓋玻璃的車輛內部系統及其形成方法
JP6753386B2 (ja) * 2017-10-25 2020-09-09 ソニー株式会社 カメラシステム、ビデオ処理方法およびプログラム
KR102413839B1 (ko) * 2017-11-15 2022-06-28 삼성전자 주식회사 컨텐츠 제공장치, 그 제어방법 및 기록매체
KR102448497B1 (ko) * 2017-11-17 2022-09-28 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 영상 제공 장치
JP6821269B2 (ja) * 2017-12-05 2021-01-27 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
JP6712822B2 (ja) * 2017-12-27 2020-06-24 パナソニックIpマネジメント株式会社 表示装置および表示方法
JP7191649B2 (ja) * 2017-12-27 2022-12-19 キヤノン株式会社 電子機器
EP3506078B1 (en) 2017-12-27 2024-04-24 Canon Kabushiki Kaisha Electronic apparatus
JP7180079B2 (ja) * 2018-02-28 2022-11-30 セイコーエプソン株式会社 回路装置及び電子機器
RU2675281C1 (ru) * 2018-03-28 2018-12-18 федеральное государственное бюджетное образовательное учреждение высшего образования "Национальный исследовательский университет "МЭИ" (ФГБОУ ВО "НИУ "МЭИ") Способ идентификации линейной динамической системы
CN108681991A (zh) * 2018-04-04 2018-10-19 上海交通大学 基于生成对抗网络的高动态范围反色调映射方法及系统
KR102489265B1 (ko) * 2018-04-10 2023-01-17 엘지전자 주식회사 비디오 신호를 처리하는 멀티미디어 디바이스 및 그 제어 방법
JP6652153B2 (ja) * 2018-04-26 2020-02-19 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
TWI808970B (zh) * 2018-04-30 2023-07-21 圓剛科技股份有限公司 影像訊號轉換裝置
US10706812B2 (en) * 2018-05-30 2020-07-07 Ati Technologies Ulc Source-side tone mapping based on native color gamut and brightness of display
US10951888B2 (en) 2018-06-04 2021-03-16 Contrast, Inc. Compressed high dynamic range video
CN110620935B (zh) * 2018-06-19 2022-04-08 杭州海康慧影科技有限公司 图像处理方法及装置
CN112740312A (zh) * 2018-07-16 2021-04-30 康宁公司 具有局部亮度调整的显示器和相关方法
JP2020024550A (ja) * 2018-08-07 2020-02-13 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2020025176A (ja) * 2018-08-07 2020-02-13 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、およびプログラム
US11284134B2 (en) 2018-08-08 2022-03-22 Comcast Cable Communications, Llc Media content enhancement based on content importance
EP3834411B1 (en) * 2018-08-10 2024-02-14 Dolby Laboratories Licensing Corporation Reducing banding artifacts in hdr imaging via adaptive sdr-to-hdr reshaping functions
CA3109671A1 (en) 2018-08-14 2020-02-20 Contrast, Inc. Image compression
CN108986053B (zh) * 2018-08-21 2021-03-16 北京小米移动软件有限公司 屏幕显示方法及装置
JP6583501B2 (ja) * 2018-08-28 2019-10-02 ソニー株式会社 再生装置、表示装置、情報処理方法
CN111063319B (zh) * 2018-10-16 2021-05-18 深圳Tcl新技术有限公司 基于背光调整的图像动态增强方法、装置和计算机设备
US10957024B2 (en) 2018-10-30 2021-03-23 Microsoft Technology Licensing, Llc Real time tone mapping of high dynamic range image data at time of playback on a lower dynamic range display
US11503310B2 (en) * 2018-10-31 2022-11-15 Ati Technologies Ulc Method and apparatus for an HDR hardware processor inline to hardware encoder and decoder
CN109243383B (zh) * 2018-11-09 2021-12-17 珠海格力电器股份有限公司 一种显示屏的背光亮度调节方法及显示屏装置
RU190476U1 (ru) * 2018-11-19 2019-07-02 Федеральное государственное автономное образовательное учреждение высшего образования "Севастопольский государственный университет" Устройство преобразования яркости цифрового телевизионного изображения
US20200192548A1 (en) * 2018-12-13 2020-06-18 Ati Technologies Ulc Methods and apparatus for displaying a cursor on a high dynamic range display device
EP3672254A1 (en) 2018-12-21 2020-06-24 InterDigital VC Holdings, Inc. Decoding an image
KR102643588B1 (ko) * 2019-01-21 2024-03-04 엘지전자 주식회사 카메라 장치 및 이를 구비하는 전자 장치
CN112805745B (zh) * 2019-01-31 2025-04-08 华为技术有限公司 一种混合图层处理方法及装置
KR102842500B1 (ko) * 2019-02-01 2025-08-06 삼성전자주식회사 고 동적 범위 콘텐트를 재생하는 전자 장치 및 그 방법
JP7204514B2 (ja) * 2019-02-13 2023-01-16 キヤノン株式会社 画像出力装置およびその制御方法、プログラム
JP7301551B2 (ja) * 2019-02-21 2023-07-03 キヤノン株式会社 画像処理装置、画像処理方法、表示装置、制御方法、およびプログラム
JP2020141334A (ja) * 2019-02-28 2020-09-03 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
CN111754412B (zh) * 2019-03-29 2024-04-19 Tcl科技集团股份有限公司 构建数据对的方法、装置及终端设备
CN110062160B (zh) * 2019-04-09 2021-07-02 Oppo广东移动通信有限公司 图像处理方法和装置
US11404025B2 (en) * 2019-04-10 2022-08-02 Mediatek Inc. Video processing system for performing artificial intelligence assisted picture quality enhancement and associated video processing method
JP6672505B2 (ja) * 2019-04-15 2020-03-25 マクセル株式会社 投射型映像表示装置
KR102575261B1 (ko) * 2019-05-16 2023-09-06 주식회사 엘엑스세미콘 주위조도에 따라 영상의 밝기를 조절하는 디스플레이 구동장치 및 구동방법
US11881151B2 (en) * 2019-06-07 2024-01-23 Stereyo Bv Method for producing an image by a display and recording said image by a camera
KR20250142938A (ko) * 2019-06-24 2025-09-30 엘지전자 주식회사 루마 맵핑 기반 비디오 또는 영상 코딩
US11405582B2 (en) * 2019-06-28 2022-08-02 Meta Platforms, Inc. Preprocessing of high-dynamic-range video using a hybrid lookup table scheme
JP6904470B2 (ja) * 2019-08-30 2021-07-14 ソニーグループ株式会社 再生装置、表示装置、情報処理方法
JP6756396B2 (ja) * 2019-08-30 2020-09-16 ソニー株式会社 再生装置、表示装置、情報処理方法
US11473971B2 (en) 2019-09-27 2022-10-18 Apple Inc. Ambient headroom adaptation
KR102641738B1 (ko) 2019-09-30 2024-02-29 삼성전자주식회사 영상 처리 방법 및 이를 지원하는 전자 장치
KR102755132B1 (ko) * 2019-12-27 2025-01-17 삼성전자 주식회사 다이나믹 톤 메타데이터를 포함하는 영상의 편집을 위한 전자 장치 및 그의 동작 방법
JP2020074571A (ja) * 2020-01-16 2020-05-14 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US11270662B2 (en) * 2020-01-21 2022-03-08 Synaptics Incorporated Device and method for brightness control of display device based on display brightness value encoding parameters beyond brightness
GB2592656B (en) 2020-03-05 2023-04-19 Canon Kk High level syntax for video coding and decoding
US12368964B2 (en) 2020-04-03 2025-07-22 Dolby Laboratories Licensing Corporation Blind local reshaping in HDR imaging
CN111489705B (zh) * 2020-04-14 2023-05-09 深圳市隆利科技股份有限公司 图像分区显示的方法
US11935492B2 (en) * 2020-04-28 2024-03-19 Dolby Laboratories Licensing Corporation Image-dependent contrast and brightness control for HDR displays
CN115361510B (zh) * 2020-05-08 2025-05-06 华为技术有限公司 一种高动态范围hdr视频的处理方法、编码设备和解码设备
JP7630306B2 (ja) * 2021-03-05 2025-02-17 キヤノン株式会社 画像処理装置、撮像装置、制御方法及びプログラム
CN113240578B (zh) * 2021-05-13 2024-05-21 北京达佳互联信息技术有限公司 图像特效的生成方法、装置、电子设备及存储介质
CN113658564B (zh) * 2021-08-30 2022-12-13 京东方科技集团股份有限公司 一种图像色深转换的方法、电子设备
JP7749988B2 (ja) * 2021-09-06 2025-10-07 セイコーエプソン株式会社 回路装置及びエラー検出方法
US11734806B2 (en) * 2021-11-24 2023-08-22 Roku, Inc. Dynamic tone mapping
WO2023095718A1 (ja) * 2021-11-29 2023-06-01 パナソニックIpマネジメント株式会社 映像処理方法、映像処理装置、及び、プログラム
KR102564447B1 (ko) * 2021-11-30 2023-08-08 엘지전자 주식회사 디스플레이 장치
US12488471B2 (en) 2021-12-29 2025-12-02 Micron Technology, Inc. Identifying data in a number of images to transform with identification of a blank and colored portions
CN114862694B (zh) * 2022-04-07 2025-05-13 中国人民解放军陆军工程大学 一种保证图像质量的高动态范围图像重建方法及装置
EP4511792B1 (en) 2022-04-21 2025-12-10 Dolby Laboratories Licensing Corporation Generating hdr image from corresponding camera raw and sdr images
US20240029219A1 (en) * 2022-07-25 2024-01-25 Nbcuniversal Media, Llc Dynamic tone-mapping system normalized around reference white
CN114972124B (zh) * 2022-07-29 2022-10-28 自然资源部第三地理信息制图院 一种遥感图像亮度自适应均衡方法及系统
KR20250057064A (ko) * 2022-10-31 2025-04-28 구글 엘엘씨 낮은 동적 범위 호환성을 갖는 높은 동적 범위 이미지 포맷
CN117133252B (zh) * 2023-02-27 2024-07-09 荣耀终端有限公司 图像处理方法和电子设备
US20240357135A1 (en) * 2023-04-21 2024-10-24 Electronics And Telecommunications Research Institute Method for encoding/decoding video and recording medium storing the method for encoding video
GB2634367A (en) * 2023-10-05 2025-04-09 Adobe Inc High dynamic range digital image editing visualizations
WO2025086096A1 (en) * 2023-10-24 2025-05-01 Qualcomm Incorporated Video display frame update pacing

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3271487B2 (ja) 1995-08-30 2002-04-02 凸版印刷株式会社 アプルーバル特性付画像データベースおよび画像処理装置
DE69842020D1 (de) * 1997-01-31 2011-01-05 Hitachi Ltd Bildanzeigesystem mit der Veranlagung zur Modifikation von Anzeigeeigenschaften in einem bestimmten Anzeigebereich
JP4834896B2 (ja) * 1997-10-31 2011-12-14 ソニー株式会社 画像処理装置及び方法、画像送受信システム及び方法、並びに記録媒体
JP2002149149A (ja) 2000-11-13 2002-05-24 Sony Corp 色校正方法および装置
WO2002043698A1 (en) * 2000-11-29 2002-06-06 Taisho Pharmaceutical Co.,Ltd. W/o/w composite emulsion
JP4155723B2 (ja) * 2001-04-16 2008-09-24 富士フイルム株式会社 画像管理システム及び画像管理方法、並びに画像表示装置
US20030081118A1 (en) * 2001-10-29 2003-05-01 Cirulli Robert J. Calibration of a telecine transfer device for a best light video setup
DE10213514C1 (de) 2002-03-26 2003-11-27 Michael Kaatze Kaffeebrüher
US20040061709A1 (en) 2002-09-17 2004-04-01 Lg Electronics Inc. Method and apparatus for driving plasma display panel
KR100712334B1 (ko) * 2002-09-30 2007-05-02 엘지전자 주식회사 액정 표시기의 밝기 레벨 조절방법
JP3661692B2 (ja) * 2003-05-30 2005-06-15 セイコーエプソン株式会社 照明装置、投射型表示装置及びその駆動方法
JP3975357B2 (ja) * 2003-06-12 2007-09-12 船井電機株式会社 液晶テレビジョン装置
JP2005086226A (ja) * 2003-09-04 2005-03-31 Auto Network Gijutsu Kenkyusho:Kk 撮像装置
US7492375B2 (en) * 2003-11-14 2009-02-17 Microsoft Corporation High dynamic range image viewing on low dynamic range displays
JP4617085B2 (ja) * 2004-02-16 2011-01-19 キヤノン株式会社 画像表示装置および画像表示方法
US8218625B2 (en) * 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
US7085414B2 (en) * 2004-05-05 2006-08-01 Canon Kabushiki Kaisha Characterization of display devices by averaging chromaticity values
WO2005109854A1 (en) * 2004-05-11 2005-11-17 Koninklijke Philips Electronics N.V. Method for processing color image data
US8050511B2 (en) * 2004-11-16 2011-11-01 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
US8537893B2 (en) * 2006-01-23 2013-09-17 Max-Planck-Gesellschaft Zur Forderung Der Wissenschaften E.V. High dynamic range codecs
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
JP4203081B2 (ja) * 2006-05-19 2008-12-24 株式会社東芝 画像表示装置および画像表示方法
CN101460917B (zh) * 2006-06-02 2011-09-28 三星电子株式会社 具有多分段背光的高动态对比度显示系统
US7592996B2 (en) * 2006-06-02 2009-09-22 Samsung Electronics Co., Ltd. Multiprimary color display with dynamic gamut mapping
US8872753B2 (en) 2006-08-31 2014-10-28 Ati Technologies Ulc Adjusting brightness of a display image in a display having an adjustable intensity light source
US7978203B1 (en) * 2006-12-18 2011-07-12 Pixar Methods and apparatus for color grading with gamut match preview
CN101569171B (zh) * 2006-12-21 2013-05-15 汤姆森许可贸易公司 为显示器提供颜色分级的方法、装置和系统
WO2008132774A1 (ja) * 2007-04-13 2008-11-06 Panasonic Corporation 動画像復号化方法、動画像復号化装置および電子機器
JP4687918B2 (ja) * 2007-07-24 2011-05-25 富士ゼロックス株式会社 画像処理装置及びプログラム
US8330768B2 (en) * 2007-07-27 2012-12-11 Sharp Laboratories Of America, Inc. Apparatus and method for rendering high dynamic range images for standard dynamic range display
US8233738B2 (en) 2007-07-30 2012-07-31 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US8135230B2 (en) 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US8223113B2 (en) * 2007-12-26 2012-07-17 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with variable delay
EP2238596A1 (en) * 2008-01-31 2010-10-13 Thomson Licensing Method and system for look data definition and transmission
US8593476B2 (en) * 2008-02-13 2013-11-26 Gary Demos System for accurately and precisely representing image color information
JP4544319B2 (ja) 2008-03-11 2010-09-15 富士フイルム株式会社 画像処理装置、方法及びプログラム
CN101542582B (zh) * 2008-05-08 2011-12-14 香港应用科技研究院有限公司 增强图像动态范围的方法和装置
WO2010010609A1 (ja) 2008-07-22 2010-01-28 パイオニア株式会社 コンタクトホールの形成方法、及び回路基板
WO2010016477A1 (ja) 2008-08-05 2010-02-11 日本電気株式会社 経路制御システム、経路制御装置、経路制御方法およびプログラム
KR101662696B1 (ko) 2008-08-22 2016-10-05 톰슨 라이센싱 콘텐츠 전달 방법 및 시스템
IL194197A0 (en) 2008-09-18 2009-08-03 Netline Comm Technologies Nct System and method for jamming undesired transmissions
US8184112B2 (en) * 2008-09-24 2012-05-22 Global Oled Technology Llc Increasing dynamic range of display output
JP2010114839A (ja) 2008-11-10 2010-05-20 Canon Inc 画像処理装置および画像処理方法
TW201021018A (en) * 2008-11-21 2010-06-01 Chunghwa Picture Tubes Ltd Color correction method and related device for liquid crystal display
EP2200268B1 (en) * 2008-12-22 2012-02-08 Thomson Licensing Method of calibration of a target color reproduction device
WO2010083493A1 (en) * 2009-01-19 2010-07-22 Dolby Laboratories Licensing Corporation Image processing and displaying methods for devices that implement color appearance models
WO2010100609A1 (en) * 2009-03-06 2010-09-10 Koninklijke Philips Electronics N.V. Method for converting input image data into output image data, image conversion unit for converting input image data into output image data, image processing apparatus, display device
WO2010105036A1 (en) * 2009-03-13 2010-09-16 Dolby Laboratories Licensing Corporation Layered compression of high dynamic range, visual dynamic range, and wide color gamut video
EP2230839A1 (en) 2009-03-17 2010-09-22 Koninklijke Philips Electronics N.V. Presentation of video content
KR20120018145A (ko) * 2009-05-06 2012-02-29 톰슨 라이센싱 프리젠테이션 장치 능력에 따라서 최적화된 멀티미디어 콘텐츠를 전송하기 위한 방법 및 시스템
US8483479B2 (en) 2009-05-11 2013-07-09 Dolby Laboratories Licensing Corporation Light detection, color appearance models, and modifying dynamic range for image display
CN101930719A (zh) * 2009-06-18 2010-12-29 辉达公司 自动切换显示器场景模式的方法及系统
JP2011010108A (ja) * 2009-06-26 2011-01-13 Seiko Epson Corp 撮像制御装置、撮像装置及び撮像制御方法
WO2011007905A1 (ko) 2009-07-15 2011-01-20 주식회사 한빛티앤아이 이동통신 단말기용 힌지모듈
WO2011106247A2 (en) * 2010-02-24 2011-09-01 Dolby Laboratories Licensing Corporation Display management methods and apparatus
EP2543181B1 (en) * 2010-03-03 2015-10-21 Koninklijke Philips N.V. Apparatuses and methods for defining color regimes
US20110242142A1 (en) * 2010-03-30 2011-10-06 Ati Technologies Ulc Multiple display chrominance and luminance method and apparatus
CN101888487B (zh) * 2010-06-02 2012-03-14 中国科学院深圳先进技术研究院 高动态范围视频成像系统和图像生成方法
US9082334B2 (en) * 2010-06-14 2015-07-14 Barco N.V. Luminance boost method and system
KR101482542B1 (ko) * 2010-07-22 2015-01-14 돌비 레버러토리즈 라이쎈싱 코오포레이션 이미지 데이터와 디스플레이의 비디오 범위들 사이의 맵핑을 위한 시스템, 장치 및 방법들
EP3869494A1 (en) * 2010-07-22 2021-08-25 Dolby Laboratories Licensing Corp. Display management server
US8525933B2 (en) * 2010-08-02 2013-09-03 Dolby Laboratories Licensing Corporation System and method of creating or approving multiple video streams
US9549197B2 (en) * 2010-08-16 2017-01-17 Dolby Laboratories Licensing Corporation Visual dynamic range timestamp to enhance data coherency and potential of metadata using delay information
TWI559779B (zh) * 2010-08-25 2016-11-21 杜比實驗室特許公司 擴展影像動態範圍
EP4375982B1 (en) 2011-05-10 2025-02-12 Koninklijke Philips N.V. High dynamic range image signal processing
WO2013039730A2 (en) * 2011-09-15 2013-03-21 Dolby Laboratories Licensing Corporation Method and system for backward compatible, extended dynamic range encoding of video

Also Published As

Publication number Publication date
PH12017502053B1 (en) 2024-06-21
PE20141864A1 (es) 2014-12-12
ZA201403080B (en) 2015-11-25
ES3001557T3 (en) 2025-03-05
RU2643485C2 (ru) 2018-02-01
US20220343477A1 (en) 2022-10-27
EP4421797A3 (en) 2024-11-27
EP2745290B1 (en) 2024-12-18
EP4421797C0 (en) 2025-05-28
MX2014003556A (es) 2014-05-28
RU2640750C2 (ru) 2018-01-11
ZA201403081B (en) 2015-11-25
WO2013046096A1 (en) 2013-04-04
US20250061555A1 (en) 2025-02-20
AU2017235969A1 (en) 2017-10-19
UA116082C2 (uk) 2018-02-12
AU2012313935A1 (en) 2014-05-15
PH12014500109A1 (en) 2014-02-17
PH12014500662A1 (en) 2014-05-05
US20250061554A1 (en) 2025-02-20
CA2850037C (en) 2022-10-04
ES3033067T3 (en) 2025-07-30
AU2012313935B9 (en) 2017-05-04
AU2017235970A1 (en) 2017-10-19
CN107103588B (zh) 2025-08-22
JP6430577B2 (ja) 2018-11-28
MX2014003554A (es) 2014-06-05
CN103843058B (zh) 2016-11-23
JP6509262B2 (ja) 2019-05-08
CA2850037A1 (en) 2013-04-04
EP4421797B1 (en) 2025-05-28
PL4421796T3 (pl) 2025-09-22
RU2761120C2 (ru) 2021-12-06
CN103827956B (zh) 2017-06-13
US12229928B2 (en) 2025-02-18
RU2014116969A (ru) 2015-11-10
BR112014006978A2 (pt) 2017-04-04
AU2012313936A1 (en) 2014-05-15
AU2012313936B2 (en) 2017-06-29
US11640656B2 (en) 2023-05-02
KR101972748B1 (ko) 2019-08-16
CA2850031A1 (en) 2013-04-04
US12400304B2 (en) 2025-08-26
RU2017137235A3 (es) 2021-02-25
CA2850031C (en) 2023-07-11
CN103827956A (zh) 2014-05-28
EP4421796A3 (en) 2024-11-27
US20250363605A1 (en) 2025-11-27
BR112014006977A2 (pt) 2017-04-04
JP2017117476A (ja) 2017-06-29
US12056863B2 (en) 2024-08-06
US20190156471A1 (en) 2019-05-23
US20140225941A1 (en) 2014-08-14
BR112014006977B1 (pt) 2022-09-13
CN103843058A (zh) 2014-06-04
EP2745290A1 (en) 2014-06-25
IN2014CN01863A (es) 2015-05-29
EP4421796B1 (en) 2025-06-18
US20210142453A1 (en) 2021-05-13
US20190172187A1 (en) 2019-06-06
PH12017502053A1 (en) 2018-04-23
PH12014500109B1 (en) 2019-10-16
US10916000B2 (en) 2021-02-09
JP2017184238A (ja) 2017-10-05
KR20140066771A (ko) 2014-06-02
CN107103588A (zh) 2017-08-29
US20240354916A1 (en) 2024-10-24
EP4421797A2 (en) 2024-08-28
PL4421797T3 (pl) 2025-09-01
JP6407717B2 (ja) 2018-10-17
RU2014116971A (ru) 2015-11-10
BR112014006978B1 (pt) 2021-08-31
AU2017235969B2 (en) 2019-08-08
RU2017137235A (ru) 2019-02-11
US11423523B2 (en) 2022-08-23
US12406345B2 (en) 2025-09-02
US11928803B2 (en) 2024-03-12
US20140210847A1 (en) 2014-07-31
WO2013046095A1 (en) 2013-04-04
AU2012313935B2 (en) 2017-04-20
AU2017235970B2 (en) 2019-08-08
EP4421796A2 (en) 2024-08-28
JP2014531821A (ja) 2014-11-27
EP2745507A1 (en) 2014-06-25
JP2014532195A (ja) 2014-12-04
JP6133300B2 (ja) 2017-05-24

Similar Documents

Publication Publication Date Title
ES3030342T3 (en) Apparatus and method for dynamic range transforming of images