[go: up one dir, main page]

MX2012004849A - Metodo y aparato para generar caudal multimedia para ajustar la prodfundidad de la informacion de reproduccion de video adicional tridimencional, y metodo y aparato para recibir caudal multimedia para ajustar la profundidad de informacion de reproduccion de video adicional tridimencional. - Google Patents

Metodo y aparato para generar caudal multimedia para ajustar la prodfundidad de la informacion de reproduccion de video adicional tridimencional, y metodo y aparato para recibir caudal multimedia para ajustar la profundidad de informacion de reproduccion de video adicional tridimencional.

Info

Publication number
MX2012004849A
MX2012004849A MX2012004849A MX2012004849A MX2012004849A MX 2012004849 A MX2012004849 A MX 2012004849A MX 2012004849 A MX2012004849 A MX 2012004849A MX 2012004849 A MX2012004849 A MX 2012004849A MX 2012004849 A MX2012004849 A MX 2012004849A
Authority
MX
Mexico
Prior art keywords
information
additional
subtitle
data
reproduction
Prior art date
Application number
MX2012004849A
Other languages
English (en)
Inventor
Kil-Soo Jung
Yong-Tae Kim
Jae-Seung Kim
Dae-Jong Lee
Bong-Je Cho
Hong-Seok Park
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of MX2012004849A publication Critical patent/MX2012004849A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Se proporciona un método para generar caudal de multimedia para reproducción tridimensional (3D) de información de reproducción adicional. El método incluye generar un caudal elemental de vídeo (ES), un audio ES, un caudal de datos adicional, y un caudal de información auxiliar que comprende respectivamente datos de vídeo, datos de audio relacionados con los datos de vídeo, datos de información de reproducción adicional que se reproducen junto con los datos de vídeo en una pantalla de exhibición, e información de profundidad de la información de reproducción adicional usada para reproducción 3D de la información de reproducción adicional, los datos de vídeo incluyen al menos uno de una imagen de vídeo 2D y una imagen de vídeo 3D.

Description

METODO Y APARATO PARA GENERAR CAUDAL MULTIMEDIA PARA AJUSTAR LA PROFUNDIDAD DE LA INFORMACION DE REPRODUCCION DE VIDEO ADICIONAL TRIDIMENSIONAL, Y METODO Y APARATO PARA RECIBIR CAUDAL MULTIMEDIA PARA AJUSTAR LA PROFUNDIDAD DE INFORMACION DE REPRODUCCION DE VIDEO ADICIONAL TRIDIMENSIONAL Campo de la Invención Los métodos y aparatos relacionados a codificación y decodificación de multimedia que incluyen vídeo estereoscópico.
Antecedentes de la Invención La demanda para los contenidos en tercera dimensión (3D) que tienen un efecto realista y estereoscópico se incrementa. Además, hay una cantidad cada vez mayor de contenidos de difusión o programas fabricados para reproducirse en 3D.
Un programa proporciona información de vídeo e información de audio mutuamente relacionadas entre sí, y materiales visuales que se pueden reproducir junto con una imagen de vídeo en una pantalla, proporciona una descripción adicional acerca de un programa o un canal o información adicional tal como una fecha y un lugar.
Por ejemplo, un subtítulo electrónico de una TV digital (DTV) , que es datos de subtítulo que existe en una cierta región de un caudal de programa de TV, se puede visualizar en una pantalla de TV de acuerdo con la selección del usuario REF: 229972 aunque, predeterminado, generalmente esto no se visualiza en la pantalla de TV. El subtitulado electrónico se proporciona para las personas con problemas auditivos o se usa ampliamente para propósitos adicionales tal como para propósitos educativos.
Un subtítulo de la DTV se puede visualizar junto con una imagen de vídeo en la pantalla, en la forma de materiales visuales que proporcionan un efecto visual mejorado relacionado con el texto, al usar un carácter, una imagen tal como un mapa de bits, un marco, un perfil, una sombra, o similares .
Ya que la información de la guía de programación electrónica (EPG) de la DTV se visualiza en la pantalla de TV para proporcionar información de canal o programa, la información de EPG se puede usar por espectadores que cambian canales o verificar información adicional acerca de un programa de canal actual .
Se ha desarrollado un método de procesamiento de materiales visuales adicionales que son para reproducirse junto con una imagen de vídeo 3D en una pantalla.
Breve Descripción de la Invención Problema técnico Los métodos y aparatos consistentes con las modalidades ejemplares relacionados a codificación y decodificación de multimedia incluyendo vídeo estereoscópico para reproducción estable de materiales visuales adicionales en 3D junto con un vídeo 3D en una pantalla.
Solución al Problema De acuerdo con un aspecto de las modalidades ejemplares, se proporciona un método que genera caudal de multimedia para reproducción en tercera dimensión (3D) de información de reproducción adicional, el método comprende: generar un caudal elemental de vídeo (ES) , un audio ES, un caudal de datos adicional, y un caudal de información auxiliar que respectivamente comprende datos de video, datos de audio relacionados con los datos de video, datos de información de reproducción adicional que es para reproducirse junto con los datos de vídeo en una pantalla de visualización, e información de profundidad para la reproducción adicional de información usada para la reproducción en 3D de la información de reproducción adicional, en donde los datos de vídeo comprenden al menos una de una imagen de vídeo bidimensional (2D) y una imagen de vídeo en 3D; que genera un paquete de caudal elemental empaquetado de vídeo (PES) , un paquete PES de audio, un paquete PES de datos, y un paquete de información auxiliar al formar en paquete respectivamente el vídeo ES, el audio ES, el caudal de datos adicional y el caudal de información auxiliar; y generar un caudal de transporte (TS) al multiplexar el paquete PES de video, el paquete PES de audio, el paquete PES de datos adicional, y el paquete de información auxiliar.
Efectos Ventajosos de la Invención Los usuarios pueden estar provistos de un caudal de multimedia que permite vídeo en 3D para reproducirse e información de reproducción en 3D a reproducirse establemente con compatibilidad con diversos métodos de comunicación, tal como el método DVB con base en un método MPEG TS existente, el método ATSC, y el método de difusión por cable.
Breve Descripción de las Figuras La FIG. 1 es un diagrama de bloque de un aparato que genera el caudal de multimedia para reproducción en tercera dimensión (3D) de información de reproducción adicional, de acuerdo con una modalidad ejemplar; La FIG. 2 es un diagrama de bloque de un aparato que recibe el caudal de multimedia para reproducción en 3D de información de reproducción adicional, de acuerdo con una modalidad ejemplar; La FIG. 3 ilustra una escena en la cual una información de reproducción adicional en 3D y vídeo en 3D se reproduce simultáneamente; La FIG. 4 ilustra un fenómeno en el cual una información de reproducción adicional en 3D y vídeo en 3D se invierte y reproducen; La FIG. 5 ilustra una estructura de un caudal de transporte (TS) del Grupo de Expertos de Fotografía en Movimiento (MPEG) que incluye diversos tipos de información de reproducción adicional; La FIG. 6 es un diagrama de bloque detallado de un reproductor de subtítulo electrónico incluido en el aparato que recibe el caudal de multimedia ilustrado en la FIG. 2, de acuerdo con una primera modalidad ejemplar; La FIG. 7 es una vista en perspectiva de una pantalla que ajusta una profundidad de un subtítulo electrónico, de acuerdo con la primera modalidad ejemplar; La FIG. 8 es una vista plana de una pantalla que ajusta la profundidad del subtítulo electrónico, de acuerdo con la primera modalidad ejemplar; La FIG. 9 es un diagrama de flujo de un método en el cual el aparato que recibe el caudal de multimedia de acuerdo con la primera modalidad ejemplar usa información destacada de subtítulo en 3D e información de desviación de un subtítulo electrónico; La FIG. 10 es un diagrama de flujo de un método en el cual el aparato que recibe el caudal de multimedia de acuerdo con la primera modalidad ejemplar usa información de seguridad de reproducción en 3D del subtítulo electrónico; La FIG. 11 ilustra un ejemplo de un método posterior al procesamiento de imagen que se realiza cuando la seguridad no se garantiza con base en la información de seguridad de reproducción en 3D del subtítulo electrónico, de acuerdo con la primera modalidad ejemplar; Las FIGS. 12 y 13 ilustran otro ejemplo del método posterior al procesamiento de imagen que se realiza cuando la seguridad no se garantiza con base en la información de seguridad de reproducción en 3D del subtítulo electrónico, de acuerdo con la primera modalidad ejemplar; Las FIGS. 14 y 15 ilustran otro ejemplo del método posterior al procesamiento de imagen que se realiza cuando la seguridad no se garantiza con base en la información de seguridad de reproducción en 3D del subtítulo electrónico, de acuerdo con la primera modalidad ejemplar; La FIG. 16 es un diagrama de bloque de un aparato que genera el caudal de multimedia para reproducción en 3D de un subtítulo, de acuerdo con la segunda y tercera modalidades ejemplares; La FIG. 17 es un diagrama de una estructura jerárquica de datos de subtítulo que cumple con un método de comunicación de difusión de vídeo digital (DVB) ; Las FIGS. 18 y 19 ilustran dos métodos que expresan un descriptor de subtítulo dentro de una tabla de mapa del programa (PMT) que indica un paquete de caudal elemental formado en paquete de subtítulo (PES) , de acuerdo con un método de comunicación DVB; La FIG. 20 es un diagrama de una estructura de un flujo de datos que incluye datos de subtítulo que cumplen con un método de comunicación DVB, de acuerdo con una modalidad ej emplar; La FIG. 21 es un diagrama de una estructura de una página de composición que cumple con un método de comunicación DVB, de acuerdo con una modalidad ejemplar; La FIG. 22 es un diagrama de flujo que ilustra un modelo de procesamiento de subtítulo que cumple con un método de comunicación DVB; Las FIGS . 23, 24, y 25 son diagramas que ilustran datos almacenados respectivamente en un búfer de datos codificados, un búfer de composición, y un búfer de pixel; La FIG. 26 es un diagrama para describir el ajuste de una profundidad de un subtítulo de acuerdo con regiones, de acuerdo con la segunda modalidad ejemplar; La FIG. 27 es un diagrama para describir el ajuste de una profundidad de un subtítulo de acuerdo con las páginas, de acuerdo con la segunda modalidad ejemplar; La FIG. 28 es un diagrama que ilustra componentes de un formato de mapa de bits de un subtítulo que cumple con un método de difusión por cable; La FIG. 29 es un diagrama de flujo de un modelo de procesamiento de subtítulo para reproducción en 3D de un subtítulo que cumple con un método de difusión por cable; La FIG. 30 es un diagrama para describir un proceso de un subtítulo que da salida desde una cola de visualización a un plano gráfico a través del modelo de procesamiento de subtítulo que cumple con un método de difusión por cable ilustrado en la FIG. 29; La FIG. 31 es un diagrama de flujo de un modelo de procesamiento de subtítulo para reproducción en 3D de un subtítulo que cumple con un método de difusión por cable, de acuerdo con la tercera modalidad ejemplar; La FIG. 32 es un diagrama para describir el ajuste de una profundidad de un subtítulo que cumple con un método de difusión por cable de acuerdo con la tercera modalidad ejemplar; La FIG. 33 es un diagrama para describir el ajuste de una profundidad de un subtítulo que cumple con un método de difusión por cable de acuerdo con la tercera modalidad ejemplar; La FIG. 34 es un diagrama para describir el ajuste de una profundidad de un subtítulo que cumple con un método de difusión por cable de acuerdo con la tercera modalidad ejemplar; La FIG. 35 es un diagrama de bloque de un sistema de comunicación digital que transmite información EPG, de acuerdo con una modalidad ejemplar; La FIG. 36 ilustra tablas del protocolo de información específico del programa (PSIP) que incluyen información de la guía de programación electrónica (EPG) de acuerdo con un método de comunicación del comité de estándares de televisión avanzado (ATSC) ; La FIG. 37 ilustra tablas de información de servicio (SI) que incluyen información EPG de acuerdo con un método de comunicación DVB; La FIG. 38 ilustra una pantalla en la cüal la información EPG se visualiza, y una fuente de cada información; La FIG. 39 es un diagrama de bloque de un sistema de decodificación TS de acuerdo con una cuarta modalidad ejemplar; La FIG. 40 es un diagrama de bloque de una unidad de procesamiento de visualización del sistema de decodificación TS de acuerdo con la cuarta modalidad ejemplar; La FIG. 41 es un diagrama de flujo de un método que genera el caudal de multimedia para reproducción en 3D de información de reproducción adicional, de acuerdo con una modalidad ejemplar; y La FIG. 42 es un diagrama de flujo de un método que recibe el caudal de multimedia para reproducción en 3D de la información de reproducción adicional, de acuerdo con una modalidad ejemplar.
Descripción Detallada de la Invención De acuerdo con un aspecto de las modalidades ejemplares, se proporciona un método que genera el caudal de multimedia para reproducción en tercera dimensión (3D) de la información de reproducción adicional, el método comprende: generar un caudal elemental de vídeo (ES) , un audio ES, un caudal de datos adicional, y un caudal de información auxiliar que respectivamente comprende datos de video, datos de audio relacionados con los datos de video, datos de información de reproducción adicional que es para reproducirse junto con los datos de vídeo en una pantalla de visualización, e información de profundidad de la información para reproducción adicional usada para reproducción en 3D de la información de reproducción adicional, en donde los datos de vídeo comprenden al menos una de una imagen de vídeo bidimensional (2D) y una imagen de video en 3D; generar un paquete de caudal elemental empaquetado de vídeo (PES) , un paquete PES de audio, un paquete PES de datos, y un paquete de información auxiliar al formar en paquete respectivamente el vídeo ES, el audio ES, el caudal de datos adicional y el caudal de información auxiliar; y generar un caudal de transporte (TS) al multiplexar el paquete PES de video, el paquete PES de audio, el paquete PES de datos adicional, y el paquete de información auxiliar.
La información de profundidad de información de reproducción adicional para información para reproducción en 3D de la información de reproducción adicional puede comprender información acerca de una cantidad de desviación de información de reproducción adicional en 3D para ajustar una profundidad de la información de reproducción adicional en 3D durante la reproducción en 3D de los datos de video.
La desviación de la información de reproducción adicional puede representar al menos uno seleccionado del grupo que consiste de información de paralaje que indica una cantidad de desplazamiento de la información de reproducción adicional 3D, una coordenada de la información de reproducción adicional en 3D, y una profundidad de la información de reproducción adicional 3D, en donde el paralaje se expresa en unidades de uno seleccionado del grupo que consiste de una diferencia de profundidad, una disparidad, y una paralaje binocular entre información de reproducción adicional a primera vista e información de reproducción adicional a segunda vista de la información de reproducción adicional 3D.
La información de profundidad de información de reproducción adicional para reproducción en 3D de la información de reproducción adicional puede además comprender información acerca de una dirección de desviación de la información de reproducción adicional 3D durante la reproducción en 3D de los datos de video. Una dirección de desviación de la información para reproducción adicional en 3D puede ajustarse para ser positiva desde uno de un grupo que consiste de información de reproducción adicional a primera vista e información de reproducción adicional a segunda vista de la información de reproducción adicional 3D, y puede ajustarse para ser negativa para el otro del grupo de información de reproducción adicional a primera vista e información de reproducción adicional a segunda vista de la información de reproducción adicional 3D.
La información con respecto a la desviación puede representar la cantidad de movimiento de la otra información de reproducción adicional vista con respecto a una ubicación de una información de reproducción adicional vista de entre la información de reproducción adicional a primera vista e información de reproducción adicional a segunda vista de la información de reproducción adicional 3D. La información acerca de la desviación puede representar la cantidad de desplazamiento de la información de reproducción adicional 3D con respecto a la profundidad, disparidad, y una paralaje binocular de una imagen de vídeo actual. La información acerca de la desviación puede comprender de forma separada información de desviación de la información de reproducción adicional a primera vista incluida en la información de reproducción adicional 3D e información de la información de reproducción adicional a segunda vista incluida en la información de reproducción adicional 3D.
La generación del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar puede incluir insertar los datos de subtítulo electrónico, que es para visualizarse con los datos de vídeo en la pantalla de visualización, en el vídeo ES. La generación del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar puede comprender insertar información de profundidad de subtítulo electrónico para reproducción en 3D del subtítulo electrónico en al menos uno seleccionado del grupo que consiste del vídeo ES, un encabezado del vídeo ES, y datos adicionales del caudal de datos adicional.
La generación del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar puede comprender generar un caudal de datos para datos de subtítulo que es para reproducirse en la pantalla de visualización junto con los datos de video, para servir como el caudal de datos adicional. La generación del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar puede además comprender insertar información de profundidad del subtítulo para reproducción en 3D de los datos de subtítulo en al menos uno seleccionado del grupo que consiste del paquete PES de datos adicional y un encabezado del paquete PES de datos adicional.
La generación del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar puede incluir insertar información de la guía de programación electrónica (EPG) , que es para reproducirse junto con los datos de vídeo en la pantalla de visualización, e información de profundidad de la información EPG para reproducción en 3D de la información de EPG, en el caudal de información auxiliar .
La información de profundidad de información EPG para reproducción 3D de la información EPG puede insertarse en un campo descriptor de una tabla de Protocolo de Información Específico del Programa (PSIP) basado en el comité de estándares de televisión avanzados (ATSC) o en un campo del descriptor de una tabla de Información Específica (SI) basada en Difusión de Vídeo Digital (DVB) .
De acuerdo con otro aspecto de las modalidades ejemplares, se proporciona un método que recibe caudal de multimedia para reproducción en 3D de información de reproducción adicional, el método comprende: extraer un paquete PES de video, un paquete PES de audio, un paquete PES de datos adicional, y un paquete de información auxiliar al recibir y desmultiplexar un TS para un caudal de multimedia; extraer un vídeo ES, un audio ES, un caudal de datos adicional, y un caudal de información auxiliar del paquete PES de video, el paquete PES de audio, el paquete PES de datos adicional, y el paquete de información auxiliar, respectivamente, en donde el vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar comprenden información de reproducción adicional, que es para reproducirse junto con datos de vídeo que comprenden al menos una de una imagen de vídeo en 2D y una imagen de vídeo en 3D, e información de profundidad para información de reproducción adicional para reproducción en 3D de la información de reproducción adicional; restaurar los datos de video, datos de audio, datos adicionales, y la información de reproducción adicional y extraer la información para reproducción en 3D de la información de reproducción adicional, del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar; y reproducir la información de reproducción adicional en 3D junto con los datos de video, basados en la información para reproducción en 3D de la información de reproducción adicional.
La reproducción de la información de reproducción adicional en 3D puede incluir mover la información de reproducción adicional 3D en una dirección positiva o en una dirección negativa por la desviación de la información de reproducción adicional, con base en la desviación de la información de reproducción adicional 3D y una dirección de desviación de la información de reproducción adicional 3D de entre la información de profundidad de información de reproducción adicional para reproducción en 3D de la información de reproducción adicional. La reproducción de la información de desplazar la información de reproducción adicional en 3D positivamente o negativamente por la desviación de la información de reproducción adicional con respecto al plano cero donde la profundidad tiene su origen, con base en la desviación de la información de reproducción adicional 3D y una dirección de desviación de la información de reproducción adicional 3D. La reproducción de la información de reproducción adicional en 3D puede comprender desplazar la información de reproducción adicional en una dirección positiva o una dirección negativa por la desviación de la información de reproducción adicional 3D con respecto a la profundidad, disparidad, o una paralaje binocular de los datos de video que se reproducen junto con la información de reproducción 3D.
La reproducción de la información de reproducción adicional en 3D puede comprender desplazar desde uno del grupo que consiste de información de reproducción adicional de primera vista e información de reproducción adicional de segunda vista de la información de reproducción adicional 3D en una dirección positiva por la cantidad de desviación de la información de reproducción adicional y desplazar la información de reproducción adicional de otra vista en una dirección negativa por la desviación de la información de reproducción adiconal 3D, con base en la desviación de la información de reproducción adicional 3D y una dirección de desviación de la información de reproducción adicional 3D. La reproducción de la información de reproducción adicional en 3D puede comprender desplazar uno del grupo que consiste de información de reproducción adicional de primera vista e información de reproducción adicional de segunda vista de la información de reproducción adicional 3D por la desviación de la información de reproducción adicional 3D con respecto a una ubicación de la información de reproducción adicional de otra vista, con base en la desviación de la información de reproducción adicional 3D y una dirección de desviación de la información de reproducción adicional 3D. La reproducción de la información de reproducción adicional en 3D puede comprender desplazar la información de reproducción adicional 3D por la desviación de la información de reproducción adicional 3D con respecto a la profundidad, la disparidad, o una paralaje binocular de los datos de vídeo actuales, con base en la desviación de la información de reproducción adicional 3D y una dirección de desviación de la información de reproducción adicional 3D.
La reproducción de la información de reproducción adicional en 3D puede comprender exhibir la información de reproducción adicional de primera vista de acuerdo con la información de ubicación de la información de reproducción adicional de primera vista de entre la información de desviación de la información de reproducción adicional 3D y exhibir la información de reproducción adicional de segunda vista de acuerdo con la información de ubicación de la información de reproducción adicional de segunda vista de entre la información de desviación de la información de reproducción adicional 3D.
La extracción del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar puede comprender extraer datos de subtítulo electrónico que es para visualizarse con los datos de vídeo en la pantalla de visualización, desde el vídeo ES. La reproducción de la información de reproducción adicional en 3D puede comprender reproducir los datos de subtítulo electrónico en 3D, con base en la información de profundidad del subtítulo electrónico para reproducción en 3D del subtítulo electrónico.
La extracción del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar puede comprender extraer un caudal de datos de subtítulo para datos de subtítulo que es para reproducirse en la pantalla de visualización junto con los datos de video, para servir como el caudal de datos adicional. La reproducción de la información de reproducción adicional en 3D puede comprender reproducir los datos del subtítulo en 3D, con base en la información de profundidad del subtítulo para reproducción 3D del subtítulo.
La extracción del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar puede comprender extraer información EPG que es para reproducirse junto con los datos de video, e información de profundidad de información EPG para reproducción en 3D de la información de EPG, desde el caudal de información auxiliar. La reproducción de la información de reproducción adicional en 3D puede comrpender reproducir la información EPG en 3D, con base en la información de profundidad de información EPG para reproducción 3D de la información EPG.
De acuerdo con otro aspecto de las modalidades ejemplares, se proporciona un aparato que genera el caudal de multimedia para reproducción en 3D de información de reproducción adicional, el aparato que genera el caudal de multimedia comprende: un codificador de programa que genera un vídeo ES, un audio ES, un caudal de datos adicional, y un caudal de información auxiliar que respectivamente comprende datos de video, datos de audio relacionados con los datos de video, datos de información de reproducción adicional que es para reproducirse junto con los datos de vídeo en una pantalla de visualización, e información de profundidad de información de reproducción adicional para reproducción en 3D de la información de reproducción adicional, y que genera un paquete PES de video, un paquete PES de audio, un paquete PES de datos, y un paquete de información auxiliar al formar en paquete respectivamente el vídeo ES, el audio ES, el caudal de datos adicional y el caudal de información auxiliar, en donde los datos de vídeo comprenden al menos una de una imagen de vídeo en 2D y una imagen de vídeo en 3D y un generador TS que genera un TS al multiplexar el paquete PES de video, el paquete PES de audio, el paquete PES de datos adicional, y el paquete de información auxiliar.
De acuerdo con otro aspecto de las modalidades ejemplares, se proporciona un aparato que recibe el caudal de multimedia para reproducción en 3D de la información de reproducción adicional, el aparato que recibe el caudal de multimedia comprende: un receptor que recibe un TS para un caudal de multimedia que comprende datos de vídeo que comprenden al menos una de una imagen de vídeo en 2D y una imagen de vídeo en 3D; un desmultiplexor que desmultiplexa el TS recibido para extraer un paquete PES de video, un paquete PES de audio, un paquete PES de datos adicional, y un paquete de información auxiliar y extrae un vídeo ES, un audio ES, un caudal de datos adicional, y un caudal de información auxiliar desde el paquete PES de video, el paquete PES de audio, el paquete PES de datos adicional, y el paquete de información auxiliar, en donde el vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar comprende información de reproducción adicional, que es para reproducirse junto con los datos de vídeo en una pantalla de visualización, e información de profundidad de información de reproducción adicional para reproducción en 3D de la información de reproducción adicional; un decodificador que restaura los datos de video, datos de audio, datos adicionales, y la información de reproducción adicional y extrae la información para reproducción en 3D de la información de reproducción adicional, desde el vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar; y un reproductor que reproduce la información de reproducción adicional en 3D junto con los datos de video, con base en la información para reproducción en 3D de la información de reproducción adicional.
De acuerdo con otro aspecto de las modalidades ejemplares, se proporciona un medio de grabación legible por computadora que tiene grabado en este instrucciones que, cuando se ejecutan por una computadora, causa que la computadora realice el método de generación de caudal multimedia.
De acuerdo con otro aspecto de las modalidades ejemplares, se proporciona un medio de grabación legible en computadora que tiene grabado en este instrucciones que, cuando se ejecutan por una computadora, causan que la computadora realice el método de recepción del caudal multimedia .
Modo para la Invención En lo sucesivo, se describirá más completamente un método y aparato para generar un caudal de multimedia para reproducción en tercera dimensión (3D) de información de reproducción de vídeo adicional y un método y aparato para recibir el caudal de multimedia por reproducción de tercera dimensión de información de reproducción de vídeo adicional, de acuerdo con una modalidad ejemplar se describirá más completamente con con referencia a las FIGS . 1 a la 42. Las expresiones tal como "al menos uno de," cuando precede una lista de elementos, modifica la lista completa de elementos y no modifica los elementes individuales de la lista.
La información de reproducción adicional, que se describirá más tarde, se visualiza junto con una imagen de vídeo en una pantalla en asociación con un programa, y puede incluir un subtítulo electrónico, un subtítulo, e información de la guía de programación electrónica (EPG) . Los aspectos describen diversas modalidades ejemplares en las cuales un subtítulo electrónico, un subtítulo, e información EPG se reproducen en 3D. En detalle, las modalidades ejemplares relacionadas con un subtítulo electrónico con base en un método de la Asociación de Productos Electrónicos del Consumidor (CEA) se describirán con referencia a las FIGS. 6 a la 15, las modalidades ejemplares relacionados con un subtítulo se describirán con referencia a las FIGS. 16 a través de 34, y modalidades ejemplares relacionados con información EPG se describirán con referencia a las FIGS. 35 a la 40.
La FIG. 1 es un diagrama de bloque de un aparato que genera el caudal de multimedia 100 para reproducción en 3D de la información de reproducción adicional, de acuerdo con una modalidad ejemplar.
El aparato que genera el caudal de multimedia 100 de acuerdo con la modalidad ejemplar para reproducción en 3D de la información de reproducción adicional (en lo sucesivo, referido como un aparato que genera el caudal de multimedia 100 de acuerdo con la modalidad ejemplar) incluye un codificador de programa 110, un generador 120 de caudal de transporte (TS) , y un transmisor 130.
El codificador de programa 110 recibe datos de información de reproducción adicional junto con datos de vídeo codificados y datos de audio codificados. Para conveniencia de la descripción, los datos, que se insertan en un caudal como los datos de información de reproducción adicional, tal como un subtítulo electrónico, un subtítulo, o información EPG, y que es para visualizarse con una imagen de vídeo en una pantalla, serán en lo sucesivo referidos como "datos de reproducción adicional" .
Los datos de vídeo de un programa generado por el codificador de programa 110 incluyen al menos uno de datos de vídeo en 2D y datos de vídeo en 3D. Los datos de reproducción adicional relacionados con el programa de acuerdo con una modalidad ejemplar pueden incluir datos de subtítulo electrónico, datos de subtítulo, y datos EPG que se relacionan con el programa.
Los datos de reproducción adicional de acuerdo con una modalidad ejemplar se pueden reproducir en 3D junto con datos de vídeo en 3D al controlar una profundidad de la información de reproducción adicional. Para alcanzar esto, el codificador del programa 110 puede generar un caudal elemental de vídeo (ES) , un audio ES, un caudal de datos adicional, y un caudal de información auxiliar que incluye los datos de video codificados, los datos de audio codificados, los datos de reproducción adicional, y la información para reproducción en 3D de la información de reproducción adicional.
Los datos adicionales a insertarse en el caudal de información auxiliar pueden incluir diversos tipos de datos, tal como datos de control, diferentes de datos de vídeo y datos de' audio. El caudal de información auxiliar puede incluir información específica del programa (PSI) , tal como una tabla de mapa del programa (PMT) o una tabla de asociación de programa (PAT) , o información de sección, tal como información de protocolo de información específico del programa (ATSC PSIP) del comité de estándares de televisión avanzado o información de servicio de difusión de vídeo digital (DVB SI) .
El codificador del programa 110 genera un paquete de caudal elemental empaquetado de vídeo (PES) , un paquete PES de audio, y un paquete PES de datos adicional al formar en paquete el vídeo ES, el audio ES, y el caudal de datos adicional, y también genera un paquete de información auxiliar .
El generador TS 120 genera un TS al multiplexar el paquete PES de video, el paquete PES de audio, el paquete PES de datos adicionales, y el paquete de información auxiliar, que se emiten del codificador de programa 110. El transmisor 130 transmite la emisión TS del generador TS 120 por medio de un canal predeterminado.
La información para reproducción en 3D de la información de reproducción adicional, que se inserta en un caudal de multimedia junto con un programa y se transmite por el codificador de programa 110, incluye información usada para ajustar la profundidad de la información de reproducción adicional que se reproduce en 3D durante la reproducción de una imagen de vídeo en 3D.
Los ejemplos de la información usada para ajustar la profundidad de la información de reproducción adicional incluyen información de desviación de la información de reproducción adicional, que incluye información de paralaje tal como una diferencia de profundidad, una disparidad, y una paralaje binocular entre información de reproducción adicional vista a la izquierda por imágenes vistas a la izquierda e información de reproducción adicional vista a la derecha por imágenes vistas a la derecha, información de coordenada o información de profundidad de información de reproducción adicional para cada vista, y otra información. En las siguientes modalidades ejemplares, aún cuando cualquiera de un elemento de la información de desviación, tal como una disparidad, una coordenada, o similares, de entre diferentes elementos de la información de desviación se ilustra, la misma modalidad ejemplar se puede realizar por los otros elementos de información de desviación para cada vista.
La información de desviación de la información de reproducción adicional puede indicar la cantidad de desplazamiento de información de reproducción adicional de una vista en relación con la ubicación de la información de reproducción adicional de otra vista de entre información de reproducción adicional a primera vista e información de reproducción adicional a segunda vista de una imagen de vídeo en 3D. La información de desviación de la información de reproducción adicional también puede indicar una cantidad de desplazamiento de información de reproducción adicional para cada vista relativa a una de una profundidad, una disparidad, y una paralaje binocular de una imagen de vídeo actual.
La información de desviación de la información de reproducción adicional puede incluir una ubicación absoluta de información de reproducción adicional con base en un plano cero (paralaje cero) , en lugar de una diferencia de profundidad, una disparidad, o una paralaje binocular de la información de reproducción adicional, que son valores relativos .
La información de desviación de la información de reproducción adicional puede además incluir información acerca de una dirección de desviación de la información de reproducción adicional. Por ejemplo, la dirección de desviación de la información de reproducción adicional se puede establecer para ser una dirección positiva para la información de reproducción adicional a primera vista de la imagen de vídeo en 3D y se puede establecer para ser una dirección negativa para la información de reproducción adicional a segunda vista de la imagen de vídeo en 3D.
La información para reproducción en 3D de la información de reproducción adicional puede además incluir información de tipo de desviación que indica si la información de desviación de la información de reproducción adicional es de un primer tipo de desviación que representa una ubicación absoluta de la información de reproducción adicional basada en el plano cero o de un segundo tipo de desviación que representa una cantidad de desplazamiento relativa de información de reproducción adicional para cada vista.
La información para reproducción en 3D de la información de reproducción adicional puede además incluir al menos una seleccionada del grupo que consiste de información que distingue de 2D/3D de la información de reproducción adicional, información de reproducción de vídeo 2D que representa si los datos de vídeo son para reproducirse en 2D durante la reproducción en 2D de la información de reproducción adicional, información que identifica una región donde la información de reproducción adicional es para reproducirse, información asociada con cuando la información de reproducción adicional se debiera visualizar, y la información de seguridad de reproducción en 3D de la información de reproducción adicional.
Cuando un caudal de multimedia se codifica por un sistema de comunicación de datos del Grupo 2 de Expertos de Fotografía en Movimiento (MPEG-2) , el codificador de programa 110 puede insertar al menos uno seleccionado del grupo que consiste de información de paralaje binocular, información de disparidad, e información de profundidad de una imagen de vídeo en 3D, en al menos uno seleccionado del grupo que consiste de un campo de extensión de información de paralaje, un mapa de profundidad, y un campo reservado de un campo de datos de subtítulo electrónico.
Cuando el caudal de multimedia se genera en un formato de archivo de medios de la Organización Internacional para la Estandarización (ISO) , el codificador de programa 110 puede insertar al menos uno seleccionado del grupo que consiste de información de paralaje binocular, información de disparidad, e información de profundidad de una imagen de video en 3D, en una región de Cámara Estereoscópica E Información de Visualización (SCDI) del formato de archivo de medios basado en ISO, que incluye una cámara estereoscópica e información relacionada a la visualización.
Una operación del codificador de programa 110 puede variar de acuerdo con si la información de reproducción adicional es un subtítulo electrónico, un subtítulo, o información EPG.
De acuerdo con una primera modalidad ejemplar, el codificador de programa 110 inserta datos de subtítulo electrónico con base en los estándares CEA en un vídeo ES. El codificador de programa 110 de acuerdo con la primera modalidad ejemplar puede insertar información para reproducción en 3D de un subtítulo electrónico (en lo sucesivo, referido como información de reproducción en 3D de subtítulo electrónico) en el vídeo ES, un encabezado del vídeo ES, o una sección. La información de reproducción en 3D de subtítulo electrónico de acuerdo con la primera modalidad ejemplar puede incluir no únicamente la información antes descrita para la reproducción en 3D de información de reproducción adicional sino también información destacada de subtítulo en 3D que representa si los datos de subtítulo electrónico son para ser reemplazados por datos enfatizados de subtítulo electrónico en 3D.
De acuerdo con una segunda modalidad ejemplar, cuando el aparato que genera el caudal de multimedia 100 cumple con un método de Instituto de Estándar Nacional Americano/Sociedad de Ingenieros de Telecomunicación por Cable (ANSI/SCTE) , el codificador de programa 110 puede generar un paquete PES de subtítulo al generar un caudal de datos que incluye datos de subtítulo, junto con el vídeo ES y el audio ES. Aquí, el codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede insertar información para reproducción en 3D de un subtítulo (en lo sucesivo, referido como información de reproducción en 3D de subtítulo) en al menos uno del paquete PES de subtítulo y un encabezado del paquete PES de subtítulo. La información de desviación de subtítulo incluida en la información de reproducción en 3D de subtítulo de acuerdo con la segunda modalidad ejemplar puede ser información acerca de una cantidad de desplazamiento de al menos uno de un mapa de bits y un marco del subtítulo.
El codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede insertar información de desviación, que se aplica a tanto los elementos de carácter como elementos de marco del subtítulo, en un campo reservado de un campo de mensaje de subtítulo en los datos de subtítulo. Alternativamente, el codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede insertar información de desviación alrededor de los elementos de carácter del subtítulo, e información de desviación alrededor de los elementos de marco del subtítulo de forma separada en los datos de subtítulo.
El codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede básicamente incluir información de tipo subtítulo alrededor de un subtítulo de vista base como información de tipo subtítulo. El codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede agregar información de tipo subtítulo alrededor de un subtítulo de vista adicional a la información de tipo subtítulo. En consecuencia, el codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede insertar adicionalmente información de coordenada de un subtítulo de vista adicional para un vídeo de vista adicional de una imagen de vídeo en 3D en los datos de subtítulo.
El codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede agregar un tipo de disparidad de subtítulo a la información de tipo subtítulo, y adicionalmente inserta información de disparidad del subtítulo de vista adicional del vídeo de vista adicional relativo a un subtítulo de vista base de un vídeo de vista base de la imagen de vídeo en 3D en los datos de subtítulo.
De acuerdo con una tercera modalidad ejemplar, cuando el aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar cumple con un método de difusión de vídeo digital (DVB) , el codificador de programa 110 puede generar un paquete PES de subtítulo al generar un caudal de datos adicional que incluye datos de subtítulo, junto con el vídeo ES y el audio ES. En este caso, el codificador de programa 110 de acuerdo con la tercera modalidad ejemplar puede insertar los datos de subtítulo en el caudal de datos adicional de modo que los datos de subtítulo forma un segmento de subtítulo en el caudal de datos adicional.
El codificador de programa 110 de acuerdo con la tercera modalidad ejemplar puede insertar la información de reproducción en 3D de subtítulo en un campo reservado incluido en un segmento de composición de página. El codificador de programa 110 de acuerdo con la tercera modalidad ejemplar puede insertar adicionalmente al menos una de información de desviación para cada página del subtítulo e información de desviación para cada región de una página actual del subtítulo en el segmento de composición de página.
De acuerdo con una cuarta modalidad ejemplar, el codificador de programa 110 puede insertar información EPG que se puede reproducir junto con datos de video, e información para reproducción en 3D de información EPG (en lo sucesivo, referido como información de reproducción en 3D EPG) en una sección.
Cuando el aparato que genera el caudal de multimedia 100 de acuerdo con la cuarta modalidad ejemplar cumple con el método ATSC, el codificador de programa 110 puede insertar la información de reproducción en 3D EPG en un campo del descriptor de una tabla PSIP del ATSC. En detalle, la información de reproducción en 3D EPG se puede insertar en un campo del descriptor de al menos uno seleccionado del grupo que consiste de una sección de Tabla de Canal Virtual Terrestre (TVCT) , una sección de Tabla de Información de Evento (EIT) , una sección de Tabla de Texto Extendido (ETT) , una sección de Tabla de Región de Clasificación (RRT) , y una sección de Tabla de Tiempo de Sistema (STT) de la tabla PSIP del ATSC.
Cuando el aparato que genera el caudal de multimedia 100 de acuerdo con la cuarta modalidad ejemplar cumple con el método DVB, el codificador de programa 110 puede insertar la información de reproducción en 3D EPG en un campo del descriptor de una tabla SI del DVB. En detalle, la información de reproducción en 3D EPG se puede insertar en un campo del descriptor de al menos uno seleccionado del grupo que consiste de una sección de Tabla de Información de Red (NIT) , una sección de Tabla de Descripción de Servicio (SDT) , y una sección EIT de la tabla SI.
En consecuencia, con objeto de reproducir diversos tipos de información de reproducción adicional en tercera dimensión con base en diversos métodos de comunicación tal como un subtítulo electrónico con base en el método CEA, un subtítulo basado en el método DVB o el método de difusión por cable, e información EPG con base en el método ATSC o DVB, el aparato que genera el caudal de multimedia 100 de acuerdo con la modalidad ejemplar puede insertar datos de reproducción adicional e información para reproducción en 3D de la información de reproducción adicional en datos ES de vídeo, un caudal de datos, o un caudal auxiliar y así transmitir los datos de reproducción adicional y la información para reproducción en 3D de la información de reproducción adicional junto con datos multimedia. Un receptor (no se muestra) puede usar la información para reproducción en 3D de información de reproducción adicional para reproducir establemente la información de reproducción adicional durante la reproducción en 3D de datos de video.
El aparato que genera el caudal de multimedia 100 mantiene la compatibilidad con diversos métodos de comunicación, tal como el método DVB con base en un método MPEG TS que existe, el método ATSC, y el método de difusión por cable, y puede proporcionar espectadores con un caudal de multimedia que permite vídeo en 3D para reproducirse e información de reproducción en 3D a reproducirse establemente .
La FIG. 2 es un diagrama de bloque de un aparato que recibe el caudal de multimedia 200 para reproducción en 3D de información de reproducción adicional, de acuerdo con una modalidad ejemplar.
El aparato que recibe el caudal de multimedia 200 de acuerdo con la modalidad ejemplar incluye un receptor 210, un desmultiplexor 220, un decodificador 230, y un reproductor 240.
El receptor 210 recibe un TS por un caudal de multimedia que incluye datos de vídeo que incluyen al menos una de una imagen de vídeo en 2D y una imagen de vídeo en 3D. El caudal de multimedia incluye datos de reproducción adicional para información de reproducción adicional tal como un subtítulo electrónico, un subtítulo, información EPG, etc., que se puede reproducir con una imagen de vídeo en 2D o 3D en una pantalla, e información para reproducción en 3D de información de reproducción adicional.
El desmultiplexor 220 extrae un paquete PES de video, un paquete PES de audio, un paquete PES de datos adicional, y un paquete de información auxiliar al recibir y desmultiplexar el TS del receptor 210. El desmultiplexor 220 extrae un vídeo ES, un audio ES, un caudal de datos adicional, e información relacionada con el programa del paquete PES de video, el paquete PES de audio, el paquete PES de datos adicional, y el paquete de información auxiliar. El vídeo ES, el audio ES, el caudal de datos adicional, y la información relacionada con el programa incluyen datos de reproducción adicional e información para reproducción en 3D de la información de reproducción adicional.
El decodificador 230 recibe el vídeo ES, el audio ES, el caudal de datos adicional, y la información relacionada con el programa a partir del desmultiplexor 220, video restaurado, audio, datos adicionales, e información de reproducción adicional respectivamente desde el vídeo ES recibido, el audio ES, y el caudal de datos adicional, y extrae la información para la reproducción en 3D de la información de reproducción adicional desde los caudales recibidos o la información relacionada con el programa.
El reproductor 240 reproduce el video, el audio, los datos adicionales, y la información de reproducción adicional restaurada por el decodificador 230. También, el reproductor 240 puede construir información de reproducción adicional 3D, con base en la información para reproducción en 3D de la información de reproducción adicional.
Los datos de reproducción adicional y la información para reproducción en 3D de la información de reproducción adicional extraída y usada por el aparato que recibe el caudal de multimedia 200 de acuerdo con la modalidad ejemplar corresponde a los datos de reproducción adicional y la información para reproducción en 3D de la información de reproducción adicional descrita arriba con referencia al aparato que genera el caudal de multimedia 100 de acuerdo con la modalidad ejemplar de la FIG. 1.
Con objeto de alcanzar la reproducción en 3D de la información de reproducción adicional, el reproductor 240 puede reproducir la información de reproducción adicional en una desviación de ubicación de un ubicación de referencia de la información de reproducción adicional en una dirección positiva o negativa, con base en la información de desviación de la información de reproducción adicional de entre la información para reproducción en 3D de la información de reproducción adicional. En lo sucesivo, aunque cualquiera de información de paralaje, información de profundidad, e información de coordenada se ilustra para conveniencia de explicación, la información de desviación de la información de reproducción adicional de entre la información para reproducción en 3D de la información de reproducción adicional no se limita a ello, lo que es similar a la modalidad ejemplar de la FIG. 1.
El reproductor 240 puede reproducir la información de reproducción adicional de tal manera que la información de reproducción adicional se visualiza en una ubicación positivamente o negativamente desplazada por una cantidad de desviación relativa a un plano cero, con base en la información de desviación de la información de reproducción adicional e información acerca de una dirección de desviación. Alternativamente, el reproductor 240 puede reproducir la información de reproducción adicional de tal manera que la información de reproducción adicional se visualiza en una ubicación positivamente o negativamente desplazada por una desviación, con base en uno seleccionado del grupo que consiste de una profundidad, una disparidad, y una paralaje binocular de un vídeo que es para reproducirse con la información de reproducción adicional.
El reproductor 240 puede construir información de reproducción adicional 3D y reproduce la información de reproducción adicional 3D en 3D de tal manera que una de información de reproducción adicional a primera vista e información de reproducción adicional a segunda vista de la información de reproducción adicional 3D se visualiza en una ubicación positivamente desplazada por una desviación de un plano cero, y la otra se visualiza en una ubicación negativamente desplazada por la desviación relativa al plano cero, con base en la información de desviación de la información de reproducción adicional y la información acerca de una dirección de desviación.
El reproductor 240 puede construir información de reproducción adicional 3D y reproduce la información de reproducción adicional 3D en 3D de tal manera que una información de reproducción adicional de vista se visualiza en una ubicación movida por una desviación relativa a la ubicación de la otra información de reproducción adicional de vista, con base en la información de desviación de la información de reproducción adicional y la información acerca de una dirección de desviación.
El reproductor 240 puede construir información de reproducción adicional 3D y reproduce la información de reproducción adicional 3D en 3D de tal manera que la información de reproducción adicional para un vídeo actual se visualiza en una ubicación movida por una desviación con base en una de una profundidad, una disparidad, y una paralaje binocular del vídeo actual, con base en la información de desviación de la información de reproducción adicional y la información acerca de una dirección de desviación.
El reproductor 240 puede construir información de reproducción adicional 3D y reproduce la información de reproducción adicional 3D en 3D de tal manera que la información de reproducción adicional a primera vista se visualiza con base en la información de ubicación de la información de reproducción adicional a primera vista de entre la información de desviación de la información de reproducción adicional y la información de reproducción adicional a segunda vista se visualiza con base en información de ubicación de la información de reproducción adicional a segunda vista de entre la información de desviación de la información de reproducción adicional, con base en información de ubicación de información de reproducción adicional independientemente establecida para cada vista.
El vídeo 3D de entre datos de vídeo restaurado por el decodificador 230 puede tener un formato compuesto en 3D de un formato lado a lado. En este caso, el reproductor 240 puede construir información de reproducción adicional 3D y reproduce la información de reproducción adicional 3D en 3D de tal manera que cada una de la información de reproducción adicional vista a la izquierda y la información de reproducción adicional vista a la derecha para un vídeo de vista a la izquierda y un vídeo de vista a la derecha, que forma un formato compuesto en 3D, se visualizan en una ubicación desplazada por la mitad de una desviación, cuando la desviación se obtiene de la información de desviación de la información de reproducción adicional.
Cuando se reproduce información de reproducción adicional en 3D, el reproductor 240 puede reproducir datos de vídeo que corresponden a la información de reproducción adicional en 2D, con base en la información de reproducción de vídeo 2D incluida en la información para reproducción en 3D de la información de reproducción adicional.
El reproductor 240 puede reproducir un vídeo y la información de reproducción adicional en 3D al sincronizar el vídeo con la información de reproducción adicional, con base en información asociada con cuando la información de reproducción adicional de entre la información para reproducción en 3D de la información de reproducción adicional se visualiza.
El reproductor 240 puede determinar si la reproducción en 3D de información de reproducción adicional es segura, con base en la información de seguridad de reproducción en 3D de la información de reproducción adicional de entre la información para reproducción en 3D de la información de reproducción adicional, y puede luego determinar un método para reproducir la información de reproducción adicional. Si esto se determina, con base en la información de seguridad de reproducción en 3D de la información de reproducción adicional, que la reproducción en 3D de información de reproducción adicional es segura, el reproductor 240 puede reproducir la información de reproducción adicional en 3D. Por otro lado, si se determina, con base en la información de seguridad de reproducción en 3D de la información de reproducción adicional, que la reproducción en 3D de información de reproducción adicional no es segura, el reproductor 240 no puede reproducir la información de reproducción adicional o puede reproducir la información de reproducción adicional después de realizar una técnica posterior al procesamiento de imagen predeterminada.
Por ejemplo, si se determina, con base en la información de seguridad de reproducción en 3D de la información de reproducción adicional, que la reproducción en 3D de información de reproducción adicional no es segura, el reproductor 240 puede comparar una disparidad de un vídeo correspondiente con una desviación de la información de reproducción adicional. Si la desviación de la información de reproducción adicional pertenece a una sección segura de la disparidad del vídeo correspondiente, que se determina de acuerdo con un resultado de la comparación, el reproductor 240 puede reproducir la información de reproducción adicional en 3D. Por otro lado, si la desviación de la información de reproducción adicional no pertenece a la sección segura de la disparidad del vídeo correspondiente, que se determina de acuerdo con un resultado de la comparación, el reproductor 240 no puede reproducir la información de reproducción adicional .
Alternativamente, si la desviación de la información de reproducción adicional no pertenece a la sección segura de la disparidad del vídeo correspondiente, que se determina de acuerdo con un resultado de la comparación, el reproductor 240 puede reproducir la información de reproducción adicional después de realizar una técnica posterior al procesamiento de imagen predeterminada. En un ejemplo de la técnica posterior al procesamiento de imagen predeterminada, el reproductor 240 puede reproducir la información de reproducción adicional en un área predeterminada del vídeo correspondiente en 2D. En otro ejemplo de la técnica posterior al procesamiento de imagen predeterminada, el reproductor 240 puede reproducir la información de reproducción adicional al mover la información de reproducción adicional de modo que la información de reproducción adicional sobresale hacia un espectador relativa a un objeto del vídeo correspondiente. En otro ejemplo de la técnica posterior al procesamiento de imagen predeterminada, el reproductor 240 puede reproducir el vídeo correspondiente en 2D y reproduce la información de reproducción adicional en 3D.
El reproductor 240 puede extraer o nuevamente medir la disparidad del vídeo correspondiente con objeto de comparar la disparidad del vídeo correspondiente con la desviación de la información de reproducción adicional. Cuando un caudal de multimedia es con base en un MPEG-2 TS, el reproductor 240 puede extraer al menos uno seleccionado del grupo que consiste de información de paralaje binocular, información de disparidad, e información de profundidad de una imagen de vídeo en 3D, de al menos uno seleccionado del grupo que consiste de un campo de extensión de información de paralaje, un mapa de profundidad, y un campo reservado de un campo de datos de subtítulo electrónico del vídeo ES, y comparar la información extraída con la información de desviación de la información de reproducción adicional. Por ejemplo, cuando el caudal de multimedia tiene un formato de archivo de medios basado en ISO, el reproductor 240 puede extraer al menos uno seleccionado del grupo que consiste de información de paralaje binocular, información de disparidad, e información de profundidad de una imagen de vídeo en 3D, de una región SCDI del formato de archivo de medios basado en ISO, que incluye una cámara estereoscópica e información relacionada a la visualización, y comparar la información extraída con la información de desviación de la información de reproducción adicional.
Una operación del aparato que recibe el caudal de multimedia 200 de acuerdo con la modalidad ejemplar puede variar de acuerdo con si la información de reproducción adicional es un subtítulo electrónico, un subtítulo, o información EPG.
De acuerdo con una primera modalidad ejemplar, el desmultiplexor 220 puede extraer un vídeo ES que incluye datos de subtítulo electrónico con base en los estándares CEA de un TS . El decodificador 230 de acuerdo con la primera modalidad ejemplar puede restaurar datos de vídeo desde el vídeo ES y extraer datos de subtítulo electrónico de los datos de video. El decodificador 230 de acuerdo con la primera modalidad ejemplar puede extraer información de reproducción en 3D de subtítulo electrónico desde el vídeo ES, un encabezado del vídeo ES, o una sección.
El reproductor 240 de acuerdo con la primera modalidad ejemplar puede construir datos de subtítulo electrónico en 3D que incluyen un subtítulo electrónico de vista izquierda y un subtítulo electrónico de vista derecha y reproduce los datos de subtitulo electrónico en 3D en 3D, con base en la información de reproducción en 3D de subtítulo electrónico. Las características de los datos de subtítulo electrónico y la información de reproducción en 3D de subtítulo electrónico de acuerdo con la primera modalidad ejemplar corresponden a aquellas descritas arriba con referencia al aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar.
De acuerdo con la segunda modalidad ejemplar, cuando el aparato que recibe el caudal de multimedia 200 de acuerdo con la segunda modalidad ejemplar cumple con el método A SI/SCTE, el desmultiplexor 220 puede extraer un caudal de datos adicional que incluye datos de subtítulo junto con el vídeo ES y el audio ES desde el TS. En consecuencia, el decodificador 230 de acuerdo con la segunda modalidad ejemplar puede extraer los datos de subtítulo desde el caudal de datos adicional. El desmultiplexor 220 o el decodificador 230 de acuerdo con la segunda modalidad ejemplar pueden extraer información de reproducción en 3D de subtítulo desde al menos uno de un paquete PES de subtítulo y un encabezado del paquete PES de subtítulo.
Las características de los datos de subtítulo y la información de reproducción en 3D de subtítulo de acuerdo con la segunda modalidad ejemplar corresponden a aquellas descritas arriba con referencia al aparato que genera el caudal de multimedia 100 de acuerdo con la segunda modalidad ejemplar. El decodificador 230 de acuerdo con la segunda modalidad ejemplar puede extraer información de desviación, que se aplica a tanto elementos de carácter como elementos de marco de un subtítulo, desde un campo reservado de un campo de mensaje de subtítulo en los datos de subtítulo de acuerdo con la modalidad ejemplar. Alternativamente, el decodificador 230 de acuerdo con la segunda modalidad ejemplar puede extraer adicionalmente información de desviación alrededor de los elementos de carácter del subtítulo, e información de desviación alrededor de los elementos de marco del subtítulo de forma separada de los datos de subtítulo.
El decodificador 230 de acuerdo con la segunda modalidad ejemplar puede comprobar un tipo de subtítulo para datos de vídeo a segunda vista de entre datos de vídeo en 3D, que se incluyen como información de tipo subtítulo en los datos de vídeo en 3D. En consecuencia, el decodificador 230 de acuerdo con la segunda modalidad ejemplar puede extraer adicionalmer.te información de desviación, tal como información de coordenada, información de profundidad, e información de paralaje, de un subtítulo relacionado con los datos de vídeo a segunda vista de los datos de subtítulo.
Cuando se comprueba de la información de tipo subtítulo que un tipo de subtítulo actual es un tipo de disparidad de subtítulo, el decodificador 230 de acuerdo con la segunda modalidad ejemplar puede extraer adicionalmente información de disparidad del subtítulo a segunda vista relacionado con un subtítulo a primera vista de los datos de subtítulo.
El reproductor 240 de acuerdo con la segunda modalidad ejemplar puede construir un subtítulo en 3D que incluye un subtítulo de vista izquierda y un subtítulo de vista derecha y reproduce el subtítulo 3D en 3D, con base en la información de reproducción en 3D del subtítulo.
De acuerdo con una tercera modalidad ejemplar, cuando el aparato que recibe el caudal de multimedia 200 de acuerdo con la modalidad ejemplar cumple con un método DVB, el decodificador 220 puede extraer un caudal de datos adicional que incluye datos de subtítulo junto con el vídeo ES y el audio ES de un TS . En consecuencia, el decodificador 230 de acuerdo con la tercera modalidad ejemplar puede extraer los datos de subtítulo de un formato de segmento de subtítulo del caudal de datos adicional.
El decodificador 230 de acuerdo con la tercera modalidad ejemplar puede extraer la información de reproducción en 3D de subtítulo de un campo reservado incluido en un segmento de composición de página. El decodificador 230 de acuerdo con la tercera modalidad ejemplar puede extraer adicionalmente al menos una de información de desviación para cada página del subtítulo e información de desviación para cada región de una página actual del subtítulo desde el segmento de composición de página.
El reproductor 240 de acuerdo con la tercera modalidad ejemplar puede construir un subtítulo en 3D que incluye un subtítulo de vista izquierda y un subtítulo de vista derecha y reproduce el subtítulo 3D en 3D, con base en la información de reproducción en 3D de subtítulo.
De acuerdo con una cuarta modalidad ejemplar, cuando el aparato que recibe el caudal de multimedia 200 de acuerdo con la modalidad ejemplar cumple con el método ATSC, el decodificador 230 puede extraer información de reproducción en 3D EPG desde un campo del descriptor de una tabla PSIP del ATSC. En detalle, la información de reproducción en 3D EPG se puede extraer de un campo del descriptor de al menos uno seleccionado del grupo que consiste de una sección TVCT, una sección EIT, una sección ETT, una sección RT, y una sección STT de la tabla PSIP del ATSC.
Cuando el aparato que recibe el caudal de multimedia 200 de acuerdo con la cuarta modalidad ejemplar cumple con el método DVB, el decodificador 230 puede extraer la información de reproducción en 3D EPG de un campo del descriptor de una tabla SI del DVB. En detalle, la información de reproducción en 3D EPG se puede extraer de un campo del descriptor de al menos uno seleccionado del grupo que consiste de una sección NIT, una sección SDT, y una sección EIT de la tabla SI.
El reproductor 240 de acuerdo con la cuarta modalidad ejemplar puede construir información EPG 3D que incluye información EPG de vista izquierda e información EPG de vista derecha y reproduce la información EPG 3D en 3D, con base en la información de reproducción en 3D EPG.
En consecuencia, con objeto de reproducir en tercera dimensión diversos tipos de información de reproducción adicional con base en diversos métodos de comunicación tal como un subtítulo electrónico con base en el método CEA, un subtítulo con base en el método DVB o el método de difusión por cable, e información EPG con base en el método ATSC o DVB, el aparato que recibe el caudal de multimedia 200 de acuerdo con la modalidad ejemplar puede extraer datos de reproducción adicional e información para reproducción en 3D de la información de reproducción adicional de un caudal de multimedia recibido. El aparato que recibe el caudal de multimedia 200 de acuerdo con la modalidad ejemplar puede reproducir de forma estable la información de reproducción adicional durante la reproducción en 3D de datos de vídeo al usar la información para reproducción en 3D de la información de reproducción adicional.
El aparato que recibe el caudal de multimedia 200 de acuerdo con la modalidad ejemplar mantiene compatibilidad con diversos métodos de comunicación, tal como el método DVB con base en un método MPEG TS que existe, el método ATSC, y el método de difusión por cable, y puede proporcionar espectadores con un caudal de multimedia que permite al vídeo en 3D reproducirse y la información de reproducción en 3D a reproducirse establemente.
La FIG. 3 ilustra una escena en la cual una información de reproducción adicional en 3D y vídeo en 3D se reproduce simultáneamente.
De acuerdo con la reproducción de vídeo en 3D por un dispositivo de visualización en 3D, una imagen de objeto 310 se puede reproducir de modo que sobresale de un plano cero 300 hacia un espectador. La información de reproducción adicional, tal como un subtítulo electrónico, un subtítulo, e información EPG, necesaria para reproducirse en una pantalla de texto 320, de modo que sobresale hacia el espectador relativa a todos los objetos de una imagen de vídeo, de modo que el espectador disfruta establemente una imagen de vídeo en 3D sin cansancio o falta de armonía.
La FIG. 4 ilustra un fenómeno en el cual una información de reproducción adicional en 3D y vídeo en 3D se invierte y reproduce. Como se muestra en la FIG. 4, cuando existe un error en la información de profundidad, información de disparidad, o información de paralaje binocular de la información de reproducción adicional, un fenómeno de inversión puede ocurrir en el cual la pantalla de texto 320 se reproduce más allá de la imagen del objeto 310 del espectador. Debido al fenómeno de inversión, la imagen del objeto 310 cubre la pantalla de texto 320. En este caso, el espectador se puede cansar o sentir falta de armonía mientras visualiza un vídeo en 3D.
La FIG. 5 ilustra una estructura de un MPEG TS 500 que incluye diversos tipos de información de reproducción adicional.
El MPEG TS 500 incluye caudales de contenidos que constituyen un programa. En detalle, el MPEG TS 500 incluye un audio ES 510, un vídeo ES 520, datos de control 530, y una tabla PSIP 540 que es información relacionada con el programa.
Los datos de subtítulo electrónico de acuerdo con la primera modalidad ejemplar que se procesan por el aparato que genera el caudal de multimedia 100 de acuerdo con la modalidad ejemplar y el aparato que recibe el caudal de multimedia 200 de acuerdo con la modalidad ejemplar se pueden insertar en un formato 'cc_data' en una región de datos del usuario de fotografía del vídeo ES 520. En una modalidad ejemplar, los datos de subtítulo electrónico se pueden insertar en un campo de 'cc_data' de un paquete PES de vídeo construido al multiplexar el vídeo ES 520.
Los datos de subtítulo de acuerdo con la segunda y tercera modalidades ejemplares se pueden insertar en un caudal de datos adicional separado del audio ES 510 o el vídeo ES 520 y se puede incluir en el MPEG TS 500. En particular, los datos de subtítulo pueden incluir no únicamente datos de texto sino también datos gráficos.
La información de EPG de acuerdo con la cuarta modalidad ejemplar se puede insertar en tablas predeterminadas de la tabla 540 PSIP.
La generación y recepción de un caudal de multimedia para la reproducción en 3D del subtítulo electrónico de acuerdo con la primera modalidad ejemplar se describirá ahora en detalle con referencia a las Tablas 1 a la 12 y las FIGS. 6 a la 15.
El aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar puede insertar el subtítulo electrónico junto con datos de vídeo en un caudal de vídeo. El codificador de programa 110 de acuerdo con la primera modalidad ejemplar puede insertar los datos de subtítulo electrónico en el campo 'cc_data' de un campo 'user_data' del paquete PES de video. La Tabla 1 muestra una sintaxis del campo 'cc_data' con base en el método DVB, y la Tabla 2 muestra una sintaxis del campo 'cc_data' con base en el método DVB. Los datos de subtítulo electrónico se pueden insertar en campos 'cc_datal' y 'cc_data_2' de un circuito 'para'.
Tabla 1 Tabla 2 Sintaxis cc_data ( ) { } reservado process_cc_data_flag cero_bit cc_count reservado para (i =0 ; i<cc_count ; i++ ) { one_bit reservado cc_valid cc_type cc_data_l ce data_2 } marker_bits = "11111111 } El codificador de programa 110 de acuerdo con la primera modalidad ejemplar puede insertar la información de reproducción en 3D de subtítulo electrónico en un campo 'reservado' del campo 'cc_data' de las Tablas 1 y 2.
El codificador de programa 110 de acuerdo con la primera modalidad ejemplar puede insertar información que distingue de 2D/3D del subtítulo electrónico, información de desviación del subtítulo electrónico, e información destacada de subtítulo en 3D en el campo 'reservado' del campo 1 cc_data ' .
En detalle, por ejemplo, el codificador de programa 110 de acuerdo con la primera modalidad ejemplar puede insertar información que distingue de 2D/3D '2d_CC del subtítulo electrónico como se muestra en la Tabla 3 en los primeros campos 'reservado' de las Tablas 1 y 2.
Tabla 3 Sintaxis 2d_CC La información que distingue de 2D/3D '2d_CC' de acuerdo con la primera modalidad ejemplar puede representar si los datos de subtítulo electrónico insertados en un campo al lado de un campo '2d_CC es para reproducirse en 2D o 3D.
El codificador de programa 110 de acuerdo con la primera modalidad ejemplar puede insertar información destacada de subtítulo en 3D ' enhanced_CC ' e información de desviación del subtítulo electrónico, 'cc_offset', como se muestra en la Tabla 4 en los segundos campos 'reservado' de las Tablas 1 y 2.
Tabla 4 Sintaxis enhanced_CC ce offset reservado La información destacada de subtítulo en 3D ' enhanced_CC * de acuerdo con la primera modalidad ejemplar puede representar si los datos de subtítulo electrónico de datos CC DTV son para ser reemplazados por datos usados para énfasis de subtítulo electrónico en 3D. La información de desviación del subtítulo electrónico, 'cc_offset', de acuerdo con la primera modalidad ejemplar puede representar una desviación de disparidad que es cantidad de desplazamiento horizontal de los datos de subtítulo electrónico de datos CC DTV para proporcionar una profundidad al subtítulo electrónico.
El aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar puede codificar un carácter de comando y un texto del subtítulo electrónico de acuerdo con un conjunto de código prescrito en el estándar CEA- 708 para un subtítulo electrónico de un caudal de TV digital ATSC. La Tabla 5 muestra una tabla de mapeo de conjunto de código prescrita en el estándar CEA-708.
Tabla 5 Un código de control ASCII se puede representar usando un conjunto de código de un grupo CO de la tabla de mapeo del conjunto de código, y los datos de subtítulo electrónico se pueden representar usando el conjunto de código del grupo CO . El conjunto de código del grupo CO de la tabla de mapeo de conjunto de código prescrito en los estándares CEA- 708 se puede definir arbitrariamente como un código de control extendido por un usuario. El aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar puede representar un descriptor de comando para establecer la información de reproducción en 3D del subtítulo electrónico de acuerdo con la primera modalidad ejemplar, al usar un conjunto de código de un grupo C2. La Tabla 6 muestra una tabla de conjunto de código del grupo C2.
Tabla 6 En una modalidad ejemplar, el aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar puede representar la información de reproducción en 3D del subtítulo electrónico como el carácter de comando al usar una sección de código de byte 2 de una cadena de bits '0x08~0x0f en el conjunto de código del grupo C2.
Por ejemplo, el aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar puede definir un descriptor de comando 1 Define3DInfo ' para establecer la información de reproducción en 3D del subtítulo electrónico. La Tabla 7 muestra un ejemplo del carácter del comando del descriptor de comando 1 Define3DInfo ( ) '.
Tabla 7 Cuando el descriptor de comando ' Define3DInfo ( ) 1 de acuerdo con la primera modalidad ejemplar tiene un formato de 'Define3DInfo ( indow_ID, is_safety_check) ' , '00001100' (o 'OxOC') en el carácter de comando de la Tabla 7 se puede asignar para representar un comando 1 Define3DInfo ' , y 1 id2 idl idO se 1 en el carácter de comando representa parámetros de entrada 'id' y 'se'. Ya que el parámetro de entrada 'id' se expresa en 3 bits como un identificador de región de subtítulo ' indow_ID' para identificar un subtítulo electrónico, el parámetro de entrada 'id' se puede establecer como un identificador único de entre 0 hasta 7. El parámetro de entrada ' se ' representa información de seguridad de reproducción en 3D ' is_safety_check ' del subtítulo electrónico. Como se muestra en la Tabla 8, el parámetro 1 is_safety_check ' puede representar si la información de desviación del subtítulo electrónico insertado en los contenidos es segura.
Tabla 8 En otra modalidad ejemplar, el aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar puede definir un descriptor de comando 1 SetDisparityType ' para establecer información de desviación para reproducción en 3D del subtítulo electrónico. La Tabla 9 muestra un ejemplo del carácter de comando del descriptor de comando 'SetDisparityType'.
Tabla 9 Cuando el descriptor de comando 'SetDisparityType' de acuerdo con la primera modalidad ejemplar tiene un formato de ' SetDisparityType (window_ID, disparity_type) ' , '00001100' (o 'OxOC') en el carácter de comando de la Tabla 9 se puede asignar para representar un comando ' SetDisparityType 1 , y ' id2 idl idO dt1 en el carácter de comando representa parámetros de entrada 'id' y 'dt1.
El parámetro de entrada 'id' representa un identificador de región de subtítulo 'window_ID' . El parámetro de entrada ' dt ' representa información de tipo de desviación 1 disparity_type ' del subtítulo electrónico. Como se muestra en la Tabla 10, el parámetro 1 disparity_type ' puede representar si un valor de desviación del subtítulo electrónico es un primer conjunto de tipo de desviación con base en un plano de pantalla o un plano cero, o un segundo conjunto de tipo de desviación con base en una disparidad de un vídeo .
Tabla 10 De acuerdo con el estándar CEA-708 del arte relacionado, un descriptor de comando ' SetWindowDepth ' para controlar la generación, borrado, corrección, visualización o no visualización, y similares de una región de subtítulo se usa en una Capa de Codificación (DTVCC) de Subtítulo electrónico de TV Dignal.
El aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar puede modificar el descriptor de comando ' SetWindowDepth' y usar el descriptor de comando modificado 'SetWindowDepth1. El aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar puede usar y modificar el descriptor de comando 'SetWindowDepth' al usar una región de conjunto de código de control extendido de la tabla de mapeo de conjunto de código prescrita en el estándar CEA 708, con objeto de mantener compatibilidad hacia atrás con un aparato receptor que incluye una unidad de decodificación de subtítulo electrónico .
Por ejemplo, la información de seguridad de reproducción en 3D 1 is_safety_check ' y la información de tipo de desviación 'tipo de disparidad' del subtítulo electrónico de acuerdo con la primera modalidad ejemplar se puede representar usando una sección de código de 2-byte de una cadena de bits '0x08~0x0f del conjunto de código de grupo C2 , y la información acerca de un valor de desviación se puede representar adicionalmente usando una sección de código de 3 byte de una cadena de bits '0x10-0x17' del conjunto de código de grupo C . La Tabla 11 muestra un ejemplo del carácter de comando del descriptor de comando modificado 1 SetWindowDepth' obtenido por el aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar.
Tabla 11 Cuando el descriptor de comando 'SetWindowDepth' de acuerdo con la primera modalidad ejemplar tiene un formato de ' SetWindowDepth (disparity_type, video_flat, window_ID, is_safety_check, offset_sign, offset)1, '00010000' en el carácter de comando de la Tabla 11 puede indicar un comando •SetWindowDepth', 1 dt vf id2 idl ido 0 se os' en el carácter de comando indica parámetros de entrada 'dt', 'vf, 'id', 'se', y 'os', y Off7 off6 off5 off4 off3 off2 offl offO' en el carácter de comando indica un parámetro de entrada 'off' .
El parámetro de entrada ' dt 1 indica información de tipo de desviación 1 disparity_type ' del subtítulo electrónico. El parámetro de entrada 'vf indica información de reproducción de vídeo 2D ' video_flat ' . 'id' de un parámetro ' id2 idl ido 1 indica un identificador de región de subtítulo 'window_ID' para identificar una región de una imagen de vídeo correspondiente en la cual el subtítulo electrónico se visualiza. El parámetro de entrada 'se' indica información de seguridad de reproducción en 3D ' is_safety_check ' del subtítulo electrónico. El parámetro de entrada 'os' indica información de dirección de desviación ' offset_sign' del subtítulo electrónico.
Cuando el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar ejecuta el descriptor de comando 1 SetWindowDepth ' de la Tabla 11, si se comprueba del parámetro 1 disparity_type 1 que el valor del parámetro 'offset' se establece con base en una disparidad de una imagen de vídeo definida en un vídeo ES, los parámetros 'video_flat' y ' is_safety_check 1 no se pueden usar.
Como se muestra en la Tabla 12 , la información de reproducción de vídeo 2D 'video_flat' puede representar si un modo de reproducción 3D de reproducción de vídeo en 3D se mantiene o cambia a un modo de reproducción 2D durante la reproducción en 3D del subtítulo electrónico.
Tabla 12 Por ejemplo, si se determina del parámetro 'video_flat que un modo de reproducción 3D de reproducción de vídeo en 3D se mantiene, el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar puede controlar un dispositivo de visualización en 3D para reproducir una imagen de vista izquierda y una imagen de vista derecha secuencialmente en tiempo. Por otro lado, si se determina del parámetro 'video_flat' que el modo de reproducción 3D de la reproducción de vídeo en 3D se cambia a un modo de reproducción 2D, el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar puede controlar el dispositivo de visualización en 3D para reproducir secuencialmente en tiempo imágenes de vista izquierda o para reproducir imágenes vistas a la derecha secuencialmente en tiempo.
Aún cuando la reproducción de vídeo en 3D se mantiene en el modo de reproducción 3D o se conmuta del modo de reproducción 3D al modo de reproducción 2D de acuerdo con el parámetro ' video_flat ' , una desviación del subtítulo electrónico se aplica a una región de subtítulo al usar los parámetros 1 offset_sign' y 'offset', de modo que el subtítulo electrónico se puede reproducir en 3D. Sin embargo, si la reproducción de vídeo en 3D se conmuta del modo de reproducción 3D al modo de reproducción 2D, el parámetro ' is_safety_check ' no se puede usar. En este caso, el parámetro ' offset_sign' se puede establecer para representar una desviación negativa de modo que el subtítulo electrónico sobresale hacia un espectador.
El parámetro 1 se ' indica la información de seguridad de reproducción en 3D 1 is_safety_check ' del subtítulo electrónico. Como se muestra en la Tabla 13, el parámetro ' is_safety_check ' puede representar un signo de desviación del subtítulo electrónico y la seguridad o no seguridad de la desviación del subtítulo electrónico.
Tabla 13 Por ejemplo, si la seguridad de la desviación del subtítulo electrónico no se verifica por un proveedor de contenidos y el subtítulo electrónico se proporciona junto con contenidos como en comunicaciones en tiempo real, un fenómeno inverso entre profundidades de la imagen de vídeo en 3D y el subtítulo electrónico puede ocurrir, o espectadores son altamente probable para experimentar cansancio debido a una profundidad insegura. En consecuencia, el parámetro ' is_safety_check ' se puede usar para verificar si el proveedor de contenidos tiene seguridad de la reproducción en 3D asegurada del subtítulo electrónico.
En consecuencia, en el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar, si se determina del parámetro 1 is_safety_check ' que la seguridad de una desviación (o una disparidad) del subtítulo electrónico a controlarse por los parámetros ' offset_sign' y 'offset1 no se garantiza por el proveedor de contenidos, una desviación para el subtítulo electrónico se puede aplicar a la región de subtítulo de acuerdo con un método de visualización de subtítulo electrónico único al receptor.
Por otro lado, si se determina del parámetro 1 is_safety_check 1 que la seguridad de la desviación del subtítulo electrónico se garantiza por el proveedor de contenidos, el receptor puede ajustar la desviación del subtítulo electrónico al usar los parámetros 1 offset_sign' y 'offset' y reproduce el subtítulo electrónico.
El parámetro de entrada 'os' representa información de signo ' offset_sign ' para determinar si el valor de desviación del subtítulo electrónico dado por el parámetro 'offset' es un paralaje binocular negativo o positivo. El parámetro de entrada 'off puede representar una cantidad de desplazamiento horizontal de un pixel para mover horizontalmente la ubicación de un punto de anclaje de una región de subtítulo electrónico generada en 2D con objeto de aplicar la desviación a la región de subtítulo seleccionada por el parámetro de entrada 'id'. La cantidad de desplazamiento horizontal es la información de desviación del subtítulo electrónico.
La información de reproducción en 3D de subtítulo electrónico descrita arriba con referencia a las Tablas 1 hasta la 13 se puede insertar en un caudal de vídeo y se transmite por el aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar. El aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar puede extraer la información de reproducción en 3D de subtítulo electrónico descrita arriba con referencia a las Tablas 1 hasta la 13 desde el caudal de vídeo y puede usar la información de reproducción en 3D de subtítulo electrónico en reproducción en 3D del subtítulo electrónico.
Las modalidades ejemplares en las cuales el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar usa la información de reproducción en 3D de subtítulo electrónico se describirán ahora en detalle con referencia a las FIGS. 6 hasta la 15.
La FIG. 6 es un diagrama de bloque detallado de un reproductor de subtítulo electrónico 600 de un aparato receptor de caudal de multimedia para reproducción en 3D de un subtítulo electrónico, de acuerdo con una modalidad ejemplar.
El reproductor de subtítulo electrónico 600 puede ser otra modalidad ejemplar del reproductor 240 del aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar. El reproductor de subtítulo electrónico 600 incluye un decodificador de vídeo 620, un decodificador 630 de subtítulo electrónico (CC) , una memoria de plano de vídeo 640, una memoria de plano de subtítulo electrónico 650, una memoria de datos enfatizada CC 3D 660 (en lo sucesivo, referida como una memoria CC aumentada 660) , y un interruptor 670.
Los datos de subtítulo electrónico y datos de vídeo obtenidos por un desmultiplexor (DE-MUX) 610 se introducen al reproductor de subtítulo electrónico 600. El decodificador 630 CC decodifica los datos de subtítulo electrónico recibidos del DE-MUX 610 y restaura un plano de subtítulo electrónico. El decodificador de vídeo 620 decodifica los datos de vídeo recibidos del DE-MUX 610 y restaura un plano de vídeo. El plano de vídeo y la emisión del plano de subtítulo electrónico desde el decodificador de vídeo 620 y el decodificador 630 CC se puede almacenar en la memoria de plano de vídeo 640 y la memoria de plano de subtítulo electrónico 650, respectivamente. Cuando los datos de vídeo y los datos de subtítulo electrónico de la memoria de plano de vídeo 640 y la memoria de plano de subtítulo electrónico 650 se emiten y sintetizan, una pantalla de vídeo en la cual los datos de subtítulo electrónico se visualizan se puede emitir.
El decodificador 630 CC puede determinar si para reproducir los datos de subtítulo electrónico 'cc_data_l' y ' cc_data_2 ' en 2D o 3D, con base en el parámetro '2d_CC del campo de subtítulo electrónico 'cc_data' de acuerdo con la primera modalidad ejemplar descrita arriba con referencia a las Tablas 1, 2, y 3.
Cuando un valor de conjunto del parámetro '2d_CC es 0, el decodificador 630 CC puede reproducir los datos de subtítulo electrónico 1 cc_data_l ' y 'cc_data_2' en 3D. En este caso, el decodificador 630 CC puede determinar si los datos de subtítulo electrónico de entrada 'cc_data_l' y ' cc_data_21 se reproducen, o los datos enfatizados CC 3D almacenados en la memoria CC aumentada 660 se reproducen, con base en el parámetro 'enhance_CC del campo de subtítulo electrónico 'cc_data' de acuerdo con la primera modalidad ejemplar.
Por ejemplo, los datos enfatizados CC 3D pueden ser datos gráficos tal como una imagen. Los datos enfatizados CC 3D 662 y 664 para una imagen de vista izquierda y una imagen de vista derecha se pueden almacenar de forma separada en la memoria CC aumentada 660. De acuerdo con si los datos enfatizados CC 3D se usan o no, el interruptor 670 puede controlar una operación de dar salida a los datos enfatizados CC 3D 662 y 664 a la memoria de plano de subtítulo electrónico 650.
El decodificador 630 CC puede reproducir los datos de subtítulo electrónico en una ubicación desplazada por un valor de desviación en una dirección del eje horizontal de una ubicación original cuando se visualizan los datos de subtítulo electrónico como una imagen de vista izquierda y una imagen de vista derecha en una pantalla, con base en el parámetro 'cc_offset' del campo de subtítulo electrónico 'cc_data' de acuerdo con la primera modalidad ejemplar. En otras palabras, un subtítulo electrónico de vista izquierda 686 y un subtítulo electrónico de vista derecha 688 se puede desplazar por offsetl y offset2, respectivamente, en una región de imagen de vista izquierda 682 y una región de imagen de vista derecha 684 de una imagen de vídeo en 3D 680 que tiene un formato compuesto en 3D.
La FIG. 7 es una vista en perspectiva de una pantalla que ajusta una profundidad de un subtítulo electrónico, de acuerdo con la primera modalidad ejemplar.
De acuerdo con la primera modalidad ejemplar, cuando el valor de desviación del subtítulo electrónico es una profundidad de 5, un plano de subtítulo enfatizado CC 3D 720 se visualiza para sobresalir de un plano de vídeo 710 por la profundidad de 5, con base en la información destacada de subtítulo en 3D del subtítulo electrónico.
La FIG. 8 es una vista plana de una pantalla que ajusta una profundidad de un subtítulo electrónico, de acuerdo con la primera modalidad ejemplar.
El reproductor 240 del aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar puede mover la ubicación de una región de subtitulo de vista derecha 825 de una región de subtítulo de vista izquierda 815 por una desviación 830 con objeto de reproducir una región de subtítulo 815 de una imagen de vista izquierda 810 y una región de subtítulo 825 de una imagen de vista derecha 820. En este caso, la desviación 830 puede representar una disparidad de un subtítulo electrónico real y puede corresponder a una primera cantidad de desplazamiento del primer tipo de desviación.
El reproductor 240 del aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar puede mover la ubicación de una región de subtítulo de vista derecha 845 de un valor de disparidad 855 de una imagen de vídeo por una desviación 860 del subtítulo electrónico. En este caso, una suma de la desviación 860 del subtítulo electrónico y el valor de disparidad 855 de la imagen de vídeo puede convertirse en un valor de disparidad 850 de un subtítulo electrónico real y puede corresponder a una segunda cantidad de desplazamiento del segundo tipo de desviación.
La FIG. 9 es un diagrama de flujo de un método en el cual el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar usa información destacada de subtítulo en 3D e información de desviación de un subtítulo electrónico.
En operación 910, los datos CC DTV se introducen al reproductor 240 del aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar. En la operación 920, el reproductor 240 de acuerdo con la primera modalidad ejemplar verifica el valor de la información que distingue de 2D/3D '2d_CC' del subtítulo electrónico. Si se determina con base en la información que distingue de 2D/3D '2d_CC' del subtítulo electrónico que el subtítulo electrónico es para reproducirse en 2D, los datos CC DTV se pueden reproducir en 2D, en la operación 930.
Por otro lado, si se determina con base en la información que distingue de 2D/3D '2d_CC del subtítulo electrónico que el subtítulo electrónico es para reproducirse en 3D, el reproductor 240 de acuerdo con la primera modalidad ejemplar puede comprobar la información destacada de subtítulo en 3D 1 enhance_CC ' y la información de desviación 'cc_offset' del subtítulo electrónico, en la operación 940. En la operación 950, el reproductor 240 de acuerdo con la primera modalidad ejemplar decodifica los datos de subtítulo electrónico 1 cc_data_l 1 y 'cc_data_2' de los datos CC DTV. Si se determina con base en la información destacada de subtítulo en 3D ' enhance_CC ' en la operación 960 que los datos enfatizados CC 3D no se usan, el reproductor 240 de acuerdo con la primera modalidad ejemplar puede reproducir los datos CC DTV en 3D, en la operación 980.
Por otro lado, si se determina con base en la información destacada de subtítulo en 3D 'enhance_CC en la operación 960 que los datos enfatizados CC 3D se usan, el reproductor 240 de acuerdo con la primera modalidad ejemplar puede extraer los datos enfatizados CC 3D en la operación 970, y puede reproducir los datos enfatizados CC 3D en la operación 980.
La FIG. 10 es un diagrama de flujo de un método en el cual el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar usa información de seguridad de reproducción en 3D del subtítulo electrónico.
Los datos CC DTV se introducen al reproductor 240 del aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar y analizan, en la operación 1010. En la operación 1015, el reproductor 240 de acuerdo con las primeras búsquedas de modalidad ejemplar para la información de disparidad del subtitulo electrónico, 'cc_offset', de los datos CC DTV. Si no existe información de disparidad del subtítulo electrónico en los datos CC DTV, el reproductor 240 de acuerdo con la primera modalidad ejemplar reproduce el subtítulo electrónico en 2D, en la operación 1020.
Por otro lado, si la información de disparidad del subtítulo electrónico existe en los datos CC DTV, el reproductor 240 de acuerdo con la primera modalidad ejemplar verifica la información de seguridad de reproducción en 3D ' is_safety_check' en los datos CC DTV, en la operación 1025. Si se determina con base en la información de seguridad de reproducción en 3D ' is_safety_check ' que la seguridad de la información de disparidad del subtítulo electrónico se asegura, el reproductor 240 de acuerdo con la primera modalidad ejemplar reproduce el subtítulo electrónico en 3D al usar la información de disparidad del subtítulo electrónico, en la operación 1030.
Por otro lado, si se determina con base en la información de seguridad de reproducción en 3D ' is_safety_check ' que la seguridad de la información de disparidad del subtítulo electrónico no se asegura, el reproductor 240 de acuerdo con las primeras búsquedas de modalidad ejemplar para información de disparidad por una imagen de un caudal de vídeo, en la operación 1040. Por ejemplo, si un caudal de multimedia se codifica de acuerdo con el método TS MPEG-2, la información de disparidad para la imagen se puede detectar de al menos uno seleccionado del grupo que consiste de un campo de extensión de información de paralaje, un mapa de profundidad, un campo reservado de un campo de datos de subtítulo electrónico de entre una pluralidad de campos incluidos en un vídeo ES. Si el caudal de multimedia se codifica de acuerdo con el formato de archivo de medios ISO, la información de disparidad para la imagen se puede detectar de una región SCDI del formato de archivo de medios ISO.
Si la información de disparidad para la imagen existe en el caudal de vídeo, el reproductor 240 de acuerdo con la primera modalidad ejemplar determina si la información de disparidad del subtítulo electrónico pertenece a una sección de seguridad de reproducción 3D, al comparar la información de disparidad del subtítulo electrónico con información de disparidad de la imagen, en la operación 1045.
Si la información de disparidad del subtítulo electrónico pertenece a la sección de seguridad de reproducción 3D, el reproductor 240 de acuerdo con la primera modalidad ejemplar reproduce el subtítulo electrónico en 3D al usar la información de disparidad del subtítulo electrónico, en la operación 1030. Por otro lado, si la información de disparidad del subtítulo electrónico no pertenece a la sección de seguridad de reproducción 3D, el reproductor 240 de acuerdo con la primera modalidad ejemplar no puede reproducir el subtítulo electrónico o puede asegurar la seguridad de la información de disparidad del subtítulo electrónico a través de un método posterior al procesamiento de imagen y luego reproduce el subtítulo electrónico en 3D, en la operación 1070. Diversas modalidades ejemplares de la técnica posterior al procesamiento de imagen se describirán más tarde con referencia a las FIGS. 11, 12, 13, 14, y 15.
Si se determina en la operación 1040 que la información de disparidad para la imagen no existe en el caudal de vídeo, se determina si el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar puede medir directamente la disparidad de una imagen de vídeo, en la operación 1050. Si el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar incluye una unidad de medición de disparidad de imagen, una disparidad de una imagen estéreo de una imagen de vídeo en 3D se mide, en la operación 1055. En la operación 1045, el reproductor 240 de acuerdo con la primera modalidad ejemplar determina si la información de disparidad del subtítulo electrónico pertenece a la sección de seguridad de reproducción 3D, al comparar la información de disparidad del subtítulo electrónico con información acerca de la disparidad medida en la operación 1055. De acuerdo con un resultado de la determinación en la operación 1045, una operación 1030 o 1070 se puede realizar.
Por otro lado, si el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar no incluye una unidad de medición de disparidad de imagen, se puede determinar si el aparato receptor de caudal de multimedia 200 se establece para estar en un modo de salida CC forzado de acuerdo con un ajuste del usuario, en la operación 1060. Si el modo de salida CC del aparato receptor de caudal de multimedia 200 es el modo de salida CC forzado, el reproductor 240 de acuerdo con la primera modalidad ejemplar reproduce el subtítulo electrónico en 3D al usar la información de disparidad del subtítulo electrónico, en la operación 1030. Por otro lado, si el modo de salida CC del aparato receptor de caudal de multimedia 200 no se establece para estar en el modo de salida CC forzado, el reproductor 240 de acuerdo con la primera modalidad ejemplar no puede reproducir el subtítulo electrónico o puede asegurar la seguridad de la información de disparidad del subtítulo electrónico a través del método posterior al procesamiento de imagen y luego reproduce el subtítulo electrónico en 3D, en la operación 1070.
La FIG. 11 ilustra un ejemplo del método posterior al procesamiento de imagen que se realiza cuando la seguridad no se garantiza con base en la información de seguridad de reproducción en 3D del subtítulo electrónico de acuerdo con la primera modalidad ejemplar.
Cuando se determina con base en la información de seguridad de reproducción en 3D ' is_safety_check ' del subtítulo electrónico que la seguridad no se garantiza, el reproductor 240 de acuerdo con la primera modalidad ejemplar puede emitir datos de subtítulo electrónico 1120 que tienen información de disparidad de manera que se organiza forzadamente en una región predeterminada de una imagen 3D 1110.
Por ejemplo, el reproductor 240 de acuerdo con la primera modalidad ejemplar reduce proporcionalmente la imagen 3D 1110 verticalmente en la operación 1130, y combina un resultado de la reducción proporcional con los datos de subtítulo electrónico 1120 en la operación 1140. Una imagen resultante 1150 que corresponde a un resultado de la combinación se puede dividir en una región de imagen 3D reducida verticalmente 1152 y una región de subtítulo electrónico 1154. La región de imagen 3D reducida verticalmente 1152 y la región de subtítulo electrónico 1154 se pueden reducir independientemente en 3D de modo que no se superponen entre sí .
Las FIGS. 12 y 13 ilustran otro ejemplo del método posterior al procesamiento de imagen que se realiza cuando la seguridad no se garantiza con base en la información de seguridad de reproducción en 3D del subtítulo electrónico de acuerdo con la primera modalidad ejemplar.
En la FIG. 12, como el vídeo 3D se reproduce en un plano de visualización 3D 1210, una región de objeto de vídeo 1220 sobresale por una profundidad única y se visualiza. En este caso, si una región de texto 1230 de un subtítulo electrónico se visualiza entre el plano de visualización 3D 1210 y la región de objeto de vídeo 1220, un espectador 1200 puede sentir mareos y cansancio cuando se confunde con una profundidad de un objeto de vídeo y una profundidad de un texto.
En la FIG. 13, si la información de disparidad de la región de objeto de vídeo 1230 se puede adquirir, el reproductor 240 de acuerdo con la primera modalidad ejemplar puede ajustar la información de disparidad de la región de objeto de vídeo 1230 de modo que la región de texto 1230 sobresale hacia el espectador 1200 relativa a la región de objeto de vídeo 1220. Si la información de disparidad de todos los píxeles de la imagen se pueden comprobar, el reproductor 240 de acuerdo con la primera modalidad ejemplar puede mover una ubicación de pixel de una región de subtítulo de la región de texto 1230 a una ubicación que no se superpone por la región de objeto de vídeo 1220 en términos de una secuencia de profundidad.
Las FIGS . 14 y 15 ilustran otro ejemplo del método posterior al procesamiento de imagen que se realiza cuando la seguridad no se garantiza con base en la información de seguridad de reproducción en 3D del subtítulo electrónico de acuerdo con la primera modalidad ejemplar.
En la FIG. 14, aunque una región de objeto de vídeo 1410 se visualiza que sobresale por una profundidad única como un vídeo 3D se reproduce en un plano de visualización 3D 1400, un fenómeno de inversión de profundidad donde una región de texto 1420 de un subtítulo electrónico existe entre el plano de visualización 3D 1400 y la región de objeto de vídeo 1410 ocurre .
En la FIG. 15, el reproductor 240 de acuerdo con la primera modalidad ejemplar conmuta de un modo de reproducción 3D a un modo de reproducción 2D y reproduce una imagen de vídeo en 3D en el modo de reproducción 2D. En otras palabras, el reproductor 240 de acuerdo con la primera modalidad ejemplar puede reproducir la región de objeto de vídeo 1410 en 2D de manera que se visualiza en el plano de visualización 3D 1400 y puede reproducir la región de texto 1420 en 3D con base en información de disparidad única. En consecuencia, una profundidad de la región de objeto de vídeo 1410 se convierte en 0, y así el fenómeno de inversión de profundidad entre la región de texto 1420 y la región de objeto de vídeo 1410 se puede resolver.
El aparato que genera el caudal de multimedia 100 de acuerdo con la primera modalidad ejemplar puede insertar información de reproducción en 3D de subtítulo electrónico para proporcionar una profundidad 3D a un subtítulo electrónico en un caudal de datos y transmite la información de reproducción en 3D de subtítulo electrónico incluido en el caudal de datos, junto con una imagen de vídeo y una imagen de audio. El aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar puede extraer datos de subtítulo electrónico e información de reproducción en 3D de subtítulo electrónico de un caudal de multimedia recibido. Con base en la información de reproducción en 3D de subtítulo electrónico, el aparato receptor de caudal de multimedia 200 de acuerdo con la primera modalidad ejemplar puede seleccionar un subtítulo electrónico que reproduce el método al verificar la seguridad de un subtítulo electrónico, ajustar una profundidad del subtítulo electrónico, y usar un subtítulo electrónico para enfatizar un efecto de reproducción en 3D del subtítulo electrónico- En consecuencia, la imagen de vídeo en 3D y el subtítulo electrónico se puede reproducir naturalmente.
La generación y recepción de un caudal de multimedia para reproducción en 3D de un subtítulo de acuerdo con una modalidad ejemplar ahora se describirá en detalle con referencia a las Tablas 14 hasta la 48 y las FIGS. 16 a la 34.
La FIG. 16 ilustra la generación y recepción de un caudal de multimedia de datos de subtítulo, de acuerdo con una modalidad ejemplar.
Refiriéndose a la FIG. 16, un codificador de programa individual 1600 recibe datos de vídeo y datos de audio y codifica los datos de vídeo y datos de audio al usar un codificador de vídeo 1610 y un codificador de audio 1620, respectivamente. Los datos de vídeo codificados y los datos de audio codificados se empaquetan en paquetes PES de video y paquetes PES de audio, respectivamente, al usar empaquetadores 1630 y 1640. En la modalidad ejemplar actual, el codificador de programa individual 1600 recibe datos de subtítulo de una estación de generador de subtítulo 1650. un generador PSI 1660 genera información acerca de diversos programas , tal como un PAT y un PMT .
Un UX 1670 del codificador de programa individual 1600 no únicamente recibe los paquetes PES de video y los paquetes PES de audio de los empaquetadores 1630 y 1640, sino también recibe un paquete de datos de subtítulo en una forma de paquete PES, y la información acerca de diversos programas en una forma de sección del generador PSI 1660, y genera y emite un TS alrededor de un programa al multiplexar los paquetes PES de video, los paquetes PES de audio, el paquete de datos de subtítulo, y la información acerca de diversos programas.
Cuando el codificador de programa individual 1600 ha generado y transmitido el TS de acuerdo con un método de comunicación DVB, un convertidor de señal de TV DVB 1680 recibe el TS y analiza el TS para restaurar una imagen de vídeo, una imagen de audio, y un subtítulo. Por otro lado, cuando el codificador de programa individual 1600 ha generado y transmitido el TS de acuerdo con un método de difusión por cable, un convertidor de señal de TV por cable 1685 puede recibir el TS y analiza el TS para restaurar una imagen de vídeo, una imagen de audio, y un subtítulo. Una televisión (TV) 1690 reproduce la imagen de vídeo y la imagen de audio, y reproduce el subtítulo al superponer el subtítulo en la imagen de vídeo visualizada en una pantalla.
El aparato que genera el caudal de multimedia 100 de acuerdo con la segunda o tercera modalidad ejemplar puede insertar adicionalmente y transmitir información por información en 3D de una imagen de vídeo en 3D y un subtítulo, además de la operación del codificador de programa individual 1600. El aparato receptor de caudal de multimedia 200 de acuerdo con la segunda o tercera modalidad ejemplar puede reproducir una imagen de vídeo en 3D y un subtítulo en 3D además de las operaciones de ya sea el convertidor de señal de TV DVB 1680 o el convertidor de señal de TV por cable 1685 y la TV 1690.
La generación y recepción de un caudal de multimedia para reproducción en 3D de un subtítulo de acuerdo con un método de comunicación DVB de acuerdo con la segunda modalidad ejemplar se describirá ahora en detalle con referencia a las Tablas 14 hasta la 34 y las FIGS . 17 a la 27.
La FIG. 17 es un diagrama de una estructura jerárquica de datos de subtítulo que cumple con un método de comunicación DVB.
Los datos de visualización que cumplen con un método de comunicación DVB tiene la estructura jerárquica de un nivel de programa 1700, un nivel de tiempos 1710, un nivel de secuencia de visualización 1720, un nivel de región 1730, y un nivel de objeto 1740.
En detalle, un programa 1705 incluye una pluralidad de unidades de tiempos 1712, 1714, y 1716.
Una unidad de tiempos denota una unidad de tiempo en la cual un diseño de memoria en un decodificador se mantiene sin cambios. En otras palabras, los datos incluidos en la unidad de tiempos 1712 se almacenan en un búfer de un decodificador de subtítulo hasta que los datos en tiempos próximos se transmiten al búfer. El diseño de memoria se puede cambiar al restablecer un estado de decodificador de acuerdo con la recepción de un segmento de composición de página que tiene un estado de página que indica un interruptor de modo. En consecuencia, en un periodo de tiempo entre las unidades de tiempos consecutivas 1712 y 1714, un segmento de composición de página que tiene un estado de página que indica un interruptor de modo se recibe por el decodificador. La unidad de tiempos 1714 incluye una pluralidad de unidades de secuencia de visualización 1722, 1724, y 1726.
Cada una de las unidades de secuencia de visualización 1722, 1724, y 1726 indican una escena gráfica completa y se puede mantener en una pantalla durante varios segundos. Por ejemplo, la unidad de secuencia de visualización 1724 puede incluir una pluralidad de unidades de región 1732, 1734, y 1736 cada una tiene una ubicación de visualización designada.
Cada una de las unidades de región 1732, 1734, y 1736 hacen un par con una tabla de consulta de color (CLUT) que define los colores y transparencias que son para aplicarse a todos los códigos de pixel . Una profundidad de pixel indica la entrada de colores para aplicarse a cada una de las unidades de región 1732, 1734, y 1736, y profundidades de pixel de 2 bits, 4 bits, y 8 bits apoyan códigos de pixel de 4, 16, y 256 colores, respectivamente. Por ejemplo, la unidad de región 1734 puede definir un color de fondo e incluye unidades de objeto gráficas 1742, 1744, y 1746, que son para visualizarse en la unidad de región 1734.
Las FIGS . 18 y 19 ilustran dos tipos de expresión de un descriptor de subtítulo en un PMT que indica un paquete PES de un subtítulo, de acuerdo con un método de comunicación DVB .
Un caudal de subtítulo puede transmitir al menos un servicio de subtítulo. Al menos un servicio de subtítulo se multiplexa a un paquete, y el paquete se puede transmitir con una pieza de información de identificador de paquete (PID) . Alternativamente, cada servicio de subtítulo se puede configurar a un paquete individual, y cada paquete se puede transmitir con información PID individual. Un PMT correspondiente puede incluir la información PID alrededor de los servicios de subtítulo de un programa, idioma, y un identificador de página.
La FIG. 18 es un diagrama que ilustra un descriptor de subtítulo y un paquete PES de subtítulo, cuando al menos un servicio de subtítulo se multiplexa en un paquete. En la FIG. 18, al menos un servicio de subtítulo se multiplexa a un paquete PES 1840 y se asigna con la misma información PID X, y en consecuencia, una pluralidad de páginas 1842, 1844, y 1846 para el servicio de subtítulo se subordinan a la misma información PID X.
Datos de subtítulo de la página 1846, que es una página auxiliar, se comparten con otros datos de subtítulo de las páginas 1842 y 1844.
Un PMT 1800 puede incluir un descriptor de subtítulo 1810 alrededor de los datos de subtítulo. El descriptor de subtítulo 1810 define información acerca de los datos de subtítulo de acuerdo con paquetes. En el mismo paquete, la información acerca de servicios de subtítulo se puede clasificar de acuerdo con páginas. En otras palabras, el descriptor de subtítulo 1810 incluye información acerca de los datos de subtítulo en las páginas 1842, 1844, y 1846 en el paquete PES 1840 que tiene la información PID X. Cada una de la información de datos de subtítulo 1820 y 1830, que se definen respectivamente de acuerdo con las páginas 1842 y 1844 en el paquete PES 1840, puede incluir información de idioma 'language1, un identificador de página de composición 1 composition-page_id' , y un identificador de página auxiliar 1 ancillary-page_id' .
La FIG. 19 es un diagrama que ilustra un descriptor de subtítulo y un paquete PES de subtítulo, cuando un servicio de subtítulo se forma en un paquete individual. Una primera página 1950 para un primer servicio de subtítulo se forma de un primer paquete PES 1940, y una segunda página 1970 para un segundo servicio de subtítulo se forma de un segundo paquete PES 1960. Los primeros y segundos paquetes PES 1940 y 1960 se asignan respectivamente con información PID X e información PID Y.
Un descriptor de subtítulo 1910 de un P T 1900 puede incluir valores de información PID de una pluralidad de paquete PES de subtítulos, y puede definir información acerca de los datos de subtítulo del paquete PES de subtítulos de acuerdo con paquetes PES. En otras palabras, el descriptor de subtítulo 1910 puede incluir información de servicio de subtítulo 1920 alrededor de la primera página 1950 de los datos de subtítulo en el primer paquete PES 1940 que tiene información PID X, e información de servicio de subtítulo 1930 alrededor de la segunda página 1970 de los datos de subtítulo en el segundo paquete PES 1960 que tiene información PID Y.
La FIG. 20 es un diagrama de una estructura de un flujo de datos que incluye datos de subtítulo que cumple con un método de comunicación DVB, de acuerdo con una modalidad ejemplar.
Los paquetes PES de subtítulo 2012 y 2014 se construyen al comparar paquetes TS de subtítulo 2002, 2004, y 2206 asignados con la misma información PID de un DVB TS 2000 que incluye un subtítulo que cumple con el método de comunicación DVB. Los paquetes TS de subtítulo 2002 y 2006 respectivamente forman partes de inicio de los paquetes PES de subtítulo 2012 y 2014 son encabezados respectivamente de los paquetes PES de subtítulo 2012 y 2014.
Los paquetes PES de subtítulo 2012 y 2014 incluyen conjuntos de visualización 2022 y 2024, respectivamente. El conjunto de visualización 2022 incluye una pluralidad de páginas de composición 2042 y 2044 y una página auxiliar 2046. La página de composición 2042 incluye un segmento de composición de página 2052, un segmento de composición de región 2054, un segmento de definición CLUT 2056, y un segmento de datos de objeto 2058. La página auxiliar 2046 incluye un segmento de definición CLUT 2062 y un segmento de datos de objeto 2064.
La FIG. 21 es un diagrama de una estructura de una página de composición 2100 que cumple con un método de comunicación DVB, de acuerdo con una modalidad ejemplar.
La página de composición 2100 incluye un segmento de definición de visualización 2110, un segmento de composición de página 2120, segmentos de composición de región 2130 y 2140, segmentos de definición CLUT 2150 y 2160, segmentos de datos de objeto 2170 y 2180, y un extremo de segmento de conjunto de visualización 2190. La página de composición 2100 puede incluir una pluralidad de segmentos de composición de región, una pluralidad de segmentos de definición CLUT, o una pluralidad de segmentos de datos de objeto.
Todos del segmento de definición de visualización 2110, el segmento de composición de página 2120, los segmentos de composición de región 2130 y 2140, los segmentos de definición CLUT 2150 y 2160, los segmentos de datos de objeto 2170 y 2180, y el extremo de segmento de conjunto de visualización 2190 que forman la página de composición 2100 que tiene un identificador de página de 1 tiene un identif cador de página 'page id1 de 1. Los identificadores de región 'región id1 de los segmentos de composición de región 2130 y 2140 se pueden cada uno establecer a un índice de acuerdo con regiones, e identificadores CLUT 'CLUT id' de los segmentos de definición CLUT 2150 y 2160 se pueden cada uno establecer a un índice de acuerdo con los CLUTs . También, los identificadores de objeto Object id1 de los segmentos de datos de objeto 2170 y 2180 se pueden cada uno establecer a un índice de acuerdo con los datos de objeto.
La sintaxis del segmento de definición de visualización 2110, el segmento de composición de página 2120, los segmentos de composición de región 2130 y 2140, los segmentos de definición CLUT 2150 y 2160, los segmentos de datos de objeto 2170 y 2180, y el extremo de segmento de conjunto de visualización 2190 se puede codificar en segmentos de subtítulo y se puede insertar en una región de carga útil de un paquete PES de subtítulo.
La Tabla 14 muestra una sintaxis de un campo 1 PES_data_field' almacenado en un campo 1 PES_packet_data_bytes ' en un paquete PES de subtítulo DVB. Los datos de subtítulo almacenados en el paquete PES de subtítulo DVB se pueden codificar en una forma del campo ' PES_data_field' .
Tabla 14 Sintaxis PES_data_field() { data_identifier subtitle_stream_id muentras nextbits () == '000 11111' { subtitling_segment () } end_of_PES_data_field_marker } Un valor de un campo 1 data_identifier1 se fija a 0x20 para indicar que los datos de paquete PES actual son datos de subtítulo DVB. Un campo ' subtitle_stream_id' incluye un identificador de un caudal de subtítulo actual, y se fija a 0x00. Un campo 'end_of_PES_data_field_marker 1 incluye información que indica si un campo de datos actual es un campo final del campo de datos PES, y se fija a '1111 lili'. Una sintaxis de un campo ' subtitling_segment 1 se muestra en la Tabla 15 abajo.
Tabla 15 Un campo ' sync_byte ' se codifica a '0000 1111'. Cuando un segmento se codifica con base en un valor de un campo ' segment_length ' , un campo 1 sync_byte 1 se usa para determinar una pérdida o una no pérdida de un paquete de transporte al verificar la sincronización.
Un campo 1 segment_type ' incluye información acerca de un tipo de datos incluidos en un campo de datos de segmento.
La Tabla 16 muestra un tipo de segmento definido por un campo 1 segment_type 1.
Tabla 16 Un campo 'page_id' incluye un identificador de un servicio de subtítulo incluido en el campo 1 subtitling_segment ' . Los datos de subtítulo alrededor de un servicio de subtítulo están incluidos en un segmento de subtítulo asignado con un valor de un campo 'page_id' que se establece como un identificador de página de composición en un descriptor de subtítulo. También, los datos que se pueden compartir por una pluralidad de servicios de subtítulo se incluyen en un segmento de subtítulo asignado con un valor del campo 'page_id' que se establece como un identificador de página auxiliar en el descriptor de subtítulo.
Un campo 1 segment_length 1 incluye información alrededor del número de bytes incluido en un campo ' segment data field' posterior al campo 1 segment_length' . El campo ' segment_data_field1 es una región de carga útil de un segmento, y una sintaxis de la región de carga útil puede variar de acuerdo con el tipo de segmento. Una sintaxis de la región de carga útil de acuerdo con los tipos de segmentos se muestra en las Tablas 17, 18, 20, 25, 26, y 28.
La Tabla 17 muestra una sintaxis de un campo 1 display_definition_segment 1.
Tabla 17 El segmento de definición de visualización puede definir la resolución de un servicio de subtítulo.
Un campo 1 dds_version_number ' incluye información de versión del segmento de definición de visualización. Un número de versión que constituye un valor del campo 1 dds_version_number 1 incrementa en unidades de modulo 16 siempre que el contenido del segmento de definición de visualización cambia.
Cuando un valor de un campo 1 display_window_flag 1 se establece en 1, un conjunto de visualización de subtítulo DVB relacionado con el segmento de definición de visualización define una región de ventana en la cual el subtítulo es para visualizarse, dentro de un tamaño de visualización definido por un campo 1 display_width 1 y un campo ' display_height 1. Aquí, en el segmento de definición de visualización, un tamaño y una ubicación de la región de ventana se define de acuerdo con valores de un campo 1 display_window_ horizontal_position_minimum 1 , un campo 1 display_window_horizontal_position_ máximum1, un campo ' display_ indow_vertical_position_minimum 1 , y un campo ' display_ indow_vertical_position_maximum 1.
Cuando el valor del campo 1 display_windo _flag ' se establece en 0, el Conjunto de visualización de subtítulo DVB se expresa directamente dentro de una visualización definida por el campo ' display_width' y el campo ' display_height ' , no en la región de ventana de la visualización.
El campo ' display_width ' y el campo 1 display_height ' respectivamente incluyen un ancho horizontal máximo y un ancho vertical máximo de una visualización, y valores del mismo se pueden cada uno establecer en un intervalo desde 0 hasta 4095.
Un campo 1 display_window_horizontal_position_minimum 1 incluye una ubicación mínima horizontal de una región de ventana de una visualización. La ubicación mínima horizontal de la región de ventana se define con un valor de pixel de extremo izquierdo de una Ventana de visualización de subtítulo DVB con base en un pixel de extremo izquierdo de la visualización.
Un campo ' display_ indow_horizontal_position_maximum' incluye una ubicación máxima horizontal de la región de ventana en la visualización. La ubicación máxima horizontal de la región de ventana se define con un valor de pixel de extremo derecho de la ventana de visualización de subtítulo DVB con base en el pixel de extremo izquierdo de la visualización .
Un campo ' display_window_vertical_position_minimum' incluye una ubicación de pixel mínima vertical de la región de ventana en la visualización. La ubicación de pixel mínima vertical se define con un valor de línea más alto de la ventana de visualización de subtítulo DVB con base en una línea superior de la visualización.
Un campo ' display_window_vertical_position_maximum ' incluye una ubicación de pixel máxima vertical de la región de ventana en la visualización. La ubicación de pixel máxima vertical se define con un valor de línea más bajo de la ventana de visualización de subtítulo DVB con base en la línea superior de la visualización.
La Tabla 18 muestra una sintaxis de un campo 1 page_composition_segment 1.
Tabla 18 Sintaxis page_composition_segment ( ) { sync_byte segment_type page_id segment_length page_time_out page_version_number page_state reservado mientras (processed_length < segment_length) { region_id reservado region_horizontal_address region_vertical _address } } Un campo 1 page_time_out ' incluye información acerca de un periodo de tiempo para una página a desaparecer de una pantalla ya que la página no es válida, y se establece en una unidad de segundos . Un valor de un campo ' page_version_number ' denota un número de versión de un segmento de composición de página, e incrementa en una unidad de modulo 16 siempre que el contenido del segmento de composición de página cambia.
Un campo 'page_state' incluye información acerca de un estado de página de una instancia de página de subtítulo descrito en el segmento de composición de página. Un valor del campo 'page_state' puede denotar un estado operacional de un decodificador para visualizar una página de subtítulo de acuerdo con el segmento de composición de página. La Tabla 19 muestra el contenido del valor del campo ' age_state ' .
Tabla 19 Un campo 1 processed_length ' incluye información alrededor del número de bytes incluido en un circuito 'while' a procesarse por el decodificador . Un campo *region_id' indica un identificador intrínseco alrededor de una región en una página. Cada región identificada se puede visualizar en una instancia de página definida en el segmento de composición de página. Cada región se registra en el segmento de composición de página de acuerdo con un orden ascendente del valor de un campo 1 region_vertical_address 1.
Un campo ' region_horizontal_address 1 incluye una ubicación de un pixel horizontal en el cual un pixel izquierdo superior de una región correspondiente en una página es para visualizarse, y el campo ' region_vertical_address 1 define una ubicación de una línea vertical en la cual el pixel izquierdo superior de la región correspondiente en la página es para visualizarse.
La Tabla 20 muestra una sintaxis de un campo 1 region_composition_segment ' .
Tabla 20 Sintaxis region_composition_segment ( ) { sync_byte segment_type page_id segment_length region_id region_version_number region_fill_flag reservado region_width region_heigth region_level_of_compatibili y region_depth reservado CLUT id región 8-bit_pixel_code región 4-bit_pixel code región 2-bit_pixel_code reservado mientras (processed_length < segment_ length) { object_id object_type obj ect_provider_flag obj ect_horizontal_position reservado object_vertical_position si (object type ==0x01 o object_type == 0x02) { foreground__pixel code background_pixel code } } } Un campo 'region_id' incluye un identificador intrínseco de una región actual .
Un campo 1 region_version_number ' incluye información de versión de una región actual. Una versión de la región actual incrementa cuando una condición donde un valor de un campo ' region_fill_flag 1 se establece en 1, una condición donde un CLUT de la región actual se cambia, o una condición donde una longitud de la región actual no es 0 pero incluye una lista de objeto es cierto, ñ Cuando un valor de un campo 1 region_fill_flag 1 se establece en 1, el fondo de la región actual se llena con un color definido en un campo ' region_n-bit_pixel_code 1.
Un campo ' region_width 1 y un campo ' egion_height ' respectivamente incluyen información de ancho horizontal e información de altura vertical de la región actual, y se establecen en una unidad de pixel.
Un campo ' region_level_of_compatibility ' incluye información de tipo CLUT mínima requerida por un decodificador para decodificar la región actual, y se define de acuerdo con la Tabla 21.
Tabla 21 Cuando el decodificador es incapaz de soportar un tipo CLUT mínimo asignado, la región actual no se puede visualizar aún a través de otras regiones que requieren un tipo CLUT de nivel menor se visualizan.
Un campo 1 region_depth ' incluye información de profundidad de pixel, y se define de acuerdo con la Tabla 22.
Un campo 'CLUT_id' incluye un identificador de un CLUT para aplicarse a la región actual. Un valor de un campo ' region_8-bit_pixel-code ' define una entrada de color de un CLUT de 8 bit para aplicarse como un color de fondo de la región actual, cuando un campo 1 region_fill_flag 1 se establece. Similarmente, los valores de un campo ' region_4-bit_ ixel-code ' y un campo ' region_2-bit_pixel-code 1 respectivamente definen las entradas de color de un CLUT de 4 bit y un CLUT de 2 bit, que son para aplicarse como el color de fondo de la región actual, cuando el campo ' region_fill_flag ' se establece .
Un campo Object_id' incluye un identificador de un objeto para visualizarse en la región actual, y un campo 1 obj ect_type ' incluye información de tipo de objeto definida en la Tabla 23. Un tipo de objeto se puede clasificar en un objeto básico o un objeto de composición, un mapa de bits, un carácter, o una secuencia de caracteres.
Tabla 23 Un campo ' obj ect_provider_flag 1 muestra un método para proporcionar un objeto de acuerdo con la Tabla 24.
Tabla 24 Un campo ' ob ect_horizontal_position' incluye información acerca de una ubicación de un pixel horizontal en el cual un pixel izquierdo superior de un objeto actual es para visualizarse, como una ubicación relativa en la cual los datos de objeto son para visualizarse en una región actual. En otras palabras, se define el número de píxeles de un extremo izquierdo de la región actual al pixel izquierdo superior del objeto actual.
Un campo Obj ect_vertical_position ' incluye información acerca de una ubicación de una línea vertical en la cual el pixel izquierdo superior del objeto actual es para visualizarse, como la ubicación relativa en la cual los datos de objeto son para visualizarse en la región actual. En otras palabras, se define el número de líneas del extremo superior de la región actual a una línea superior del objeto actual.
Un campo 1 foreground_pixel_code 1 incluye información de entrada de color de un CLUT de 8 -bit seleccionada como un color de primer plano de un carácter. Un campo ' ackground_pixel_ code ' incluye información de entrada de color del CLUT de 8-bit seleccionada como un color de fondo del carácter.
La Tabla 25 muestra una sintaxis de un campo 1 CLUT_definition_segment 1.
Tabla 25 Sintaxis CLUT_definition_segment ( ) { sync_byte segment_type page_id segment_length CLUT-id CLUT_version_number reservado mientras (processed_length < ssegment length) { CLUT_entry_id 2-bit/entry_CLUT_flag 4 -bit/entry_CLUT_flag 8 -bit/entry_CLUT_flag reservado full_range_flag si full_range_flag == ' 1' { Y-value Cr-value Cb-value T-value } entonces { Y-value Cr-value Cb-value T-value } } Un campo 'CLUT-id' incluye un identificador de un CLUT incluido en un segmento de definición CLUT en una página. Un campo 1 CLUT_version_number 1 denota un número de versión del segmento de definición CLUT, y el número de versión incrementa en una unidad de modulo 16 cuando el contenido del segmento de definición CLUT cambia.
Un campo ' CLUT_entry_id 1 incluye un identificador intrínseco de una entrada CLUT, y tiene un valor de identificador inicial de 0. Cuando un valor de un campo '2-bit/entry_CLUT_flag 1 se establece en 1, un CLUT actual se configura de una entrada de 2 bit, y similarmente, cuando un valor de un campo 14 -bit/entry_CLUT_flag 1 o campo '8-bit/entry_CLUT_flag 1 se establece en 1, el CLUT actual se configura de una entrada de 4 bit o una entrada de 8 bit.
Cuando un valor de un campo ' full_range_flag ' se establece en 1, la resolución de 8-bit completa se aplica a un campo ' Y_value ' , un campo 1 Cr_value 1 , un campo 1 Cb_value 1 , y un campo ' T_value 1.
El campo 1 Y_value ' , el campo ' Cr_value 1 , y el campo ' Cb_value 1 respectivamente incluyen información de emisión Y, información de emisión Cr, e información de emisión Cb del CLUT para cada entrad .
El campo 'T_value' incluye información de transparencia del CLUT para una entrada. Cuando un valor del campo 1 T_value ' es 0, no hay transparencia.
La Tabla 26 muestra una sintaxis de un campo 1 obj ect_data_segment ' .
Tabla 26 Sintaxis obj ect_data_segment ( ) { sy c_byte segment_type page_id segment_length obj ect_id obj ect_version_number obj ect_coding_method non_modifying_colour_flag reservado si (método de codificación de objeto == '00' ) { top_field_data_block_length mientras (processed_length < top_field_data_block_length) pixel-data_sub-block () mientras (processed_length< bottom_field_data_block_length) pixel-data_sub-block () si ( !wordaligned ( ) ) 8_stuff_bits } si (object_coding_method == '01') { number_of_codes para (i == 1; i<= number_of_codes ; i++) character_code } } Un campo 'object_id' incluye un identificador alrededor de un objeto actual en una página. Un campo 'object versión number' incluye información de versión de un segmento de datos de objeto actual, y el número de versión incrementa en una unidad de modulo 16 siempre que el contenido del segmento de datos de objeto cambia.
Un campo 'object_coding_method' incluye información acerca de un método para codificar un objeto. El objeto se puede codificar en un pixel o una secuencia de caracteres como se muestra en la Tabla 27.
Tabla 27 Cuando un valor de un campo ' non_modificaing_colour_flag 1 se establece en 1, un valor de entrada 1 del CLUT puede ser un 'unchanged color1. Cuando el color sin cambios se asigna a un pixel de objeto, un fondo o el pixel de objeto en una región básica no se cambia.
Un campo 1 top_field_data_block_length 1 incluye información alrededor del número de bytes incluido en un campo 1 pixel-data_sub-blocks ' con respecto a un campo más alto. Un campo 1 bottom_field_data_block_length 1 incluye información acerca de un número de bytes incluido en un 1 data_sub-block ' con respecto a un campo más bajo. En cada objeto, un sub bloque de datos de pixel del campo más alto y un sub bloque de datos de pixel del campo más bajo se definen por el mismo segmento de datos de objeto.
Un campo ' 8_stuff_bits ' se fija a 0000 0000. Un campo 1 number_of_codes 1 incluye información acerca de un número de códigos de carácter en una secuencia de caracteres. Un valor de un ' character_code ' establece un carácter al usar un índice en un código de carácter identificado en el descriptor de subtítulo.
La Tabla 28 muestra una sintaxis de un campo ' end_of_display_set_segment ' .
Tabla 28 Sintaxis end_of_display_set_ segment ( ) { sync_byte segment type page_id segment length } El campo 1 end_of_display_set_segment 1 se usa para notificar al decodificador que la transmisión de un conjunto de visualización se ha completado. El campo ' end_of_display_set_segment 1 se puede insertar después del último campo 1 object_data_segment 1 para cada conjunto de visualización. También, el campo ' end_of_display_set_segment ' se puede usar para clasificar cada servicio de subtítulo en un caudal de subtítulo.
La FIG. 22 es un diagrama de flujo que ilustra un modelo de procesamiento de subtítulo 2200 que cumple con un método de comunicación DVB.
De acuerdo con el modelo de procesamiento de subtítulo 2200 que cumple con el método de comunicación DVB, un TS 2210 que incluye datos de subtítulo se descompone en paquetes MPEG-2 TS. Un filtro PID únicamente extrae paquetes TS 2212, 2214, y 2216 por un subtítulo asignado con información PID de entre los paquetes MPEG-2 TS, en la operación 2220, y transmite lo extraído de los paquetes TS 2212, 2214, y 2216 a un búfer de transporte. En la operación 2230, el búfer de transporte forma paquetes PES de subtítulo al usar los paquetes TS 2212, 2214, y 2216 para el subtítulo. Cada una de los paquetes PES de subtítulo puede incluir una carga útil PES que incluye datos de subtítulo, y un encabezado PES. En la operación 2240, un decodificador de subtítulo recibe la emisión de paquetes PES de subtítulo del búfer de transporte, y forma un subtítulo para visualizarse en una pantalla.
Una operación de decodificación de subtítulo 2240 puede incluir un pre-procesamiento y operación de filtración 2250, una operación de búfer de datos codificados 2260, una operación de procesamiento de subtítulo 2270, y una operación de búfer de composición 2280.
Por ejemplo, se asume que una página que tiene un campo 'page_id' de 1 se selecciona de un PMT por un usuario. En el pre-procesamiento y operación de filtración 2250, las páginas de composición que tienen un campo 'page_id' de 1 en la carga útil PES se descomponen en segmentos de definición de visualización-, segmentos de composición de página, segmentos de composición de región, segmentos de definición CLUT, y segmentos de datos de objeto. En la operación 2260, al menos una pieza de datos de objeto en al menos un segmento de datos de objeto de entre los segmentos descompuestos se almacena en un búfer de datos codificados. En la operación 2280, el segmento de definición de visualización, el segmento de composición de página, al menos un segmento de composición de región, y al menos un segmento de definición CLUT se almacenan en el búfer de composición.
En la operación de procesamiento de subtítulo 2270, al menos una pieza de datos de objeto se recibe del búfer de datos codificados, y el subtítulo formado de una pluralidad de objetos se generan con base en el segmento de definición de visualización, el segmento de composición de página, al menos un segmento de composición de región, y al menos un segmento de definición CLUT almacenado en el búfer de composición.
En la operación 2290, el subtítulo configurado en la operación de decodificación del subtítulo 2240 se almacena en un búfer de pixel .
Las FIGS . 23, 24, y 25 son diagramas que ilustran datos almacenados respectivamente en un búfer de datos codificados 2300, un búfer de composición 2400, y un búfer de pixel.
Refiriéndose a la FIG. 23, los datos de objeto 2310 que tienen un objeto ID de 1, y datos de objeto 2320 que tienen un objeto ID de 2 se almacenan en el búfer de datos codificados 2300.
Refiriéndose a la FIG. 24, la información acerca de una primera región 2410 que tiene una región ID de 1, la información acerca de una segunda región 2420 que tiene una región ID de 2, y la información acerca de una composición de página 2430 formada de regiones 2432 y 2434, a la cual la primera y segunda regiones 2410 y 2420 se trazan, se almacenan en el búfer de composición 2400.
En la operación de procesamiento de subtítulo 2270 de la FIG. 22, una página de subtítulo 2500, en la cual los objetos de subtítulo 2510 y 2520 se colocan de acuerdo con regiones, se almacena en el búfer de pixel con base en la información acerca de los datos de objeto 2310 y 2320 almacenados en el búfer de datos codificados 2300, y la información acerca de la primera región 2410, la segunda región 2420, y la composición de página 2430 almacenada en el búfer de composición 2400.
Las operaciones del aparato que genera el caudal de multimedia 100 de acuerdo con la segunda modalidad ejemplar y el aparato receptor de caudal de multimedia 200 de acuerdo con la segunda modalidad ejemplar con objeto de alcanzar la reproducción en 3D de un subtítulo se describirá ahora con referencia a las Tablas 29 hasta la 34 y las FIGS. 26 hasta la 29, con base en el subtítulo que cumple con el método de comunicación DVB descrito con referencia a las Tablas 14 hasta la 28 y las FIGS. 16 hasta la 25.
El aparato que genera el caudal de multimedia 100 de acuerdo con la segunda modalidad ejemplar puede insertar la información para reproducir un subtítulo DVB en 3D en un paquete PES de subtítulo. Aquí, la información puede incluir información de desviación tal como una profundidad, una paralaje, una coordenada, etc., como información acerca de una profundidad de subtítulo.
El codificador de programa 110 del aparato que genera el caudal de multimedia 100 de acuerdo con la segunda modalidad ejemplar puede insertar la información para reproducir el subtítulo DVB en 3D en el segmento de composición de página de la página de composición en el paquete PES de subtítulo. Además, el codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede definir recientemente un segmento para definir la profundidad de subtítulo e insertar el segmento en un paquete PES.
Las Tablas 29 y 30 muestran sintaxis de un segmento de composición de página modificada por el codificador de programa 110 de acuerdo con la segunda modalidad ejemplar para incluir información de profundidad de un subtítulo DVB. Tabla 29 Sintaxis page_composition_segment () { sync_byte segment_type page_id segment_length page_time_out page_version_number page_state reservado mientras (processed_length < segment_length) { region_id region_offset_direction region_offset region_horizontal_address region_vertical_address } ) Como se muestra en la Tabla 29, el codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede insertar adicionalmente un campo ' region_offset_direction ' y un campo "region_offset" en el campo reservado' en un circuito mientras que en el campo ' page_composition_segment ( ) 1 de la Tabla 18. Por ejemplo, el codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede asignar 1 bit al campo •región offset direction' y 7 bits al campo 'región offset' en substitución de 8 bits del 'reservado' .
El campo 1 region_offset_direction 1 puede incluir información de dirección de una desviación de una región actual. Cuando el valor del campo ' region_offset_direction' es 101 , la desviación de la región actual se establece en lo positivo. Cuando el valor del campo 1 region_offset_direction' es '?', la desviación de la región actual se establece en negativo .
El campo 1 region_offset 1 puede incluir información de desviación de la región actual. Con objeto de generar un subtítulo de vista izquierda o un subtítulo de vista derecha al usar un subtítulo en 2D, un valor de desplazamiento de pixel de un valor de coordenada x de la región actual definida como una región de subtítulo por el valor de un campo ' regrion_horizontal_address 1 se puede establecer como el valor del campo 1 region_offset 1.
Tabla 30 Sintaxis page_composition_segment ( ) { sync_byte segment_type page_id segment_length page_time_ou page_version_number page_state reservado mientras (processed_length < segment_length) { region_id region_offset_basedjpo8ition region_offset_direction regíon_offset region_horizontal_address region_vertical_address { } El codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede agregar un campo ' region_offset_based_position 1 al segmento de composición de página modificado de la Tabla 29. 1 bit de un campo ' region_offset_direction 1 , 6 bits de un campo 1 region_offset 1 , y 1 bit de un campo 1 region_offset_based_position 1 se puede asignar en lugar de 8 bits del campo 'reservado' en el segmento de composición de página básico de la Tabla 18.
El campo 1 region_offset_based_j?osition ' puede incluir información de bandera que indica si un valor de desviación del campo 1 region_offset ' se aplica con base en un plano cero o con base en una profundidad de una imagen de vídeo.
Las Tablas 31, 32, 33, y 34 muestran sintaxis de un campo 1 Depth_Definition_Segment ' que constituye un segmento de definición de profundidad recientemente definido por el codificador de programa 110 de acuerdo con la segunda modalidad ejemplar para definir la profundidad del subtítulo.
El codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede insertar piezas de información relacionada con la desviación del subtítulo tal como el campo ' Depth_Definition_Segment ' en el campo 1 segment_data_field' en el campo ' subtitling_segment ' de la Tabla 15, como un segmento adicional. En consecuencia, el codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede agregar el segmento de definición de profundidad como un tipo de subtitulo. Por ejemplo el aparato que genera el caudal de multimedia 100 de acuerdo con la segunda modalidad ejemplar puede garantizar compatibilidad de bajo nivel con un sistema de subtítulo DVB al definir adicionalmente el segmento de definición de profundidad al usar un valor de una región reservada del campo ' subtitle_type 1 de la Tabla 16, en donde un valor del campo 1 subtitle_type ' es desde '0x40' hasta ' 0x7F' .
El aparato que genera el caudal de multimedia 100 de acuerdo con la segunda modalidad ejemplar puede generar recientemente un segmento de definición de profundidad que define la información de desviación del subtítulo en una unidad de página. Las sintaxis del campo 1 Depth_Definition_ Segment' se muestran en las Tablas 31 y 32.
Tabla 31 Sintaxis Depth_Definition_Segmen ( ) sync_byte segment_type page_id segment_length page_offset_direction page offset Tabla 32 Sintaxis Depth_Definition_Segment ( ) { sync_byte segment_type page_id segment_length page_offset_based_posi tion page_offset_direction page_offset Un campo 1 page_offset_direction 1 en las Tablas 31 y 32 puede incluir información acerca de la dirección de desviación para una página actual. Un campo 1 page_offset ' puede incluir información de desviación para la página actual. Es decir, el valor del campo 'page_offset 1 puede indicar un valor de desplazamiento de pixel de un valor de coordenada x de la página actual .
El codificador de programa 110 de acuerdo con la segunda modalidad ejemplar puede incluir un campo ' page_offset_based_position' en el segmento de definición de profundidad. El campo ' page_offset_based_position' puede incluir información de bandera que indica si un valor de desviación del campo 1 age_offset ' se aplica con base en un plano cero o con base en información de desviación de una imagen de vídeo.
De acuerdo con el segmento de definición de profundidad de la Tabla 31 y 32, la misma información de desviación se puede aplicar en una página.
El aparato que genera el caudal de multimedia 100 de acuerdo con la segunda modalidad ejemplar puede generar recientemente un segmento de definición de profundidad que define la información de desviación del subtítulo en una unidad de región. Aquí, las sintaxis de un campo 'Depth_Definition_Segment ' son como se muestra en las Tablas 33 y 34.
Tabla 33 Sintaxis Depth_Definition_Segment ( ) { sync_byte segment_type page_id segment_length para (i=0; i<N; region_i0 region_offeet_direction region_offset } Tabla 34 Sintaxis Depth_Definition_Segment ( ) { sync_byte segment_type page_id segment_length para (1=0; i<N; region_iO region_offset_based_position region_offset_direction region_offset } Un campo 'page_id' y un campo 'region_id' en el segmento de definición de profundidad de las Tablas 33 y 34 pueden referirse a los mismos campos en el segmento de composición de página. El aparato que genera el caudal de multimedia 100 de acuerdo con la segunda modalidad ejemplar puede establecer la información de desviación del subtítulo de acuerdo con regiones en la página actual, a través de un circuito 'for' en el segmento de definición de profundidad recientemente definido. En otras palabras, el campo 'region_id' incluye información de identificación de una región actual, y un campo 1 region_offset_direction 1 , un campo ' region_offset ' , y un campo 1 region_offset_based_position ' se puede establecer de forma separada de acuerdo con un valor del campo 1 region_id 1. En consecuencia, la cantidad de desplazamiento del pixel en una coordenada x se puede establecer de forma separada de acuerdo con las regiones del subtítulo.
El aparato receptor de caudal de multimedia 200 de acuerdo con la segunda modalidad ejemplar puede extraer páginas de composición al analizar un TS recibido, y decodificar sintaxis de un segmento de composición de página, un segmento de definición de región, un segmento de definición CLUT, un segmento de datos de objeto, etc. en las páginas de composición para formar un subtítulo con base en un resultado de la decodificación. También, el aparato receptor de caudal de multimedia 200 de acuerdo con la segunda modalidad ejemplar puede ajustar profundidad de una página o una región en la cual el subtítulo se visualiza al usar la información de reproducción en 3D de subtítulo descrita arriba con referencia a las Tablas 26 a través de 34. Un método para ajustar la profundidad de una página y una región de un subtítulo se describirá ahora con referencia a las FIGS . 26 y 27.
La FIG. 26 es un diagrama para describir un método para ajustar la profundidad de un subtítulo de acuerdo con regiones, de acuerdo con la segunda modalidad ejemplar.
Un decodificador de subtítulo 2600 de acuerdo con una modalidad ejemplar se realiza al modificar la operación de decodificación de subtítulo 2240 descrita arriba con referencia a la FIG. 22, que es el modelo de procesamiento de subtítulo que cumple con un método de comunicación DVB. El subtítulo decodificador 2600 se puede entender como un componente que realiza las operaciones del decodificador 230 y el reproductor 240 del aparato receptor de caudal de multimedia 200 de acuerdo con la segunda modalidad ejemplar, que son la restauración de un subtítulo y composición de un subtítulo 3D.
El decodificador de subtítulo 2600 incluye un pre-procesador y filtro 2610, un búfer de datos codificados 2620, un procesador de subtítulo aumentado 2630, y un búfer de composición 2640. El pre-procesador y filtro 2610 puede emitir datos de objeto en una carga útil PES de subtítulo al búfer de datos codificados 2630, e información de composición de subtítulo de salida, tal como un segmento de definición de región, un segmento de definición CLUT, un segmento de composición de página, y un segmento de datos de objeto, al búfer de composición 2640. De acuerdo con una modalidad ejemplar la información de profundidad de acuerdo con regiones mostrada en las Tablas 29 y 30 se puede incluir en el segmento de composición de página.
Por ejemplo, el búfer de composición 2640 puede incluir información acerca de una primera región 2642 que tiene una región ID de 1, información acerca de una segunda región 2644 que tiene una región ID de 2, e información acerca de una composición de página 2646 que incluye un valor de desviación por región.
El procesador de subtítulo aumentado 2630 puede formar una página de subtítulo al usar los datos objeto almacenados en el búfer de datos codificados 2620 y la información de composición almacenada en el búfer de composición 2640 y puede ajustar la profundidad del subtítulo al mover el subtítulo de acuerdo con la información de desviación para cada región. Por ejemplo, en una página de subtítulo 2D 2650, un primer objeto y un segundo objeto se visualizan respectivamente en una primera región 2652 y una segunda región 2654. La primera y segunda regiones 2652 y 2654 se pueden desplazar por una desviación correspondiente con base en la información de desviación de acuerdo con regiones en la composición de página 2646 almacenado en el búfer de composición 2640.
En otras palabras, en un página de subtítulo en 3D 2660 para una imagen de vista izquierda, la primera y segunda regiones 2652 y 2654 se desplazan en una dirección positiva respectivamente por una primera desviación de región y una segunda desviación de región de modo que un primer objeto y un segundo objeto se visualizan respectivamente en una primera región de vista izquierda 2662 y una segunda región de vista izquierda 2664. Similarmente , en un página de subtítulo en 3D 2670 para una imagen de vista derecha, la primera y segunda regiones 2652 y 2654 se desplazan en una dirección negativa respectivamente por la primera desviación de región y la segunda desviación de región de modo que un primer objeto y un segundo objeto se visualizan respectivamente en una primera región de vista derecha 2672 y una segunda región de vista derecha 2674.
Las páginas de subtitulo en 3D 2660 y 2670 a las cuales una desviación se ha aplicado para ajuste de profundidad se pueden almacenar en un búfer de pixel .
La FIG. 27 es un diagrama para describir un método para ajustar la profundidad de un subtítulo de acuerdo con páginas, de acuerdo con la segunda modalidad ejemplar.
Un procesador de subtítulo 2700 de acuerdo con una modalidad ejemplar incluye un pre-procesador y filtro 2710, un búfer de datos codificados 2720, un procesador de subtítulo aumentado 2730, y un búfer de composición 2740. El pre-procesador y filtro 2710 puede emitir datos de objeto en una carga útil PES de subtítulo al búfer de datos codificados 2720, e información de composición de subtítulo de salida, tal como un segmento de definición de región, un segmento de definición CLUT, un segmento de composición de página, y un segmento de datos de objeto, al búfer de composición 2740. De acuerdo con una modalidad ejemplar, el pre-procesador y filtro 2710 puede transmitir y almacenar información de profundidad de acuerdo con las páginas o de acuerdo con regiones del segmento de definición de profundidad mostradas en las Tablas 31 hasta la 34 a y en el búfer de composición 2740.
Por ejemplo, el búfer de composición 2740 puede almacenar información acerca de una primera región 2742 que tiene una región ID de 1, información acerca de una segunda región 2744 que tiene una región ID de 2, e información acerca de una composición de página 2746 que incluye un valor de desviación por página del segmento de definición de profundidad mostrado en las Tablas 31 y 32.
El procesador de subtítulo aumentado 2730 puede ajustar la profundidad del subtítulo al formar la página de subtitulo y mover la página de subtítulo de acuerdo con el valor de desviación por página, al usar los datos objeto almacenados en el búfer de datos codificados 2720 y la información de composición almacenada en el búfer de composición 2740. Por ejemplo, un primer objeto y un segundo objeto se visualizan respectivamente en una primera región 2752 y una segunda región 2754 de una página de subtítulo en 2D 2750. La primera región 2752 y la segunda región 2754 se puede desplazar respectivamente por un valor de desviación correspondiente, con base en información de desviación por página incluida en la composición de página 2746 almacenada en el búfer de composición 2740.
En otras palabras, una página de subtítulo 2760 para una imagen de vista izquierda se genera al desplazar una ubicación de la página de subtítulo en 2D 2750 por una desviación de página actual en una' dirección de eje x positivo. En consecuencia, la primera y segunda regiones 2752 y 2754 también se mueven por la desviación de página actual en la dirección de eje x positivo, y así los primeros y segundos objetos se visualizan respectivamente en una primera región de vista izquierda 2762 y una segunda región de vista izquierda 2764.
Similarmente, una página de subtítulo 2770 para una imagen de vista derecha se genera al mover la ubicación de la página de subtítulo en 2D 2750 por la desviación de página actual en una dirección del eje x negativo. En consecuencia, la primera y segunda regiones 2752 y 2754 también se desplazan por la desviación de página actual en la dirección del eje x negativo, y así los primeros y segundos objetos se visualizan respectivamente en una primera región de vista izquierda 2772 y una segunda región de vista izquierda 2774.
También, cuando la información de desviación de acuerdo con las regiones almacenadas en el segmento de definición de profundidad mostradas en las Tablas 33 y 34 se almacena en el búfer de composición 2740, el procesador de subtítulo aumentado 2730 genera una página de subtítulo aplicada con la información de desviación de acuerdo con las regiones, de este modo generando resultados similares a las páginas de subtítulo en 3D 2660 y 2670 de la FIG. 26.
El aparato que genera el caudal de multimedia 100 de acuerdo con la segunda modalidad ejemplar puede insertar y transmitir datos de subtítulo e información de reproducción en 3D de subtítulo en un paquete PES de subtítulo DVB. La información de reproducción en 3D de subtítulo se puede establecer para reproducción segura de un subtítulo en 3D por un proveedor de contenidos. En consecuencia, el aparato receptor de caudal de multimedia 200 de acuerdo con la segunda modalidad ejemplar puede recibir un flujo de datos de multimedia recibidos de acuerdo con un método DVB y extraer datos de subtítulo DVB e información de reproducción en 3D de subtítulo DVB del flujo de datos de multimedia, de este modo formando un subtítulo DVB en 3D al usar los datos de subtítulo DVB y la información de reproducción en 3D de subtítulo DVB. También, el aparato receptor de caudal de multimedia 200 de acuerdo con la segunda modalidad ejemplar ajusta una profundidad entre un vídeo 3D y un subtítulo en 3D con base en la información de reproducción en 3D de subtítulo DVB para prevenir a un espectador de que tenga cansancio debido a un fenómeno de revertir profundidad entre el vídeo 3D y el subtítulo en 3D. En consecuencia, el espectador puede ver el vídeo 3D bajo condiciones estables.
La generación y recepción de un caudal de multimedia para reproducir en tercera dimensión un subtítulo que cumple con un método de difusión por cable, de acuerdo con la tercera modalidad ejemplar, se describirá ahora con referencia a las Tablas 35 hasta la 48 y las FIGS. 28 hasta la 34.
La Tabla 35 muestra una sintaxis de una tabla de mensaje de subtítulo de acuerdo con un método de difusión por cable.
Tabla 35 Sintaxis subtitle_message ( ) { table_ID cero ISO reservado section_length cero segmentation_overlay_included protocol_version si (segmentation_overlay_included) { table_extension last_segment_number segment_number } ISO_639_language_code pre_clear_display inmediato reservado display_standard display_in_PTS subtitle_type reservado display_duration block_length si (subtitle_type ==simple_bitmap) { sim le_bitma () Un campo ' table_ID ' incluye un identificador de tabla de una tabla 1 subtitle_message 1 actual.
Un campo ' section_length' incluye información acerca de un número de bytes de un campo ' section_length' a un campo 'CRC_32'. Una longitud máxima de la tabla ' subtitle_message ' del campo 'table_ID' al campo 'CRC_32' es 1 kilobyte, es decir, 1024 bytes. Cuando un tamaño de la tabla 1 subtitle_message 1 excede 1 kilobyte debido a un tamaño de un campo 1 simple_bitmap ( ) ' , la tabla 1 subtitle_message 1 se divide en una estructura de segmento. Un tamaño de cada tabla 1 subtitle_message ' dividida se fija a 1 kilobyte, y los bytes restantes de una última tabla 1 subtitle_message ' que no equivale a 1 kilobyte se puede llenar por un descriptor de relleno. La Tabla 36 muestra una sintaxis de un campo ' stuffing_descriptor ( ) 1.
Tabla 36 Un campo 1 stiffing_string_length ' incluye información acerca de una longitud de un anillo de relleno. Un campo 1 stiffing_string 1 incluye el anillo de relleno y no se decodifica por un decodificador .
En la tabla 1 subtitle message' de la Tabla 35, un campo 1 simple_bitmap ( ) 1 de un campo 1 ISO_639_language_code 1 se puede formar de un segmento 1 message_body ( ) 1. Cuando un campo 1 descriptor () ' selectivamente existe en una tabla ' subtitle_message 1 , el segmento 'message_body ( ) 1 incluye desde el campo ' ISO_639_language_code 1 hasta un campo ' descriptor ()' . La longitud total de todos los segmentos que incluyen el segmento 1 message_body ( ) ' es 4 megabytes.
Un campo 1 segmentation_overlay_included 1 de la tabla 'subtitle message ()' de la Tabla 35 incluye información acerca de si la tabla ' subtitle_message ( ) ' se forma de segmentos. Un campo 1 table_extension 1 incluye información intrínseca asignada por el decodificador para identificar segmentos 1 message_body ( ) ' . Un campo ' last_segment_numbe 1 incluye información de identificación de un último segmento para completar una imagen de mensaje completa de un subtítulo. Un campo ' segment_number 1 incluye un número de identificación de un segmento actual. El número de identificación se puede asignar con un número desde 0 hasta 4095.
Un campo 1 rotocol_version' de la tabla ' subtitle_message ( ) ' de la Tabla 35 incluye información acerca de una versión de protocolo existente e información acerca de una versión de protocolo nuevo cuando la estructura de la versión de protocolo existente significativamente cambia. Un campo ' ISO_639_language_code 1 incluye información acerca de un código de idioma que cumple con un estándar predeterminado. Un campo 1 pre_clear_display 1 incluye información acerca de si una pantalla completa se va a procesar de forma transparente antes de reproducir un texto de subtítulo actual. Un campo 1 immediate 1 incluye información acerca de si el subtítulo en una pantalla se debe reproducir en un punto de reproducción del tiempo de acuerdo con el valor de un campo ' display_in_PTS 1 o inmediatamente después de recibido.
Un campo 1 display_standard 1 incluye información acerca de un estándar de visualización para reproducir el subtítulo. La Tabla 37 muestra contenido del campo 1 display_standard' .
Tabla 37 En otras palabras, se determina que estándar de visualización de entre resolución 720x480 y 30 marcos por segundo1, resolución 720x576 y 25 marcos por segundo', resolución 1280x720 y 60 marcos por segundo' , y resolución 1920x1080 y 60 marcos por segundo' es adecuado para un subtítulo, de acuerdo con el campo ' display_standard' .
Un campo ' display_in_PTS ' del 1 subtitle_message ( ) ' de la Tabla 35 incluye información acerca de un tiempo de referencia del programa cuando el subtítulo es para reproducirse. La información de tiempo de acuerdo con tal método de expresión absoluto se refiere como un tiempo en señal. Cuando el subtítulo es para reproducirse inmediatamente en una pantalla con base en el campo 'immediate', es decir, cuando un valor del campo 'immediate' se establece en 1, el decodificador no usa un valor del campo ' display_in_PTS 1.
Cuando la tabla 1 subtitle_message ( ) 1 que tiene la información de tiempo en señal y es para reproducirse después de la tabla ' subtitle_message ( ) 1 se recibe por el decodificador, el decodificador puede descartar un mensaje de subtítulo que está en espera para reproducirse. Cuando el valor del campo 'immediate' se establece en 1, todos los mensajes de subtítulo que están en espera para reproducirse se descartan. Si una discontinuidad ocurre en información de PCR para un servicio debido al decodificador, todo de los mensajes de subtítulo que están en espera para reproducirse se descarta.
Un campo ' display_duration ' incluye información acerca de una duración requerida para visualizar el mensaje de subtítulo, en donde la duración se indica en un número de marco de una TV. En consecuencia, un valor del campo 1 display_duration 1 se relaciona con una velocidad de marco definida en el campo ' display_standard 1. Un tiempo fuera de señal obtenido al agregar la duración al tiempo en señal se puede determinar de acuerdo con la duración del campo ' display_duration 1. Cuando el tiempo fuera de señal se alcanza, un mapa de bits de subtítulo visualizado en un tiempo de pantalla durante el tiempo en señal se borra.
Un campo ' subtitle_type ' incluye información acerca de un formato de datos de subtítulo. De acuerdo con la Tabla 38, los datos de subtítulo tienen un formato de mapa de bits sencillo cuando un valor del campo 1 subtitle_type 1 es 1.
Tabla 38 Un campo 1 block_length ' incluye información acerca de una longitud de un campo ' simple_bitmap ( ) 1 o un campo reservado ( ) ' .
El campo 1 simple_bitmap ( ) ' incluye información acerca de un formato de mapa de bits del subtítulo. Una estructura del formato de mapa de bits se describirá ahora con referencia a la FIG . 28.
La FIG. 28 es un diagrama que ilustra componentes del formato de mapa de bits de un subtítulo que cumple con un método de difusión por cable.
El subtítulo que tiene el formato de mapa de bits incluye al menos una imagen de mapa de bits comprimida. Cada imagen de mapa de bits comprimida puede tener selectivamente un marco de fondo rectangular. Por ejemplo, un primer mapa de bits 2810 tiene un marco de fondo 2800. Cuando un punto de referencia (0.0) de un sistema de coordenada se establece en un lado izquierdo superior de una pantalla, las siguientes cuatro relaciones se pueden establecer entre coordenadas del primer mapa de bits 2810 y las coordenadas del marco de fondo 2800. 1. Un valor de coordenada horizontal superior (FTH) del marco de fondo 2800 es más pequeño que o igual a un valor de coordenada horizontal superior (BTH) del primer mapa de bits 2610 (FTH = BTH) . 2. Un valor de coordenada vertical superior (FTV) del marco de fondo 2800 es más pequeño que o igual a un valor de coordenada vertical superior (BTV) del primer mapa de bits 2810 (FTV = BTV) . 3. Un valor de coordenada horizontal inferior (FBH) del marco de fondo 2800 es mayor que o igual a un valor de coordenada horizontal inferior (BBH) del primer mapa de bits 2810 (FBH = BBH) . 4. Un valor de coordenada vertical inferior (FBV) del marco de fondo 2800 es mayor que o igual a un valor de coordenada vertical inferior (BBV) del primer mapa de bits 2810 (FBV = BBV) .
El subtítulo que tiene el formato de mapa de bits puede tener un perfil 2820 y una sombra de caída 2830. Un espesor del perfil 2820 puede estar en el intervalo desde 0 hasta 15.
La sombra de caída 2830 se define por una sombra derecha Sr y una sombra de fondo Sb, en donde los espesores de la sombra derecha Sr y la sombra de fondo Sb están cada una en el intervalo desde 0 hasta 15.
La Tabla 39 muestra una sintaxis de un campo 1 simple_bitmap ( ) ' .
Tabla 39 Sintaxis simple_bitmap ( ) { reservado background_style outline_style character_color ( ) bitmap_top_H_coordinate bitmap_top_V_coordinate bitmap_bottom_H_coordinate bitraap_bottom_V_coordinate si (background_style ==framed) { frame_top_H_coordinate frame_top_V_coordinate frame_bottom_H_coordinate frame_bottom_V_coordinate frame_color ( ) } si (outline_style==outlined) { reservado outline_thickness outline_color_ ( ) } entonces si (outline_style==drop_shadow) { shadow_right shadow_bottom shado _color ( ) } entonces si (outline_style==reservado) { reservado } bitmap_length compressed_bitmap ( ) } Las coordenadas (bitmap_top_H_coordinate, bitmap_top_V_ coordínate, itmap_bottom_H_ coordínate, y bitmap_bottom_V_ coordínate) de un mapa de bits se establecen en un campo 1 simple_bitmap () 1.
También, si un marco de fondo existe con base en un campo ' ackground_style ' , las coordenadas (frame_top_H_coordinaté, frame_top_V_ coordínate, frame_bottom_H_ coordínate, y frame_bottom_V_ coordínate) de un marco de fondo se puede establecer en el campo ' simple_bitmap ( ) ' .
También, si un perfil existe con base en un campo 'outline_style 1 , un espesor (outline_thickness) del perfil se puede establecer en el campo ' simple_bitmap ( ) '. También, cuando una sombra de caída existe con base en el campo 1 outline_style ' , los espesores (shadow_right , shadow_bottom) de una sombra derecha y una sombra de fondo de la sombra de caída se puede establecer.
El campo ' simple_bitmap ( ) ' puede incluir un campo ' character_color ( ) 1 , que incluye información acerca de un color de un carácter de subtítulo, un campo 1 frame_color ( ) ' , que incluye información acerca de un color del marco de fondo del subtítulo, un campo ' outline_color ( ) ' , que incluye información acerca de un color del perfil del subtítulo, y un campo ' shadow_color ( ) 1 que incluye información acerca de un color de la sombra de caída del subtítulo.
La Tabla 40 muestra una sintaxis de diversos campos 1 color ( ) ' .
Tabla 40 Sintaxis color ( ) { Y component opaque_enable Cr_component Cd_component } Un máximo de 16 colores se pueden visualizar en una pantalla para reproducir el subtítulo. La información de color se establece de acuerdo con elementos de color de Y, Cr, y Cb, y cada código de color se determina en el intervalo desde 0 hasta 31.
Un campo ' opaque_enable 1 incluye información acerca de transparencia de color del subtítulo. El color del subtítulo puede ser opaco o mezclado 50:50 con un color de una imagen de vídeo, con base en el campo ' opaque_enable ' .
La FIG. 29 es un diagrama de flujo de un modelo de procesamiento de subtítulo 2900 para reproducción en 3D de un subtítulo que cumple con un método de difusión por cable, de acuerdo con una modalidad ejemplar.
De acuerdo con el modelo de procesamiento de subtítulo 2900, paquetes TS que incluyen mensaje de subtítulos se reúnen de un TS MPEG- 2 que lleva los mensajes de subtítulo, y los paquetes TS se emiten a un búfer de transporte, en la operación 2910. Los paquetes TS que incluyen segmentos de subtítulo se almacenan, en la operación 2920.
Los segmentos de subtítulo se extraen desde los paquetes TS en la operación 2930, y los segmentos de subtítulo se almacenan y reúnen en la operación 2940. Los datos de subtítulo se restauran y prestan desde los segmentos de subtítulo en la operación 2950, y los datos de subtítulo prestados y la información relacionada con la reproducción de un subtítulo se almacenan en una cola de visualización en la operación 2960.
Los datos de subtítulo almacenados en la cola de visualización forma un subtítulo en una región predeterminada de una pantalla con base en la información relacionada con la reproducción del subtítulo, y el subtítulo se mueve a un plano gráfico 2970 de un dispositivo de visualización, tal como una TV, en un punto predeterminado de tiempo. En consecuencia, el dispositivo de visualización puede reproducir el subtítulo junto con una imagen de vídeo.
La FIG. 30 es un diagrama para describir un proceso en el cual un subtítulo se emite de una cola de visualización 3000 a un búfer de pixel (plano gráfico) 3070 a través de un modelo de procesamiento de subtítulo que cumple con un método de difusión por cable.
Los primeros los datos de mapa de bits y la información relacionada con la reproducción 3010 y los segundos datos de mapa de bits y la información relacionada con la reproducción 3020 se almacenan en la cola de visualización 3000 de acuerdo con los mensajes de subtítulo. Aquí, información relacionada con la reproducción incluye información de tiempo de inicio (display_in_PTS) alrededor de un punto de tiempo cuando un mapa de bits se visualiza en una pantalla, la información de duración (display_duration) , y la información de coordenada de mapa de bits. La información de coordenada de mapa de bits incluye una coordenada de un pixel izquierdo superior del mapa de bits y una coordenada de un pixel derecho inferior del mapa de bits .
El subtítulo formado con base en los primeros datos de mapa de bits y la información relacionada con la reproducción 3010 y los segundos datos de mapa de bits y la información relacionada con la reproducción 3020 almacenada en la cola de visualización 3000 se almacena en el búfer de pixel (plano gráfico) 3070, de acuerdo con información de tiempo con base en la información relacionada con la reproducción. Por ejemplo, con base en los primeros datos de mapa de bits e información relacionada con la reproducción 3010 y los segundos datos de mapa de bits y la información relacionada con la reproducción 3020, un subtítulo 3030 en el cual los primeros datos de mapa de bits se visualiza en una ubicación 3040 de coordenadas correspondientes se almacena en el búfer de pixel 3070 cuando un tiempo de unidad PTS es 4.
Alternativamente, cuando el tiempo de unidad PTS es 5, un subtítulo 3050 en el cual los primeros datos de mapa de bits se visualizan en la ubicación 3040 y los segundos datos de mapa de bits se visualizan en una ubicación 3060 de coordenadas correspondientes se almacenan en el búfer de pixel 3070.
Las operaciones del aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar y el aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar para reproducción 3D de subtítulo se describirá ahora con referencia a las Tablas 41 hasta la 48 y las FIGS . 31 hasta la 34, con base en un subtítulo que cumple con el método de difusión por cable descrito con referencia a las Tablas 35 hasta la 40 y las FIGS. 28 hasta la 30.
El aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar puede insertar información para reproducir un subtítulo de cable en 3D en un paquete PES de subtítulo. Aquí, la información de acuerdo con la tercera modalidad ejemplar puede incluir información acerca de un valor de profundidad, disparidad, o desviación de un subtítulo.
También, el aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar puede reunir paquetes PES de subtítulo que tienen la misma información PID del TS recibido de acuerdo con el método de difusión por cable, extraer información para reproducción en 3D de un subtítulo de cable de un resultado de la reunión, y cambia un subtítulo en 2D en un subtítulo en 3D al usar la información para reproducción en 3D de un subtítulo de cable, de este modo reproduciendo el subtitulo 3D.
La FIG. 31 es un diagrama de flujo de un modelo de procesamiento de subtitulo 3100 para reproducción en 3D de un subtítulo que cumple con un método de difusión por cable, de acuerdo con la tercera modalidad ejemplar.
Los procesos de datos de subtítulo restaurados e información relacionada con la reproducción de subtítulo que cumple con el método de difusión por cable a través de una operación de filtración PID 3110, un operación de búfer de transporte 3120, una operación de no formación de paquetes y des-segmentación 3130, una operación de búfer de entrada 3140, una operación de descompresión y prestación 3150, y un encolamiento de visualización 3160 del modelo de procesamiento de subtítulo 3100 de acuerdo con la tercera modalidad ejemplar son similares a operaciones 2910 hasta la 2960 del modelo de procesamiento de subtítulo 2900 de la FIG. 29, excepto que la información de reproducción en 3D de subtítulo se puede almacenar adicionalmente en una cola de visualización en el encolamiento de visualización 3160.
En un subtítulo en 3D que convierte la operación 3180 de acuerdo con la tercera modalidad ejemplar, un subtítulo en 3D que se puede reproducir en 3D se puede formar con base en los datos de subtítulo y la información relacionada con la reproducción de subtítulo que incluye información de reproducción en 3D de subtítulo almacenado en la operación de encolamiento de visualización 3160. El subtítulo 3D se puede emitir a un plano gráfico 3170 de un dispositivo de visualización.
El modelo de procesamiento de subtítulo 3100 de acuerdo con la tercera modalidad ejemplar se puede aplicar para realizar una operación de procesamiento de subtítulo del aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar. En particular, la operación de conversión de subtítulo 3D 3180 puede corresponder a un subtítulo en 3D que procesa la operación del reproductor 240 de acuerdo con la tercera modalidad ejemplar.
Las modalidades ejemplares en las cuales el aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar transmite información de reproducción de subtítulo en 3D y las modalidades ejemplares en las cuales el aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar reproduce un subtítulo en 3D al usar la información de reproducción en 3D de subtítulo se describirá ahora en detalle.
El codificador de programa 110 del aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar puede insertar la información de reproducción en 3D de subtítulo en un campo 1 subtitle_message ( ) ' en un paquete PES de subtítulo. También, el codificador de programa 110 de acuerdo con la tercera modalidad ejemplar puede definir recientemente un descriptor o un tipo de subtítulo para definir la profundidad de un subtítulo, e insertar el descriptor o tipo subtítulo en el paquete PES de subtítulo.
Las Tablas 41 y 42 respectivamente muestran sintaxis de un campo 1 simple_bitmap ( ) ' y un campo 1 subtitle_message ( ) ' , que se modifican por el codificador de programa 110 de acuerdo con la tercera modalidad ejemplar para incluir información de profundidad de un subtítulo de cable.
Tabla 41 Sintaxis simple_bitmap () { 3d_8ubtitle_offset background_style outline_style character_color bitmap_top_H_coordinate bitmap_top_V_coordinate bitmap_bo11om_H_coordinate bitmap_bottom_V_coordinate si (background_style ==framed) { frame_top_H_coordinate frame_top_V_coordinate frame_bo11om_H_coordinate frame_bottom_V_coordinate frame_color ( ) } si (outline_style == outlined) { reservado outline_thickness outline_color ( ) } entonces si (outline_style == drop_shadow) { shadow_right shadow_bottom shadow_color ( ) } entonces si (outline_style == reservado) { reservado } bitmap_length compressed_bitmap ( ) }| Como se muestra en la Tabla 41, el codificador de programa 110 de acuerdo con la tercera modalidad ejemplar puede insertar un campo 13d_subtitle_offse 1 en un campo ' reservado () 1 en el campo ' simple_bitmap ( ) ' de la Tabla 39. Con objeto de generar un mapa de bits para una imagen de vista izquierda y un mapa de bits para una imagen de vista derecha para reproducción en 3D de subtítulo, el campo 13d_subtitle_offset 1 puede incluir información de desviación que indica una cantidad de desplazamiento para mover los mapas de bits con base en un eje de coordenada horizontal. Un valor de desviación del campo 13d_subtitle_offset ' se puede aplicar igualmente a un carácter de subtitulo y un marco de fondo .
Tabla 42 Sintaxis subtitle_message () { table_lD cero ISO reservado section_length cero segmentation_overlay_included protocol_version si (segmentation_overlay_included) { table_extension last_segment_number segment_number } ISO_639_language_code pre_clear_display inmediato reservado display_standard display_in_PTS subtitle_type 3D_8ubtitle_direction dis lay_duration block_length si (subtitle_type==simple_bitmap) { simple_bitma ( ) } entonces { reservado ( ) } para (i=0; i<N; i++) { descriptor ( ) } CRC 32 } El codificador de programa 110 de acuerdo con la tercera modalidad ejemplar puede insertar un campo 13d_subtitle_direction' en el campo ' reservado () 1 en el campo ' subtitle_message ( ) 1 de la Tabla 35. El campo 13d_subtitle_direction' puede incluir información de dirección de desviación usada para generar los mapas de bits para una imagen de vista izquierda y una imagen de vista derecha para reproducción en 3D de subtítulo. Cuando una desviación negativa se aplica a un subtítulo, el subtítulo parece que sobresale al exterior de una pantalla de TV. Por otro lado, cuando una desviación positiva se aplica al subtítulo, el subtítulo parece que sobresale al interior de la pantalla de TV.
El reproductor 240 de acuerdo con la tercera modalidad ejemplar puede generar un subtítulo de vista derecha al aplicar la desviación a un subtítulo de vista izquierda al usar la dirección de la desviación. Cuando un valor del campo 13d_subtitle_direction' es negativo, el reproductor 240 de acuerdo con la tercera modalidad ejemplar puede determinar un valor de coordenada x del subtítulo de vista derecha al restar un valor de desviación de un valor de coordenada x del subtítulo de vista izquierda. Similarmente, cuando el valor del campo ' 3d_subtitle_direction 1 es positivo, el reproductor 240 de acuerdo con la tercera modalidad ejemplar puede determinar el valor de coordenada del subtítulo de vista derecha al agregar el valor de desviación al valor de coordenada del subtítulo de vista izquierda.
La FIG. 32 es un diagrama para describir ajuste de la profundidad de un subtítulo que cumple con un método de difusión por cable de acuerdo con la tercera modalidad ejemplar.
El aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar recibe un TS que incluye un mensaje de subtítulo de acuerdo con la tercera modalidad ejemplar, y extrae datos de subtítulo e información relacionada con la reproducción de subtítulo de un paquete PES de subtítulo al desmultiplexar el TS .
El aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar puede extraer información acerca de coordenadas de mapa de bits del subtítulo, información acerca de coordenadas de marco, y datos de mapa de bits del campo mapa de bits de la Tabla 41. También, el aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar puede extraer información de desviación de subtítulo en 3D del campo 13d_subtitle_offset ' , que es un campo inferior del campo mapa de bits de la Tabla 41.
El aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar puede extraer información relacionada con tiempo de reproducción del subtítulo de la tabla de mensaje de subtítulo de la Tabla 42, y también puede extraer información de dirección de desviación de subtítulo en 3D del campo ' 3d_subtitle_offset_direction 1 , que es un campo inferior de la tabla de mensaje de subtítulo de la Tabla 42.
En consecuencia, una cola de visualización 3200 puede almacenar un conjunto de información de subtítulo 3210, que incluye la información relacionada con tiempo de reproducción del subtítulo (display_in_PTS y display_duration) , la información de desviación de subtítulo en 3D (3d_subtitle_offset) , la información de dirección de desviación (3d_subtitle_direction) , la información relacionada con la reproducción de subtitulo que incluye información de coordenadas de mapa de bits (BTH, ?t?, BBH, y BBv) del subtítulo e información de coordenadas de marco de fondo (FTH, FTV, FBH, y FBv) del subtítulo, y los datos de subtítulo .
A través de la operación de conversión de subtítulo en 3D 3180 de la FIG. 28, el reproductor 240 de acuerdo con la tercera modalidad ejemplar forma una pantalla de composición de subtítulo en la cual el subtítulo se coloca, con base en la información relacionada con la reproducción de subtítulo almacenado en la cola de visualización 3200, y almacena la pantalla de composición de subtítulo en un búfer de pixel (plano de gráficos) 3270.
Un subtítulo en plano 3D 3220 de un formato lado a lado, esto es, un formato de composición en 3D, se puede almacenar en el búfer de pixel 3270. Ya que la resolución del formato lado a lado se reduce a la mitad a lo largo de un eje x, el valor de coordenada x para un subtítulo de vista base y el valor de desviación del subtítulo, de entre la información relacionada con la reproducción de subtítulo almacenada en la cola de visualización 3200, se puede reducir a la mitad así como para generar el plano de subtítulo en 3D 3220. Los valores de coordenada Y de un subtítulo de vista izquierda 3250 y un subtítulo de vista derecha 3260 son idénticos a valores de coordenada y del subtítulo de entre la información relacionada con la reproducción de subtítulo almacenada en la cola de visualización 3200.
Por ejemplo, la cola de visualización 3200 almacena 1 display_in_PTS = 4' y ' display_duration=600 ' como la información relacionada con un tiempo de reproducción del subtítulo, ' 3d_subtitle_offset = 10' como la información de desviación de subtítulo en 3D, ' 3d_subtitle_direction = 1' como la información de dirección de desviación de subtítulo en 3D, 1 (BTH, BTV) = (30, 30) 1 y ' (BBH, BBV) = (60, 40) 1 como la información de coordenadas de mapa de bits del subtítulo, y ' (FTH, FTV) = (14, 20) ' y ' (FBH, FBV) = (70, 50) ' como la información de coordenadas de marco de fondo del subtítulo.
El plano de subtítulo en 3D 3220 que tiene el formato lado a lado y almacenado en el büfer de pixel 3270 se forma de un plano de subtítulo de vista izquierda 3230 y un plano de subtítulo de vista derecha 3240. Las resoluciones horizontales del plano de subtítulo de vista izquierda 3230 y el plano de subtítulo de vista derecha 3240 se reducen por la mitad comparado con las resoluciones originales, y si una coordenada original del plano de subtítulo de vista izquierda 3230 es 1 (0HL/ OVL) = (0, 0) ', una coordenada original del plano de subtítulo de vista derecha 3240 es 1 (0HR, OVR) = (100, 0) ' .
Aquí, los valores de coordenada x del mapa de bits y marco de fondo del subtítulo de vista izquierda 3250 también se reducen cada uno a la mitad. En otras palabras, un valor de coordenada x BTHL en un punto de la parte superior izquierda del mapa de bits y un valor de coordenada x BBHL en un punto de la parte inferior derecha del mapa de bits del subtítulo de vista izquierda 3250, y un valor de coordenada x FTHL en un punto de la parte superior izquierda del marco y un valor de coordenada x FBHL en un punto de la parte inferior derecha del marco del subtítulo de vista izquierda 3250 se determinan de acuerdo con Expresiones Relaciónales (1) a través de (4) abajo. (1) BTHL = BTH / 2; (2) BBHL = BBH / 2; (3) FTHL = FTH / 2; (4) FBHL = FBH / 2.
En consecuencia, los valores de coordenada x BTHL, BBHL FTHL/ y FBHL del subtítulo de vista izquierda 3250 se puede determinar respectivamente para ser (1) BTHL = B™ / 2 = 30/2 = 15; (2) BBHL = Bbh / 2 = 60/2 = 30; (3) FTHL = FTH / 2 = 20/2 = 10; y (4) FBHL = FBH / 2 = 70/2 = 35.
También, las resoluciones del eje horizontal del mapa de bits y el marco de fondo del subtítulo de vista derecha 3260 cada uno se puede reducir a la mitad. Los valores de coordenada x del mapa de bits y el marco de fondo del subtítulo de vista derecha 3260 se pueden determinar con base en el punto original (0HR, OVR) del plano de subtítulo de vista derecha 3240. En consecuencia, un valor de coordenada x BTHR en un punto de la parte superior izquierda del mapa de bits y un valor de coordenada x BBHR en un punto de la parte inferior derecha del mapa de bits del subtítulo de vista derecha 3260, y un valor de coordenada x FTHR en un punto de la parte superior izquierda del marco y un valor de coordenada x FBHR en un punto de la parte inferior derecha del marco del subtítulo de vista derecha 3260 se determinan de acuerdo con Expresiones Relaciónales (5) hasta la (8) abajo. (5) BTHR = 0HR + BTHL + (3d_ _subtitle_ _offset / 2) ; (6) BBHR = OHR + BBHL + (3d_ _subtitle_ _offset / 2) ; (7) FTHR = OHR + F HL ± (3d_ _subtitle_ _offset / 2) ; (8) FBHR = OHR + FBHL + (3d subtitle _offset / 2) .
En otras palabras, los valores de coordenada x del mapa de bits y marcos de fondo del subtítulo de vista derecha 3260 se pueden establecer al desplazar las coordenadas x en una dirección negativa o positiva por el valor de desviación del subtítulo en 3D de una ubicación aparte del punto original (0HR, OVR) del plano de subtítulo de vista derecha 3240 en una dirección positiva por las coordenadas x del subtítulo de vista izquierda 3250. Aquí, ya que la dirección de desviación del subtítulo 3D es 1, es decir, 13d_subtitle_direction = l1 , la dirección de desviación del subtítulo 3D es negativo.
En consecuencia, los valores de coordenada x BTHi_, BBHL, FTHL, y FBHL del mapa de bits y el marco de fondo del subtítulo de vista derecha 3260 se puede determinar respectivamente para ser (5) BTHR = 0HR + BTHL - (3d_subtitle_offset / 2) = 100 + 15 - 5 = 110; (6) BBHR = 0HR + BBHL - ( 3d_subtitle_offset / 2) 100 + 30 - 5 125; (7) FTHR = 0HR + FTHL - (3d_subtitle_offset / 2) = 100 + 10 - 5 = 105; (8) FBHR = 0HR + FBHL - (3d_subtitle_offset / 2) = 100 + 35 - 5 = 130.
En consecuencia, un dispositivo de visualización puede reproducir subtítulos 3D en 3D al usar el plano de subtítulo en 3D 3220 en el cual el subtítulo de vista izquierda 3250 y el subtítulo de vista derecha 3260 se visualizan en ubicaciones movidas por el valor de desviación en una dirección de eje x en el plano de subtítulo de vista izquierda 3230 y el plano de subtítulo de vista derecha 3240, respectivamente .
También, el codificador de programa 110 de acuerdo con la tercera modalidad ejemplar puede definir recientemente un descriptor y un tipo de subtítulo para definir la profundidad de un subtítulo, e insertar el descriptor y el tipo de subtítulo en un paquete PES .
La Tabla 43 muestra una sintaxis de un campo 1 subtitle_depth_descriptor ( ) ' recientemente definido por el codificador de programa 110 de acuerdo con la tercera modalidad ejemplar.
Tabla 43 Sintaxis Subtitling_depth_descriptor () { descriptor_tag descriptor_length reservado (or offset_based) character_offset_direction character_offset reservado frame_offset_direction frame_offset } El campo ' subtitle_depth_descriptor ( ) ' puede incluir información acerca de una dirección de desviación de un carácter ( ' character_offset_directoin 1 ) del subtítulo, información de desviación del carácter ( ' character_offset ' ) , información acerca de una dirección de desviación de un marco de fondo ( 1 frame_offset_direction' ) del subtítulo, e información de desviación del marco de fondo ( 1 frame_offset ' ) .
El campo 1 subtitle_depth_descriptor ( ) 1 puede incluir selectivamente información ( 1 offset_based' ) que indica si un valor de desviación del carácter o el marco de fondo del subtítulo se establece con base en un plano cero o con base en disparidad de un objeto de vídeo.
La FIG. 33 es un diagrama para describir ajuste de la profundidad de un subtítulo que cumple con un método de difusión por cable de acuerdo con la tercera modalidad ejemplar.
El aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar puede extraer información relacionada con coordenadas de mapa de bits del subtítulo, información relacionada con coordenadas de marco del subtítulo, y datos de mapa de bits del campo de mapa de bits de la Tabla 41, y extraer información relacionada con tiempo de reproducción del subtítulo de la tabla de mensaje de subtítulo de la Tabla 42. También, el aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar puede extraer información acerca de información de desviación de un carácter ( 1 character_offset_direction ' ) del subtítulo, información de desviación del carácter ( 1 character_offset 1 ) , información acerca de una dirección de desviación de un fondo ( ' frame_offset_directio ' ) del subtítulo, e información de desviación del fondo ( 1 frame_offset 1 ) del campo del descriptor de profundidad de subtítulo de la Tabla 43.
En consecuencia, un conjunto de información de subtítulo 3310, que incluye información relacionada con la reproducción de subtítulo y datos de subtítulo, se puede almacenar en una cola de visualización 3300. La información relacionada con la reproducción de subtítulo incluye la información relacionados con tiempo de reproducción del subtítulo (display_in_PTS y display_duration) , la dirección de desviación del carácter (character_offset_direction) , la información de desviación del carácter (character_offset) , la dirección de desviación del marco de fondo (frame_offset_direction) , y la información de desviación del marco de fondo (frame_offset) .
Por ejemplo, la cola de visualización 3300 almacena 1 display_in_PTS = 4' y 1 display_duration = 600' como la información relacionada con el tiempo de reproducción del subtítulo, ' character_offset_direction = 1' como la dirección de desviación del carácter, 1 character_offset = 10' como la información de desviación del carácter, ' frame_offset_direction = 11 como la dirección de desviación del marco de fondo, 1 frame_offset = 4' como la información de desviación del marco de fondo, ' (BTH, Bw) = (30, 30) 1 y ' (BBH, BBV) = (60, 40) 1 como coordenadas de mapa de bits del subtítulo, y ¦ (FTH, Fw) = (20, 20) ' y ' (FBH, FBV) = (70, 50) ' como coordenadas de marco de fondo del subtítulo.
A través de la operación de conversión de subtítulo 3D 3180 de la FIG. 31, un búfer de pixel (plano gráfico) 3370 puede almacenar un plano de subtítulo en 3D 3320 que tiene un formato lado a lado, que es un formato de composición en 3D. Similar a la FIG. 32, un valor de coordenada x BTHL en un punto de la parte superior izquierda de un mapa de bits, un valor de coordenada x BBHL en un punto de la parte inferior derecha del mapa de bits, un valor de coordenada x FTHL en un. punto de la parte superior izquierda de un marco, y un valor de coordenada x FBHL de un punto de la parte inferior derecha del marco de un subtítulo de vista izquierda 3350 en un plano de subtítulo de vista izquierda 3330 de entre el plano de subtítulo en 3D 3320 almacenado en el búfer de pixel 3370 se puede determinar para ser (9) BTHL = BTH / 2 = 30/2 = 15; (10) BBHL = BBH / 2 = 60/2 = 30; (11) FTHL = FTH / 2 = 20/2 = 10; y (12) FBHL = FBH / 2 = 70/2 = 35.
También, un valor de coordenada x BTHR en un punto de la parte superior izquierda de un mapa de bits, un valor de coordenada x BBHR en un punto de la parte inferior derecha del mapa de bits, un valor de coordenada x FTHR en un punto de la parte superior izquierda de un marco, y un valor de coordenada x FBHR de un punto de la parte inferior derecha del marco de un subtítulo de vista derecha 3360 en un plano de subtítulo de vista derecha 3340 de entre el plano de subtítulo en 3D 3320 se determinan respectivamente de acuerdo con Expresiones Relaciónales (13) hasta la (15) abajo: (13) BTHR = 0HR + BTHL ± (character_offset / 2) ; (14) BBHR = 0HR + BBHL ± (character_offset / 2) ; (15) FTHR = 0HR + FTHL ± (frame_offset / 2) ; y (16) FBHR = 0HR + FBHL ± (frame_offset / 2) .
Aquí, ya que la información de dirección de desviación de un subtítulo en 3D son ' character_offset_direction = l1 y ' frame_offset_direction = 1', la dirección de desviación del subtítulo 3D es negativo.
En consecuencia, los valores de coordenada x BTHL , BBHL FTHL/ y FBHL del mapa de bits y el marco de fondo del subtítulo de vista derecha 3360 se pueden determinar para ser (13) BTHR = 0HR + BTHL - (character_offset / 2) = 100 + 15 - 5 = 110; (14) BBHR = 0HR + BBHL - (character_offset / 2) = 100 + 30 - 5 = 125; (15) FTHR = 0HR + FTH L - ( frame_offset / 2) = 100 + 10 - 2 = 108; y (16) FBHR = 0HR + FBHL - (frame_offset / 2) = 100 + 35 - 2 = 133.
En consecuencia, un dispositivo de visualización en 3D puede reproducir subtítulos en 3D, al usar el plano de subtítulo en 3D 3320 en el cual el subtítulo de vista izquierda 3350 y el subtítulo de vista derecha 3360 se colocan respectivamente en ubicaciones movidas por el valor de desviación en una dirección de eje x en el plano de subtítulo de vista izquierda 3330 y el plano de subtítulo de vista derecha 3340, respectivamente.
El aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar puede establecer adicionalmente un tipo de subtítulo para un subtítulo de vista adicional para reproducir subtítulos en 3D. La Tabla 44 muestra un tipo de subtítulo modificado por el aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar.
Tabla 44 El tipo de subtítulo modificado de la Tabla 44 se obtiene por el aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar agregando un tipo de subtítulo de otra vista 1 subtitle_another_view' ubicado en un valor de campo de tipo de subtítulo '2' a una región reservada que corresponde a un valor de campo de tipo de subtítulo en el intervalo desde 2 hasta 15 en el tipo de subtítulo básico de la Tabla 38.
El aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar puede modificar la tabla de mensaje de subtítulo básico de la Tabla 35 con base en el tipo de subtítulo modificado de la Tabla 44. La Tabla 45 muestra una sintaxis de una tabla de mensaje de subtítulo modificado ' subtitle_message ( ) ' .
Tabla 45 Sintaxis subtitle_message ( ) { table_ID cero ISO reservado section_length cero segmentation_overlay_included protocol_version si (segmentation_overlay_included) { table_extension las _segment_number segment_numbe } ISO_639_language_code pre_clear_display inmediato reservado disp1ay_standard display_in_PTS subtitle_type reservado display_durat block_length si (subtitle_type==simple_bitmap) { simple_bitmap ( ) En otras palabras, en la tabla de mensaje de subtítulo modificado, cuando el tipo de subtítulo es ' subtitle_another_view' , un campo 1 subtitle_another_view ( ) 1 se puede incluir adicionalmente para establecer información de subtítulo de otra vista. La Tabla 46 muestra una sintaxis del campo 1 subtitle_another_view ( ) 1.
Tabla 46 Sintaxis subtitle another view () { reservado background_style outline_style character_color ( ) bítmap_top H_coordinate bitmap_top_V_coordíñate bi tmap_bottom_H_coordinate bitmap_bottom_V_coordinate si (background_style==framed) { frame_top_H_coordinate frame_top_V_coordinate frame_bottom_H_coordinate frame_bottom_V_coordinate frame_color ( ) } si (outline_style==outlined) { reservado outlined_thickness outlined_color ( ) } entonces si (outline_style==drop_shadow) { shadow_right shadow_bottom shadow_color ( ) } entonces si (outline_style==reservado) { Reservado } bitmap_length compressed_bitmap ( ) } El campo 1 subtitle_another_view ( ) ' puede incluir información acerca de coordenadas de un mapa de bits de un subtítulo de otra vista (bitmap_top_H_coordinate, bitmap_top_V_coordinate, bitmap_bottom_H_coordinate, bitmap bottom V coordínate) . También, si un marco de fondo del subtítulo de otra vista existe con base en un campo 1 background_style ' , el campo ' subtitle_another_view ( ) 1 puede incluir información acerca de coordenadas del marco de fondo del subtítulo de otra vista (frame_top_H_coordinate, frame_top_V_coordinate, frame_bottom_H_coordinate, frame_bottom_V_coordinate) .
El aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar no únicamente incluye la información acerca de las coordenadas del mapa de bits y el marco de fondo del subtítulo de otra vista, sino puede también incluir información de espesor (outline_thickness) de un perfil si el perfil existe, e información de espesor de sombras derecha e izquierda (shadow_right y shadow_bottom) de una sombra de caída si la sombra de caída existe, en el campo ' subtitle_another_view ( ) ' .
El aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar puede extraer y usar únicamente la información acerca de las coordenadas del mapa de bits y el marco de fondo del subtítulo del campo 1 subtitle_another_view ( ) 1 así como para reducir producción de datos .
La FIG. 34 es un diagrama para describir el ajuste de la profundidad de un subtítulo que cumple con un método de difusión por cable de acuerdo con la tercera modalidad ejemplar.
El aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar puede extraer información alrededor del tiempo de reproducción del subtítulo de la tabla de mensaje de subtítulo de la Tabla 45 que se modifica para considerar el campo ' subtitle_another_view ( ) 1 , y extraer la información acerca de las coordenadas del mapa de bits y el marco de fondo del subtítulo de otra vista y los datos de mapa de bits del campo ' subtitle_another_view ( ) 1 de la Tabla 46.
En consecuencia, una cola de visualización 3400 puede almacenar un conjunto de información de subtítulo 3410, que incluye datos de subtítulo e información relacionada con la reproducción de subtítulo, en donde la información relacionada con la reproducción de subtítulo incluye información relacionada con un tiempo de reproducción de un subtítulo (display_in_PTS y display_duration) , información acerca de coordenadas de un mapa de bits del subtítulo de otra vista (bitmap_top_H_coordinate, bitmap_top_V_coordinate, bitmap_bottom_H_coordinate, y bitmap_bottom_V_coordinate) , e información acerca de coordenadas de un marco de fondo del subtítulo de otra vista (frame_top_H_coordinate, frame_top_V_coordinate, frame_bottom_H_coordinate, y frame_bottom_V_coordinate .
Por ejemplo, la cola de visualización 3400 incluye la información relacionada con la reproducción de subtítulo que incluye ' display_in_PTS = 4' y ' display_duration = 600' como información relacionada con el tiempo de reproducción del subtítulo, ' bitmap_top_H_coordinate = 20' , ' bitmap_top_V_coordinate = 30' , 1 bitmap_bottom_H_coordinate = 50' , y ' itmap_bottom_V_coordinate = 40' como la información acerca de las coordenadas del mapa de bits del subtítulo de otra vista, y 1 frame_top_H_coordinate = 10' , 1 frame_top_V_coordinate = 20' , ' frame_bottom_H_coordinate = 60' , y ' frame_bottom_V_coordinate = 50' como la información acerca de las coordenadas del marco de fondo del subtítulo de otra vista, 1 (BTH, ?t?) = (30, 30) ' y ' (BBH, BBV) = (60, 40) ' como información acerca de coordenadas de mapa de bits de un subtítulo, y ' (FTH, FTV) = (20, 20) ' y ' (FBH, FBV) = (70, 50) ' como información acerca de coordenadas de un marco de fondo del subtítulo.
A través de la operación de conversión de subtítulo 3D 3180 de la FIG. 31, un plano de subtítulo en 3D 3420 que tiene un formato lado a lado, que es un formato de composición en 3D, se almacena en un büfer de pixel (plano gráfico) 3470. Similar a la FIG. 32, un valor de coordenada x BTHL en un punto de la parte superior izquierda de un mapa de bits, un valor de coordenada x BBHL en un punto de la parte inferior derecha del mapa de bits, un valor de coordenada x FTHL en un punto de la parte superior izquierda de un marco, y un valor de coordenada x FBHL de un punto de la parte inferior derecha del marco de un subtítulo de vista izquierda 3450 en un plano de subtítulo de vista izquierda 3430 de entre el plano de subtítulo en 3D 3420 almacenado en el búfer de pixel 3470 se pueden determinar para ser (17) BTHL = BTH / 2 = 30/2 = 15; (18) BBHL = BBH / 2 = 60/2 = 30; (19) FTHL = FTH / 2 = 20/2 = 10; y (20) FBHL = FBH / 2 = 70/2 = 35.
También, un valor de coordenada x BTHR en un punto de la parte superior izquierda de un mapa de bits, un valor de coordenada x BBHR en un punto de la parte inferior derecha del mapa de bits, un valor de coordenada x FTHR en un punto de la parte superior izquierda de un marco, y un valor de coordenada x FBHR de un punto de la parte inferior derecha del marco de un subtítulo de vista derecha 3460 en un plano de subtítulo de vista derecha 3440 de entre el plano de subtítulo en 3D 3420 se determinan de acuerdo con Expresiones Relaciónales (21) a través de (24) abajo: (21) BTHR = OHR + bitmap top H_coordinate / 2 ; (22) BBHR = 0HR + bitmap_bottom_H_coordinate / 2; (23) FTHR = 0HR + frame top H coordínate / 2 ; y (24) FBHR = OHR + frame_bottom_H_coordinate / 2.
En consecuencia, los valores de coordenada x BTHL BBHL/ FTHL/ y FBHL del subtítulo de vista derecha 3460 se puede determinar para ser (21) BTHR = 0HR + bitmap_top_H_coordinate / 2 = 100 + 10 110; (22) BBHR = OHR + bitmap_bottom_H_coordinate / 2 = 100 + 25 = 125; (23) FTH = 0HR + frame_top_H_coordinate / 2 = 100 + 5 = 105; y (24) FBHR = 0HR + frame_bottom_H_coordinate / 2 = 100 + 30 = 130.
En consecuencia, un dispositivo de visualización en 3D puede reproducir subtítulos en 3D al usar en el plano de subtítulo en 3D 3420 en el cual el subtítulo de vista izquierda 3450 y el subtítulo de vista derecha 3460 se colocan respectivamente en ubicaciones movidas por el valor de desviación en una dirección de eje x en el plano de subtítulo de vista izquierda 3430 y el plano de subtítulo de vista derecha 3440, respectivamente.
El aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar puede establecer adicionalmente un tipo de disparidad de subtítulo como un tipo de subtítulo de cable para dar un efecto 3D a un subtítulo. La Tabla 47 muestra un tipo de subtítulo modificado para agregar el tipo de disparidad de subtítulo por el aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar.
Tabla 47 El tipo de subtítulo modificado de Tabla 47 se obtiene por el aparato que genera caudal multimedia 100 de acuerdo con la tercera modalidad ejemplar que agrega el tipo de disparidad de subtítulo ( ' subtitle_disparity' ) asignado a un valor de campo de tipo de subtítulo 121 a una región reservada en la tabla de tipo de subtítulo básica de Tabla 38.
El aparato que genera el caudal de multimedia 100 de acuerdo con la tercera modalidad ejemplar puede ajustar recientemente un campo de disparidad de subtítulo con base en el tipo de subtítulo modificado de la Tabla 47. La Tabla 48 muestra una sintaxis del campo de ' subtitle_disparity ( ) ' , de acuerdo con una modalidad ejemplar.
Tabla 48 Sintáxis Subtitle_disparity ( ) { disparity } De acuerdo con la Tabla 48, el campo de disparidad de subtítulo incluye un campo de 'disparity' que incluye información de disparidad entre un subtítulo de vista izquierda y un subtítulo de vista derecha.
El aparato receptor de caudal de multimedia 200 de acuerdo con la tercera modalidad ejemplar puede extraer información relacionada con un tiempo de reproducción de un subtítulo desde la tabla de mensaje de subtítulo modificada para considerar el campo de ' subtitle_disparity' recientemente ajustado, y extraer información de disparidad y mapa de bits datos de un subtítulo en 3D a partir del campo de 4 subtitle_disparity' de la Tabla 48. En consecuencia, el reproductor 240 de acuerdo con la tercera modalidad ejemplar puede visualizar el subtítulo de vista derecha 3460 a una ubicación movida por una disparidad desde el subtítulo de vista izquierda 3450, de modo que un dispositivo de visualización en 3D puede reproducir un subtítulo que corresponde a un resultado de la visualización en 3D.
La generación y recepción de un caudal de multimedia para reproducción en 3D de información EPG de acuerdo con la cuarta modalidad ejemplar se describirá ahora en detalle con referencia a las Tablas 49 hasta 59 y FIGS. 35 hasta 40.
La FIG. 35 es un diagrama de bloque de un sistema de comunicación digital 3500 que transmite información EPG.
Una señal de vídeo, una señal de audio, y datos auxiliares relacionados se introducen al sistema de comunicación digital 3500. La señal de vídeo se codifica como datos de vídeo por un codificador de vídeo 3510, y la señal de audio se codifica como datos de audio por un codificador de audio 3520. Los datos de vídeo y los datos de audio se segmentan en paquetes PES de video y paquetes PES de audio por empaquetadores 3530 y 3540, respectivamente.
Un generador PSIP/SI 3550 genera un PAT y un PMT para generar diversos tipos de información PSIP o información SI. En este caso, el sistema de comunicación digital 3500 puede insertar diversos tipos de información EPG en una tabla PSIP o una tabla SI.
Cuando el sistema de comunicación digital 3500 cumple con un método de comunicación ATSC, el generador PSIP/SI 3550 genera la tabla PSIP. Cuando el sistema de comunicación digital 3500 cumple con un método de comunicación DVB, el generador PSIP/SI 3550 genera la tabla SI.
Un MUX 3560 del sistema de comunicación digital 3500 recibe los paquetes PES de video y los paquetes PES de audio de los empaquetadores 3530 y 3540, recibe datos adicionales, y recibe las tablas de Información específica del programa (PSI) y ocho tablas ATSC-PSIP o tablas DVB-SI en formatos de sección del generador PSIP/SI 3550, y los forma en multiplexos, de este modo generando un TS para un programa sencillo.
La FIG. 36 ilustra tablas PSIP que incluyen información EPG de acuerdo con un método de comunicación ATSC.
De acuerdo con el método de comunicación ATSC, las tablas PSIP incluyen información EPG. Las tablas PSIP son una Tabla de Tiempo de Sistema (STT) 3610 en la cual la información acerca de un tiempo actual y una fecha de corriente se almacena, una Tabla de Región clasificación (RRT) 3620 en la cual información acerca de una relación de reloj de transmisión de un programa de transmisión de acuerdo con regiones se almacena, un Tabla Guía Maestra (MGT) 3630 en la cual información PID e información de versión de tablas excepto para la STT 3610 se almacenan, una Tabla de Canal Virtual satélite (VCT) 3640 en la cual la información de canal tal como información de canal de transmisión se almacena, las Tablas de Información de Evento (EITs) 3650, 3652, y 3653 en las cuales la información de evento tal como el título, tiempo de inicio, etc., de un evento tal como un programa de transmisión se almacena, y Tablas de Texto Extendido (ETTs) 3660, 3662, 3664, y 3666 en las cuales información de texto adicional tal como una descripción detallada tal como un antecedente, una sinopsis, caracteres del programa de transmisión se almacena. En otras palabras, las tablas PSIP almacenan diversos tipos de información acerca de un evento tal como un programa de transmisión.
En particular, el VCT satélite 3640 incluye una source_id identificador de canal virtual para cada canal, de modo que la información de evento para cada canal puede buscarse desde las EITs 3650, 3652, y 3653 de acuerdo con los identificadores de canal virtual. Las ETTs 3660, 3662, 3664, y 3666 pueden incluir mensajes de texto para la VCT 3640 o las EITs 3650, 3652, y 3653.
La FIG. 37 ilustra tablas SI que incluyen información EPG de acuerdo con un método de comunicación DVB .
Las tablas SI son una Tabla de Información de Red (NIT) 3710 en la cual la información de tipo de red de una transmisión de corriente tal como la que se almacena de una red terrestre, una red de cable, o una red de satélite, la Tabla de Descripción de Servicio (SDT) 3720 en la cual información de servicio tal como un nombre de servicio, un proveedor del servicio, o similares se almacena, una EIT 3730 en la cual la información relacionada con el evento tal como el título, el tiempo, o similares de un programa de transmisión se almacena, y la Tabla de Tiempo y Datos (TDT) 3740 en la cual información acerca de los datos actuales y un tiempo actual se almacena. En consecuencia, las tablas SI almacenan diversos tipos de información acerca de los eventos tal como un programa de transmisión.
En lo sucesivo, una sintaxis de un VCT en un ATSC PSIP, una sintaxis de un RRT en la presente, una sintaxis de un STT en la presente, una sintaxis de un EIT en la presente, y una sintaxis de un ETT en la presente se muestran en Tablas 49, 50, 51, 52, y 53 enseguida, respectivamente.
Tabla 49 Sintaxis terrestrial_virtual_channel_table_section ( ) { table_Id section_syntax_indicator private_indicator reservado section_length transport_stream_id reservado version_number current_next_indicator section_number last_section_number protocol_version num_channe1s_in_section para (i=0; i< num_channels_in_section; i++) { short_name reservado major_channel_number minor_channel_number modulation_mode carrier_frequency carme1_TSID program_number ETM_locatlon access_controlled oculto reservado hide_guide reservado service_type source_id reservado descriptors- length para (i=0; i<N i++) { descriptor () } reservado additional_ descriptors_length para (j=0; j<N; j++) additional_ _descriptor ( ) } CRC_32 } Tabla 50 Sintaxis rating_region_table_section ( ) { table_Id section_syntax_indicator private_indicator reservado section_length table_id_extension { reservado rating_region } reservado version_number section_number last section number protocol_version rating_region_name_length rating_region_name_text () dimensions_defined para (i=0; i< dimensions_defined; i++) { dimension_name_length dimension_name_text ( ) reservado graduated_scale values_defined para (j=0; j< values_defined; j ++) { abbrev_rating_value_length abbrev_rating_value_text () rating_value_length rating_value_text () } } reservado descriptors_length para (i=0; i<N; i++) { descriptor () } CRC_32 } Tabla 51 Sintaxis system_tirae_table_section ( ) { table_Id section_syntax_indicator private_indicator reservado section_length table_id_extension reservado version_number current_next_indicator section_number 1ast_section_number protocol_version systems_time GPS_ÜTC_offset day1igth_savings para (i=0; i<N i++) { descriptor () } CRC 32 Tabla 52 Sintaxis system_time_table_section ( ) { table_Id section_syntax_indicator private_indicator reservado section_length table_id_extension reservado version_number current_next_indicator section_number 1ast_section_number protocol_version systems_time GPS_UTC_offset dayligth_savings para (i=0; i<N; i++) { descriptor () } CRC 32 Tabla 53 Sintaxis extended_text_table_section ( ) { table_Id section_syntax_indicator private_indicator reservado section_length ETT_table_id_extension reservado version_number current_next_indicator section_number last_section_number protocol_version ETM_id extended_text_message () CRC_32 } La FIG. 38 ilustra una pantalla 3800 en la cual la información EPG se visualiza, y una fuente de cada información .
Una pantalla EPG 3810 que se forma usando las tablas PSIP que cumple con el método de comunicación ATSC se visualiza en la pantalla 3800. La pantalla EPG 3810 se forma al visualizar los datos de texto incluidos en las tablas PSIP en una región predeterminada ajustada por un sistema de TV digital en la pantalla 3800. En este caso, el sistema de TV digital puede formar la pantalla EPG 3810 al visualizar los datos de texto incluidos en las tablas PSIP al usar una imagen y fuentes incluidas en el sistema de TV digital.
En detalle, un nombre de canal 3820, un número de canal 3830, una relación de región 3840, un nombre del programa de transmisión y tiempo de reproducción 3850, un texto de descripción del programa de transmisión 3860 y un tiempo y fecha actual 3870 se visualizan en la pantalla EPG 3810.
El nombre de canal 3820 se determina con base en la información del nombre del canal abreviada en un campo de 1 short_name 1 de la VCT de Tabla 49. El número de canal 3830 se determina con base en información de canal obtenida al combinar el número de canal información principal en un campo 'major_channel_number 1 de la VCT con información de canal menor en un campo 1 minor_channel_number 1 de la VCT.
La relación de región 3840 se determina con base en la información de nombre de región en un campo 1 rating_region_name_text ( ) ' de la RRT de Tabla 50 e información de relación en un campo ' abbrev_rating_value_text ( ) 1 o ' rating_value_text ( ) 1 de la RRT .
El nombre del programa de transmisión and tiempo de reproducción 3850 se determina con base en la información del nombre del programa de transmisión en un campo 1 title_text ( ) ' de la EIT de Tabla 52.
El texto de descripción del programa de transmisión 3860 se determina con base en información de texto de descripción de evento en un campo 1 extended_text_message ( ) ' del ETT de Tabla 53.
El tiempo y fecha actual 3870 se determina con base en la información de tiempo del sistema en un campo 1 system_time ' de la STT de Tabla 51 y la diferencia de tiempo GPS-UTC en un campo ' GPS_UTC_offset 1 de la STT.
La Tabla 54 muestra una estructura de un campo inferior 1 ETM_id ' de la ETT de Tabla 52.
Tabla 54 Con base en el 1 ETM_id 1 de la tabla ETT, en el caso de 'Channel ET _id' , se revisa que en la tabla VCT corresponda una tabla ETT actual. En el caso de 1 event ETM id1, se revisa que en la tabla EIT corresponda la tabla ETT actual. Como una descripción de una canal o evento correspondiente, un mensaje de texto 3860 de un campo ' extended_text_message ( ) ' de la tabla ETT actual se visualiza en la pantalla EPG 3810.
En consecuencia, la pantalla EPG 3810 se forma de las tablas EPG incluidas en una pluralidad de tablas PSIP.
Las operaciones del aparato que genera caudal multimedia 100 de acuerdo con la cuarta modalidad ejemplar y el aparato receptor de caudal de multimedia 200 de acuerdo con la cuarta modalidad ejemplar, para reproducción en 3D de información EPG se describirá ahora con referencia a las Tablas 55 hasta 59 y FIGS . 39 y 40, con base en la información de EPG descrita arriba con referencia a las Tablas 49 hasta 54 y FIGS. 35 hasta 38.
El aparato que genera caudal multimedia 100 de acuerdo con la cuarta modalidad ejemplar puede insertar Información de reproducción en 3D EPG usada para reproducir información EPG 3D en 3D, en una tabla PSIP o una tabla SI. La información de reproducción en 3D EPG de acuerdo con la cuarta modalidad ejemplar se puede usar en varias formas tal como una diferencia de profundidad, una disparidad, un paralaje binocular, una desviación, etc., para servir como información acerca de una profundidad de la información EPG 3D.
El aparato receptor de caudal de multimedia 200 de acuerdo con la cuarta modalidad ejemplar puede reunir secciones desde una TS recibida de acuerdo con el método de comunicación ATSC, extraer información EPG e Información de reproducción en 3D EPG de las secciones, y cambiar información EPG 2D a información EPG 3D al usar la información de reproducción en 3D EPG, de este modo reproduciendo información EPG en 3D.
El aparato que genera caudal multimedia 100 de acuerdo con la cuarta modalidad ejemplar puede modificar o agregar la parte en texto en negrita de una sintaxis de una VCT en una ATSC PSIP en las Tablas 49, una sintaxis de una RRT en Tablas 50, una sintaxis de una STT en Tablas 51, una sintaxis de una EIT en Tablas 52, y una sintaxis de una ETT en Tablas 53 anterior con objeto de incluir información relacionados con reproducción en tercera dimensión de los datos EPG.
El aparato que genera caudal multimedia 100 de acuerdo con la cuarta modalidad ejemplar puede ajustar la información de reproducción en 3D EPG para tener una forma de descriptor. La tabla VCT de la Tabla 49, la tabla RRT de la Tabla 50, la tabla STT de la Tabla 51, la tabla EIT de la Tabla 52, excepto para la tabla ETT de entre las tablas PSIP, incluyen campo de los descriptores ' descriptor ( ) '. El aparato que genera caudal multimedia 100 de acuerdo con la cuarta modalidad ejemplar puede insertar un descriptor EPG 3D que incluye la información de reproducción en 3D EPG de acuerdo con la cuarta modalidad ejemplar en un campo del descriptor de cada una de las tablas PSIP. Aunque la tabla ETT no tiene campos del descriptor, la tabla ETT puede conectarse a la tabla VCT o la tabla EIT por medio del campo ' ETM_id ' , y pueden heredar el descriptor EPG 3D de la tabla VCT o la tabla EIT a la cual la tabla ETT se conecta.
La Tabla 55 muestra una sintaxis de un descriptor EPG 3D de acuerdo con la cuarta modalidad ejemplar.
Tabla 55 Sintaxis 3D_EPG_descripto ( ) { descriptor_tag descriptor_length 3D_EPG_offaet Video_F1at reservado additional_data ( ) } Un campo 1 descriptor_tag 1 incluye una ID de un campo 13D_EPG_descriptor 1. Un campo 1 descriptor_length 1 incluye información acerca de un número total de bytes de datos que siguen al campo 1 descriptor_length 1.
Un campo 13D_EPG_offset 1 incluye información de desviación de información EPG que es para visualizarse en una pantalla EPG por las tablas PSIP que incluye los campos 13D_EPG_descriptor 1.
Un campo 1 Video_Flat ' incluye información de reproducción de vídeo 2D que representa si una imagen de vídeo de un programa de transmisión actual se reproduce en un modo de reproducción 2D conmutado, cuando la información EPG se reproduce en 3D. La Tabla 56 muestra un ejemplo del campo 'Video_Flat' que incluye información de reproducción de vídeo 2D.
Tabla 56 Un campo 'reservado' y un campo ' additional_data ( ) ' son regiones reservadas .
Una sintaxis de la tabla NIT de entre las tablas SI, una sintaxis de la tabla SDS de entre las tablas SI, y una sintaxis de la tabla EIT de entre las tablas SI se muestran en las Tablas 57, 58, y 59, respectivamente.
Tabla 57 Sintaxis Network_information_section( ) { table_Id section_syntax_indicator reserve future use reservado section_length network_id reservado version_number current_next_indicator section_number last_section_number reserved_future_use network_descriptors_length para (i=0; i<N; i++) { descriptor () } reserved_future_u.se transport_Stream_loop_length para (i=0; i<N; i++ { transport_stream_id original_network_id reserved_future_use transport_descriptors_length para (j=0; j<N; j++) { descriptors ( ) } } CRC_32 } Tabla 58 Sintaxis service_description_section ( ) { table_Id section_syntax_indicator reserve_future_use reservado section_length transport_stream_id reservado version_nuraber current_next_indicator section_number last_section_number original_network_id reserved_future_use para (i=0; i<N; i++) { service_id reserved_future_use ElT_schedule_flag EIT_present_following_flag running_st tus free_CA_mode descriptors_loop_length para (j=0; j<N; j++) { descriptor ( ) } } CRC_32 } Tabla 59 Sintaxis event_information_section ( ) { table_Id section_syntax_indicator reserve_future_use reservado section_length service_id reservado version_number current_next_indicator section_number last_section_nuraber transport_stream_id original_network_id segment_last_section_number last_table_id para (i=0; i<N; i++) { event_id start_time d ration running_status free_CA_mode descriptors_loop_length para (j=0; j<N; j++) { descriptor () } } CRC 32 De acuerdo con un método de comunicación DVB, la información de texto EPG está incluida en el campo de los descriptores * descriptor ( ) ' de la tabla NIT, la tabla SDS, y la tabla EIT de entre las tablas SI. La Tabla 55 muestra un ejemplo en el cual el aparato que genera caudal multimedia 100 de acuerdo con la cuarta modalidad ejemplar adicionalmente inserta un descriptor EPG 3D que incluye la información de reproducción en 3D EPG de acuerdo con la cuarta modalidad ejemplar en un campo del descriptor de cada una de las tablas SI. El aparato que genera caudal multimedia 100 de acuerdo con la cuarta modalidad ejemplar puede modificar o agregar la parte en textos en negrita de una sintaxis de la tabla NIT en la Tabla 57, una sintaxis de la tabla SDS en la Tabla 58, y una sintaxis de la tabla EIT en la Tabla 59 anterior con objeto de incluir información relacionada con reproducción en tercera dimensión de los datos EPG.
El aparato receptor de caudal de multimedia 200 de acuerdo con la cuarta modalidad ejemplar puede reunir secciones desde una TS recibida de acuerdo con un método de comunicación DVB, y extraer información EPG e Información de reproducción en 3D EPG de las secciones. Cuando la información EPG es para reproducirse en 3D, el aparato receptor de caudal de multimedia 200 de acuerdo con la cuarta modalidad ejemplar puede buscar un descriptor EPG 3D. Si el descriptor EPG 3D existe, el aparato receptor de caudal de multimedia 200 de acuerdo con la cuarta modalidad ejemplar puede convertir información EPG 2D en información EPG 3D al usar la información de reproducción en 3D EPG y reproducir la información EPG 3D.
La FIG. 39 es un diagrama de bloque de un sistema de decodificación TS 3900 de acuerdo con la cuarta modalidad ejemplar.
Cuando el sistema de decodificación TS 3900 de acuerdo con la cuarta modalidad ejemplar recibe una TS, un transporte DE UX 3910 divide la TS en un caudal de bits de vídeo, un caudal de bits de audio, y ya sea la tabla PSIP o la tabla SI . El caudal de bits de vídeo y el caudal de bits de audio se emiten a un decodificador de programa 3920, y la tabla PSIP o la tabla SI se saca a un procesador de guía de programa 3960.
El caudal de bits de vídeo puede ingresarse a un decodificador de vídeo 3930, y un vídeo restaurado por el decodificador de vídeo 3930 se puede emitir a una unidad de procesamiento de visualización 3940. El caudal de bits de audio puede decodificarse por un decodificador de audio 3950.
La tabla PSIP o la tabla SI de acuerdo con la cuarta modalidad ejemplar incluyen Información de reproducción en 3D EPG. Por ejemplo, la tabla PSIP o la tabla SI de acuerdo con la cuarta modalidad ejemplar pueden incluir el campo ' 3D_EPG_descriptor 1. Las operaciones del procesador de guía de programa 3960 y la unidad de procesamiento de visualización 3940 para reproducir información EPG 3D al usar la tabla PSIP o la tabla SI se describirá ahora en detalle con referencia a la FIG. 40.
La FIG. 40 es un diagrama de bloque de la unidad de procesamiento de visualización 3940 del sistema de decodificación TS 3900 de acuerdo con la cuarta modalidad ej emplar .
La tabla PSIP o la tabla SI ingresadas al procesador de guía de programa 3960 se analizan por un analizador PSIP o SI 4070 de modo que la información EPG, Información de reproducción en 3D EPG, e información de reproducción de vídeo 2D se extraen de la tabla PSIP o la tabla SI. La información de EPG, la información de reproducción en 3D EPG, y la información de reproducción de vídeo 2D se puede emitir a un procesador de visualización 4050 de la unidad de procesamiento de visualización 3940.
El vídeo restaurado se puede dividir en una imagen de vista izquierda y una imagen de vista derecha, que se pueden almacenar en un búfer de vídeo de vista a la izquierda 4010 y un búfer de vídeo de vista a la derecha 4020, respectivamente .
El procesador de visualización 4050 genera información EPG de vista izquierda e información EPG de vista derecha de la información EPG 3D con base en la información de reproducción en 3D EPG. La información EPG de vista izquierda y la información EPG de vista derecha se visualizan en un plano de visualización de vista izquierda 4030 y un plano de visualización de vista derecha 4040, respectivamente. El plano de visualización de vista izquierda 4030 en el cual la información EPG de vista izquierda se ha visualizado es mezclado con la imagen de vista izquierda, y el plano de visualización de vista derecha 4040 en el cual la información EPG de vista derecha se ha visualizado es mezclado con la imagen de vista derecha, y los resultados de las dos operaciones de combinado se reproducen alternativamente al usar un interruptor 4060. De esta manera, una imagen de vídeo en 3D mezclada con información EPG 3D se puede reproducir.
Si la información de reproducción de vídeo 2D se ajusta de modo que una imagen de vídeo se reproduce en un modo de reproducción interrumpida 2D, la imagen de vídeo se debe reproducir en 2D . Por ejemplo, si la imagen de vídeo de misma vista es mezclada con tanto el plano de visualización de vista izquierda 4030 en el cual la información EPG de vista izquierda se ha visualizado como el plano de visualización de vista derecha 4040 en el cual la información EPG de vista derecha se ha visualizado, la información EPG se puede reproducir en 3D, y una imagen de vídeo se puede reproducir en 2D.
Con objeto de generar la información EPG de vista izquierda y la información EPG de vista derecha de la información EPG 3D con base en la información de reproducción en 3D EPG, el procesador de visualización 4050 puede aplicar diferentes desviaciones EPG 3D a información EPG 2D de acuerdo con vistas diferentes. Por ejemplo, si una desviación EPG 3D es una distancia de desplazamiento horizontal de un pixel, el procesador de visualización 4050 puede generar la información EPG de vista izquierda al mover la información EPG 2D por la desviación EPG 3D en una dirección negativa a lo largo del eje x, y la información EPG de vista derecha al mover la información EPG 2D por la desviación EPG 3D en una dirección positiva a lo largo del eje x. Por otro lado, si la desviación EPG 3D es una disparidad entre las vistas izquierda y derecha, el procesador de visualización 4050 puede fijar la información EPG 2D a la información EPG de vista izquierda, y puede generar la información EPG de vista derecha al mover la información EPG 2D por la desviación EPG 3D en una dirección negativa o positiva a lo largo del eje x. un método del procesador de visualización 4050 que genera la información EPG 3D puede variar de acuerdo con un tipo de desviación EPG 3D.
Con objeto de transmitir una estructura de datos EPG 3D que incluye datos EPG e Información de reproducción en 3D EPG requerida para reproducir un EPG en 3D, el aparato que genera caudal multimedia 100 de acuerdo con la cuarta modalidad ejemplar puede insertar la estructura de datos EPG 3D de acuerdo con la cuarta modalidad ejemplar en una tabla ATSC-PSIP o una tabla DVB-SI y transmitir la estructura de datos EPG 3D junto con un caudal de vídeo y un caudal de audio.
El aparato receptor de caudal de multimedia 200 de acuerdo con la cuarta modalidad ejemplar puede recibir y analizar un caudal de multimedia de acuerdo con la cuarta modalidad ejemplar y extraer la estructura de datos EPG 3D de acuerdo con la cuarta modalidad ejemplar de una tabla ATSC-PSIP o tabla DVB-SI extraída. El aparato receptor de caudal de multimedia 200 de acuerdo con la cuarta modalidad ejemplar puede configurar información EPG 3D con base en la Información de reproducción en 3D EPG y transmitir la información EPG 3D en 3D. El aparato receptor de caudal de multimedia 200 de acuerdo con la cuarta modalidad ejemplar puede convenir inconvenientes tal como incomodidad de visualización y similares que el espectador puede sentir, al reproducir exactamente la información EPG 3D con base en la información de reproducción en 3D EPG.
La FIG. 41 es un diagrama de flujo de un método que genera el caudal de multimedia para reproducción en 3D de información de reproducción adicional, de acuerdo con una modalidad ejemplar.
En la operación 4110, un vídeo ES, un audio ES, un caudal de datos adicional, y un caudal de información auxiliar que incluyen datos de video codificados, datos de audio codificados, datos de reproducción adicional, e Información para reproducción en 3D de información de reproducción adicional se generan. La información de reproducción adicional puede incluir datos de subtítulos electrónicos, datos de subtítulo, y datos EPG que están relacionados con un programa.
La información para reproducción en 3D de información de reproducción adicional puede incluir información de desviación usada para ajustar la profundidad de la información de reproducción adicional. La información de desviación representa al menos una de información de paralaje tal como una diferencia de profundidad, una disparidad, y similares entre información de reproducción adicional vista a la izquierda para imágenes vistas a la izquierda e Información de reproducción adicional vista a la derecha para imágenes vistas a la derecha, información coordinada, e Información de profundidad. La información para reproducción en 3D de información de reproducción adicional puede además incluir información de reproducción de vídeo 2D, información que enfatiza la reproducción 3D, información de seguridad de reproducción en 3D, y similares.
En la operación 4120, un paquete PES de video, un paquete PES de audio, y un paquete PES de datos adicional se generan al formar en paquete el vídeo ES, el audio ES, and el caudal de datos adicional, y un paquete de información auxiliar también se genera. La información para reproducción en 3D de información de reproducción adicional y datos de reproducción de adición se puede insertar en un nivel de paquete PES en un caudal .
Los datos de subtítulo electrónico e Información de reproducción en 3D de subtítulo electrónico de acuerdo con la primera modalidad ejemplar se pueden insertar en el vídeo ES, un encabezado del vídeo ES, o una sección. Los datos de subtítulo e Información de reproducción en 3D de subtítulo de acuerdo con la segunda y tercera modalidades ejemplares se pueden insertar en al menos uno de un paquete PES de subtítulo y un encabezado del paquete PES de subtítulo. Los datos EPG e Información de reproducción en 3D EPG de acuerdo con la cuarta modalidad ejemplar se pueden insertar en un campo del descriptor de una tabla ATSC-PSIP o una tabla DVB_SI .
En la operación 4130, una TS se genera al multiplexar el paquete PES de video, el paquete PES de audio, el paquete PES de datos adicionales, y el paquete de información auxiliar. El TS se puede transmitir por medio de un canal predeterminado.
La FIG. 42 es un diagrama de flujo de un método que recibe el caudal de multimedia para reproducción en 3D de información de reproducción adicional, de acuerdo con una modalidad ejemplar.
En la operación 4210, un TS para un caudal de multimedia que incluye datos de vídeo que incluye al menos una de una imagen de vídeo en 2D y una imagen de vídeo en 3D se recibe y multiplexa, y un paquete PES de video, un paquete PES de audio, un paquete PES de datos adicional, y un paquete de información auxiliar se extraen de la TS desmultiplexada .
En la operación 4220, un vídeo ES, un audio ES, un caudal de datos adicional, y un caudal de información auxiliar se extraen del paquete PES de video, el paquete PES de audio, el paquete PES de datos adicionales, y el paquete de información auxiliar. El caudal de información auxiliar puede incluir información relacionada con el programa tal como PSI, información ATSC-PSIP, DVB-SI, etc. El vídeo ES extraído, el audio ES extraído, el caudal de datos adicional extraído, y el caudal de información auxiliar extraído, pueden incluir datos de reproducción adicional e Información para reproducción en 3D de información de reproducción adicional .
En la operación 4230, video, audio, datos adicionales, e Información de reproducción adicional se restauran respectivamente desde el vídeo ES, el audio ES, el caudal de datos adicionales, y la información relacionada con el programa, y la información para reproducción en 3D de la información de reproducción adicional se extrae.
Los datos de subtítulo electrónico e Información de reproducción en 3D de subtitulo electrónico de acuerdo con la primera modalidad ejemplar pueden extraerse desde el vídeo ES, un encabezado del vídeo ES, o una sección. Los datos de subtítulo e Información de reproducción en 3D de subtitulo de acuerdo con la segunda y tercera modalidades ejemplares se puede extraer de al menos una de un paquete PES de subtitulo y un encabezado del paquete PES de subtítulo. Los datos EPG e Información de reproducción en 3D EPG de acuerdo con la cuarta modalidad ejemplar se pueden extraer de un campo del descriptor de una tabla ATSC-PSIP o una tabla DVB_SI.
En la operación 4240, el video, el audio, los datos adicionales, y la información de reproducción adicional se reproducen. La información de reproducción adicional 3D puede construirse con base en la información para reproducción en 3D de la información de reproducción adicional y se pueden reproducir en 3D junto con datos de video .
Ya que la reproducción 3D se realiza después de ajustar la profundidad de la información de reproducción adicional con base en la información para reproducción en 3D de la información de reproducción adicional, o después de asegurar la seguridad de información de desviación de la información de reproducción adicional, los espectadores pueden estar aliviados de inconvenientes causados debido a una profundidad inadecuada entre el vídeo y la información de reproducción adicional.
Las modalidades ejemplares pueden escribirse como programas de computadora y pueden implementarse en computadoras digitales de uso general que ejecutan los programas que usan un medio de grabación legible en computadora. Los ejemplos de medio de grabación legible en computadora incluyen medio de almacenamiento tal como medio de almacenamiento magnético (por ejemplo, ROM, discos flexibles, discos duros, etc.) y medios de grabación ópticos (por ejemplo, CD-ROMs, o DVDs) .
Aunque varios aspectos se han mostrado y descrito particularmente con referencia a modalidades ejemplares de los mismos, se entenderá por aquellos de experiencia ordinaria en la técnica que pueden hacerse varios cambios en forma y detalles en la presente sin salirse del espíritu y alcance de las modalidades ejemplares como se define por las reivindicaciones adjuntas. Las modalidades ejemplares debieran considerarse sólo en el sentido descriptivo y no para propósitos de limitación. Por lo tanto, el alcance de las modalidades ejemplares se define no por la descripción detallada de las modalidades ejemplares sino por las reivindicaciones adjuntas, y todas las diferencias dentro del alcance se construirán como incluidas en las modalidades ej emplares .
Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (15)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones:
1. Un método que recibe el caudal de multimedia para reproducción en tercera dimensión (3D) de información de reproducción adicional, caracterizado porque comprende: extraer un paquete de caudal elemental empaquetado de vídeo (PES) , un paquete PES de audio, un paquete PES de datos adicional, y un paquete de información auxiliar al recibir y desmultiplexar un caudal de transporte (TS) para un caudal de multimedia; extraer un caudal elemental de vídeo (ES) , un audio ES, un caudal de datos adicional, y un caudal de información auxiliar del paquete PES de video, el paquete PES de audio, el paquete PES de datos adicional, y el paquete de información auxiliar, respectivamente, en donde el vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar comprenden información de reproducción adicional, que es para reproducirse junto con datos de vídeo que comprenden al menos una de una imagen de vídeo en 2D y una imagen de vídeo en 3D, e información de profundidad de información de reproducción adicional para reproducción en 3D de la información de reproducción adicional; restaurar los datos de video, datos de audio, datos adicionales, y la información de reproducción adicional y extraer la información de profundidad de información de reproducción adicional para reproducción en 3D de la información de reproducción adicional, desde el vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar; y reproducir la información de reproducción adicional in 3D junto con los datos de video, con base en la información para reproducción en 3D de la información de reproducción adicional , en donde la información de profundidad de información de reproducción adicional para reproducción en 3D de la información de reproducción adicional comprende información acerca de una desviación de información de reproducción adicional 3D para ajustar una profundidad de la información de reproducción adicional 3D durante reproducción en 3D de los datos de video.
2. El método que recibe el caudal de multimedia de conformidad con la reivindicación 1, caracterizado porque la desviación de la información para reproducción adicional representa al menos una seleccionada del grupo de una paralaje que indica una cantidad de desplazamiento de la información de reproducción adicional en 3D, una coordenada de la información de reproducción adicional en 3D, y una profundidad de la información de reproducción adicional en 3D, en donde la reproducción de la información de reproducción adicional en 3D comprende desplazar la información de reproducción adicional en 3D en una dirección positiva o una dirección negativa por la desviación de la información de reproducción adicional en 3D, con base en la desviación de la información de reproducción adicional en 3D y una dirección de desviación de la información de reproducción adicional en 3D de entre la información de profundidad de información de reproducción adicional para reproducción en 3D de la información de reproducción adicional; y la desviación representa la cantidad de desplazamiento de la información de reproducción adicional en 3D expresada en una unidad de una profundidad, una disparidad, o una paralaje binocular de los datos de vídeo.
3. El método que recibe el caudal de multimedia de conformidad con la reivindicación 2, caracterizado porque la reproducción de la información de reproducción adicional en 3D comprende además: cualquiera de uno de (i) desplazar la información de reproducción adicional en 3D en una dirección positiva o en una dirección negativa por la desviación de la información de reproducción adicional en 3D con respecto a un plano cero donde la profundidad tiene su origen, con base en la desviación de la información de reproducción adicional 3D y una dirección de desviación de la información de reproducción adicional 3D; (ii) desplazar la información de reproducción adicional en una dirección positiva o una dirección negativa por la desviación de la información de reproducción adicional 3D con respecto a la profundidad, disparidad, o una paralaje binocular de los datos de vídeo que se reproducen junto con la información de reproducción adicional 3D con base en la desviación de la información de reproducción adicional 3D y la dirección de desviación de la información de reproducción adicional 3D; (iii) desplazar uno desde el grupo de información de reproducción adicional de primera vista e información de reproducción adicional de segunda vista de la información de reproducción adicional 3D en una dirección positiva por la desviación de la información de reproducción adicional y desplazar la información de reproducción adicional de otra vista en una dirección negativa por la desviación de la información de reproducción adicional 3D, con base en la desviación de la información de reproducción adicional 3D y una dirección de desviación de la información de reproducción adicional 3D; y (iv) desplazar uno del grupo de información de reproducción adicional de primera vista e información de reproducción adicional de segunda vista de la información de reproducción adicional 3D por la desviación de la información de reproducción adicional 3D con respecto a una ubicación del otro grupo de información de reproducción adicional de primera vista e información de reproducción adicional de segunda vista de la información de reproducción adicional 3D, con base en la desviación de la información de reproducción adicional 3D y una dirección de desviación de la información de reproducción adicional 3D.
4. El método que recibe el caudal de multimedia de conformidad con la reivindicación 1, caracterizado porque la extracción del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar comprenden extraer datos de subtítulo electrónico a visualizarse con los datos de vídeo en la pantalla de visualización, desde el vídeo ES; y extraer información de profundidad del subtítulo electrónico para reproducción en 3D de los datos de subtítulo electrónico de al menos uno seleccionado del grupo del vídeo ES, un encabezado del vídeo ES, y el caudal de información auxiliar .
5. El método que recibe el caudal de multimedia de conformidad con la reivindicación 1, caracterizado porque la extracción del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar comprende extraer un caudal de datos de subtítulo para datos de subtítulo que es para reproducirse en la pantalla de visualización junto con los datos de video, para servir como el caudal de datos adicional; y extraer información de profundidad del subtítulo para reproducción en 3D de los datos de subtítulo de al menos uno seleccionado del grupo del paquete PES de datos adicional y un encabezado del paquete PES de datos adicional.
6. El método que recibe el caudal de multimedia de conformidad con la reivindicación 5, caracterizado porque, cuando el caudal de multimedia se recibe por un Instituto/Sociedad de Estándares Nacional Americana de Ingenieros de Telecomunicación por Cable (ANSI/SCTE) basado en el sistema de comunicación por cable, la información de profundidad de subtítulo para reproducción en 3D de los datos de subtítulo comprende información de paralaje que representa una cantidad de desplazamiento de al menos una de un mapa de bits y un marco de un subtítulo 3D, e Información de desviación que representa al menos uno seleccionado del grupo de información de profundidad del subtítulo 3D e Información coordinada del subtítulo 3D.
7. El método que recibe el caudal de multimedia de conformidad con la reivindicación 5, caracterizado porque la extracción del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar comprende además extraer información de desviación para cada región de una página actual de los datos de subtítulo de un campo reservado incluido en un segmento de composición de página del caudal de datos, cuando el caudal de multimedia se genera por un sistema de comunicación de Transmisión de Vídeo Digital (DVB) .
8. El método que recibe el caudal de multimedia de conformidad con la reivindicación 1, caracterizado porque la extracción de el vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar comprende extraer información de la guía de programación electrónica (EPG) que es para reproducirse junto con los datos de video, e Información de profundidad de información EPG para reproducción en 3D de la información de EPG, del caudal de información auxiliar.
9. El método que recibe el caudal de multimedia de conformidad con la reivindicación 8, caracterizado porque en la extracción del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar, cuando el caudal de multimedia se recibe por un sistema de comunicación del Comité de Sistemas de Televisión Avanzados (ATSC) , la información para reproducción en 3D de la información de la guía de programación electrónica (EPG) se extrae de un campo del descriptor de una tabla del Protocolo de información específico basado en ATSC (PSIP) .
10. El método que recibe el caudal de multimedia de conformidad con la reivindicación 9, caracterizado porque la extracción del vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar comprende, cuando el caudal de multimedia se genera por sistema de comunicación DVB, extraer la información de profundidad de información EPG para reproducción en 3D de la información de EPG de un campo del descriptor de una tabla de Información Específica (SI) basada en DVB.
11. Un método que genera el caudal de multimedia para reproducción en tercera dimensión (3D) de información de reproducción adicional, caracterizado porque comprende: generar un caudal elemental de vídeo (ES) , un audio ES, un caudal de datos adicional, y un caudal de información auxiliar que respectivamente comprende datos de video, datos de audio relacionados con los datos de video, datos de información de reproducción adicional para reproducirse con los datos de vídeo en una pantalla de visualización, e Información para reproducción en 3D de la información de reproducción adicional en donde los datos de vídeo comprende al menos una de una imagen de vídeo bidimensional (2D) y una imagen de vídeo en 3D; que genera un paquete de caudal elemental empaquetado de vídeo (PES) , un paquete PES de audio, un paquete PES de datos, y un paquete de información auxiliar al formar en paquete respectivamente el vídeo ES, el audio ES, el caudal de datos adicional y el caudal de información auxiliar; y que genera un caudal de transporte (TS) al multiplexar el paquete PES de video, el paquete PES de audio, el paquete PES de datos adicional, y el paquete de información auxiliar, en donde la información para reproducción en 3D de la información de reproducción adicional comprende información acerca de una cantidad de desviación de información de reproducción adicional 3D para ajustar una profundidad de la información de reproducción adicional 3D durante reproducción en 3D de los datos de video.
12. El método que genera el caudal de multimedia de conformidad con la reivindicación 3, caracterizado porque la información de profundidad de información de reproducción adicional para reproducción 3D de la información de reproducción adicional comprende además información acerca de una dirección de desviación de la información de reproducción adicional 3D durante la reproducción 3D de los datos de vídeo .
13. Un aparato receptor de caudal de multimedia para reproducción en tercera dimensión (3D) de información de reproducción adicional, caracterizado porque comprende: un receptor que recibe un caudal de transporte (TS) para un caudal de multimedia que comprende datos de vídeo que comprenden al menos una de una imagen de vídeo bidimensional (2D) y una imagen de vídeo en 3D; un desmultiplexor que desmultiplexa el TS recibido para extraer un paquete de caudal elemental empaquetado de vídeo (PES) , un paquete PES de audio, un paquete PES de datos adicional, y un paquete de información auxiliar y extraer un caudal elemental de vídeo ES, un audio ES, un caudal de datos adicional, y un caudal de información auxiliar del paquete PES de video, el paquete PES de audio, el paquete PES de datos adicional, y el paquete de información auxiliar, en donde el vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar comprenden información de reproducción adicional, que es para reproducirse junto con los datos de vídeo en una pantalla de visualización, e información de profundidad de información de reproducción adicional para reproducción en 3D de la información de reproducción adicional; un decodificador que restaura los datos de video, datos de audio, datos adicionales, y la información de reproducción adicional, y extrae la información para reproducción en 3D de la información de reproducción adicional, desde el vídeo ES, el audio ES, el caudal de datos adicional, y el caudal de información auxiliar; y un reproductor que reproduce la información de reproducción adicional en 3D junto con los datos de video, con base en la información para reproducción en 3D de la información de reproducción adicional .
14. Un aparato que genera caudal multimedia para reproducción en tercera dimensión (3D) de información de reproducción adicional, caracterizado porque comprende: un codificador de programa que genera un caudal elemental de video (ES) , un audio ES, un caudal de datos adicional, y un caudal de información auxiliar que respectivamente comprende datos de video, datos de audio relacionados con los datos de video, datos de información de reproducción adicional que es para reproducirse junto con los datos de vídeo en una pantalla de visualización, e información de profundidad de información de reproducción adicional para reproducción en 3D de la información de reproducción adicional, y que genera un paquete de caudal elemental empaquetado de video (PES) , un paquete PES de audio, un paquete PES de datos, y un paquete de información auxiliar al formar en paquete respectivamente el vídeo ES, el audio ES, el caudal de datos adicional y el caudal de información auxiliar; y un generador TS que genera una TS al multiplexar el paquete PES de video, el paquete PES de audio, el paquete PES de datos adicional, y el paquete de información auxiliar, en donde los datos de vídeo comprenden al menos una de una imagen de vídeo bidimensional (2D) y una imagen de vídeo 3D.
15. Un medio de grabación legible por computadora, caracterizado porque tiene plasmado instrucciones en este, que cuando se ejecutan por una computadora, causan que la computadora realice un método de conformidad con cualquiera de las reivindicaciones 1 hasta 12.
MX2012004849A 2009-11-13 2010-11-15 Metodo y aparato para generar caudal multimedia para ajustar la prodfundidad de la informacion de reproduccion de video adicional tridimencional, y metodo y aparato para recibir caudal multimedia para ajustar la profundidad de informacion de reproduccion de video adicional tridimencional. MX2012004849A (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US26089309P 2009-11-13 2009-11-13
US26663109P 2009-12-04 2009-12-04
KR1020100056756A KR20110053159A (ko) 2009-11-13 2010-06-15 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR1020100056757A KR20110053160A (ko) 2009-11-13 2010-06-15 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
PCT/KR2010/008067 WO2011059290A2 (en) 2009-11-13 2010-11-15 Method and apparatus for generating multimedia stream for adjusitng depth of 3-dimensional additional video reproduction information, and method and apparatus for receiving multimedia stream for adjusitng depth of 3-dimensional additional video reproduction information

Publications (1)

Publication Number Publication Date
MX2012004849A true MX2012004849A (es) 2012-06-12

Family

ID=44362910

Family Applications (2)

Application Number Title Priority Date Filing Date
MX2012004678A MX2012004678A (es) 2009-11-13 2010-11-15 Metodo y aparato para generar caudal multimedia para reproduccion de tercera dimension de informacion de reproduccion de video adicional, y metodo y aparato para recibir caudal multimedia para reproduccion en tercera dimension de informacion de reproduccion de video adicional.
MX2012004849A MX2012004849A (es) 2009-11-13 2010-11-15 Metodo y aparato para generar caudal multimedia para ajustar la prodfundidad de la informacion de reproduccion de video adicional tridimencional, y metodo y aparato para recibir caudal multimedia para ajustar la profundidad de informacion de reproduccion de video adicional tridimencional.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
MX2012004678A MX2012004678A (es) 2009-11-13 2010-11-15 Metodo y aparato para generar caudal multimedia para reproduccion de tercera dimension de informacion de reproduccion de video adicional, y metodo y aparato para recibir caudal multimedia para reproduccion en tercera dimension de informacion de reproduccion de video adicional.

Country Status (8)

Country Link
US (2) US20110119708A1 (es)
EP (2) EP2499828A4 (es)
JP (2) JP5721733B2 (es)
KR (2) KR20110053159A (es)
CN (2) CN102640504A (es)
BR (2) BR112012011171A2 (es)
MX (2) MX2012004678A (es)
WO (2) WO2011059289A2 (es)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102439980B (zh) * 2009-02-12 2014-12-10 Lg电子株式会社 广播接收机及其3d字幕数据处理方法
US8291322B2 (en) * 2009-09-30 2012-10-16 United Video Properties, Inc. Systems and methods for navigating a three-dimensional media guidance application
KR20110057629A (ko) * 2009-11-24 2011-06-01 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
US20120320153A1 (en) * 2010-02-25 2012-12-20 Jesus Barcons-Palau Disparity estimation for stereoscopic subtitling
KR20110111335A (ko) * 2010-04-02 2011-10-11 삼성전자주식회사 2차원 컨텐트와 3차원 컨텐트를 제공하기 위한 디지털 방송 컨텐트 전송 방법 및 그 장치, 디지털 방송 컨텐트 수신 방법 및 그 장치
US9172991B2 (en) 2010-04-30 2015-10-27 Lg Electronics Inc. Apparatus of processing an image and a method of processing thereof
JP2011239169A (ja) * 2010-05-10 2011-11-24 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
CN102959952B (zh) * 2010-06-27 2016-07-06 Lg电子株式会社 数字接收器以及在数字接收器中处理字幕数据的方法
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US10326978B2 (en) 2010-06-30 2019-06-18 Warner Bros. Entertainment Inc. Method and apparatus for generating virtual or augmented reality presentations with 3D audio positioning
US9591374B2 (en) * 2010-06-30 2017-03-07 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion for 3D movies
US8593574B2 (en) * 2010-06-30 2013-11-26 At&T Intellectual Property I, L.P. Apparatus and method for providing dimensional media content based on detected display capability
US8917774B2 (en) 2010-06-30 2014-12-23 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion
US8755432B2 (en) 2010-06-30 2014-06-17 Warner Bros. Entertainment Inc. Method and apparatus for generating 3D audio positioning using dynamically optimized audio 3D space perception cues
US8640182B2 (en) 2010-06-30 2014-01-28 At&T Intellectual Property I, L.P. Method for detecting a viewing apparatus
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9654810B2 (en) 2010-07-23 2017-05-16 Lattice Semiconductor Corporation Mechanism for partial encryption of data streams
US8994716B2 (en) 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
CN102137264B (zh) * 2010-08-25 2013-03-13 华为技术有限公司 一种三维电视中图形文本显示的控制方法及设备、系统
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
JP5483357B2 (ja) * 2010-08-27 2014-05-07 アルパイン株式会社 デジタルテレビ受信装置及びデジタルテレビ受信装置を設けた車載装置
KR101853665B1 (ko) * 2010-09-01 2018-05-02 엘지전자 주식회사 디지털 수신기 및 디지털 수신기에서의 3d 컨텐트 처리 방법
US8947511B2 (en) 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
US20120102527A1 (en) * 2010-10-24 2012-04-26 Hsuan-Ching Liu TV system generating three-dimensional parameters according to a classification of a three-dimensional TV program and method thereof
GB2485140A (en) * 2010-10-26 2012-05-09 Sony Corp A Method and Apparatus For Inserting Object Data into a Stereoscopic Image
JP2012120142A (ja) * 2010-11-08 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
US9172943B2 (en) * 2010-12-07 2015-10-27 At&T Intellectual Property I, L.P. Dynamic modification of video content at a set-top box device
JP4908624B1 (ja) * 2010-12-14 2012-04-04 株式会社東芝 立体映像信号処理装置及び方法
JP2012205285A (ja) * 2011-03-28 2012-10-22 Sony Corp 映像信号処理装置及び映像信号処理方法
US9357200B2 (en) * 2011-04-28 2016-05-31 Panasonic Intelectual Property Management Co., Ltd. Video processing device and video processing method
WO2012160812A1 (ja) * 2011-05-25 2012-11-29 パナソニック株式会社 映像処理装置、送信装置、立体映像視聴システム、映像処理方法、映像処理プログラム及び集積回路
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US9473759B2 (en) * 2011-07-01 2016-10-18 Panasonic Corporation Transmission device, reception and playback device, transmission method, and reception and playback method
US20130169762A1 (en) * 2011-07-15 2013-07-04 Hitachi Consumer Electronics, Ltd. Receiving apparatus, receiving method and transmitting apparatus
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
AU2012291320A1 (en) * 2011-08-04 2013-03-14 Sony Corporation Transmission device, transmission method, and receiving device
US9456194B2 (en) * 2011-08-05 2016-09-27 Panasonic Corporation Reception/reproduction device, transmission device, reception/reproduction method and transmission method
CN103037236A (zh) * 2011-08-22 2013-04-10 联发科技股份有限公司 图像处理方法以及装置
US20130050420A1 (en) * 2011-08-22 2013-02-28 Ding-Yun Chen Method and apparatus for performing image processing according to disparity information
JP2013066075A (ja) * 2011-09-01 2013-04-11 Sony Corp 送信装置、送信方法および受信装置
US8970666B2 (en) * 2011-09-16 2015-03-03 Disney Enterprises, Inc. Low scale production system and method
US20130077690A1 (en) * 2011-09-23 2013-03-28 Qualcomm Incorporated Firmware-Based Multi-Threaded Video Decoding
US8964979B2 (en) * 2011-10-07 2015-02-24 Silicon Image, Inc. Identification and handling of data streams using coded preambles
US10009591B2 (en) * 2011-12-04 2018-06-26 Lg Electronics Inc. Digital broadcasting reception method and apparatus capable of displaying stereoscopic images
US9626798B2 (en) 2011-12-05 2017-04-18 At&T Intellectual Property I, L.P. System and method to digitally replace objects in images or video
US9872008B2 (en) 2012-01-18 2018-01-16 Panasonic Corporation Display device and video transmission device, method, program, and integrated circuit for displaying text or graphics positioned over 3D video at varying depths/degrees
US9071842B2 (en) * 2012-04-19 2015-06-30 Vixs Systems Inc. Detection of video feature based on variance metric
US20130300823A1 (en) * 2012-05-10 2013-11-14 Jiun-Sian Chu Stereo effect enhancement systems and methods
CN103891236B (zh) * 2012-06-30 2017-01-25 华为技术有限公司 恢复会话内容的传输的方法,终端和服务器
CZ308335B6 (cs) * 2012-08-29 2020-05-27 Awe Spol. S R.O. Způsob popisu bodů předmětů předmětového prostoru a zapojení k jeho provádění
TWI475898B (zh) * 2012-09-05 2015-03-01 Acer Inc 多媒體處理系統及音訊信號調整方法
US9413985B2 (en) 2012-09-12 2016-08-09 Lattice Semiconductor Corporation Combining video and audio streams utilizing pixel repetition bandwidth
US11237695B2 (en) * 2012-10-12 2022-02-01 Sling Media L.L.C. EPG menu with a projected 3D image
JP6479473B2 (ja) 2012-11-26 2019-03-06 サターン ライセンシング エルエルシーSaturn Licensing LLC 送信装置、送信方法、受信装置、受信方法および受信表示方法
US10091495B2 (en) 2012-12-24 2018-10-02 Thomson Licensing Apparatus and method for displaying stereoscopic images
KR102143472B1 (ko) * 2013-07-26 2020-08-12 삼성전자주식회사 다시점 영상 처리 장치 및 그 영상 처리 방법
JP2016534657A (ja) * 2013-09-03 2016-11-04 エルジー エレクトロニクス インコーポレイティド 放送信号伝送装置、放送信号受信装置、放送信号伝送方法、及び放送信号受信方法
WO2015167189A1 (ko) * 2014-04-27 2015-11-05 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US9729927B2 (en) * 2014-10-30 2017-08-08 Rovi Guides, Inc. Systems and methods for generating shadows for a media guidance application based on content
WO2016086075A1 (en) * 2014-11-24 2016-06-02 The Nielsen Company (Us), Llc Methods and apparatus to predict time-shifted exposure to media
RU2701172C2 (ru) * 2014-12-19 2019-09-25 Сони Корпорейшн Передающее устройство, способ передачи, приемное устройство и способ приема
US10595099B2 (en) * 2015-04-05 2020-03-17 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal for broadcast service on basis of XML subtitle
US10638179B2 (en) * 2015-08-06 2020-04-28 At&T Intellectual Property I, L.P. Content insertion in streaming media content
CA3005479A1 (en) 2015-11-20 2017-05-26 Genetec Inc. Media streaming
US10230812B1 (en) * 2016-01-29 2019-03-12 Amazon Technologies, Inc. Dynamic allocation of subtitle packaging
TWI728061B (zh) * 2016-03-15 2021-05-21 日商新力股份有限公司 送訊裝置及收訊裝置
CN110114803B (zh) * 2016-12-28 2023-06-27 松下电器(美国)知识产权公司 三维模型分发方法、三维模型接收方法、三维模型分发装置以及三维模型接收装置
JP7035401B2 (ja) * 2017-09-15 2022-03-15 ソニーグループ株式会社 画像処理装置およびファイル生成装置
CN110730277B (zh) * 2018-07-17 2022-04-05 阿里巴巴集团控股有限公司 一种信息编码及获取编码信息的方法和装置
CN110647657B (zh) * 2019-09-19 2022-05-24 四川东方网力科技有限公司 资源结构化数据自动纠错的方法、装置、设备及存储介质
US20230237731A1 (en) * 2022-01-27 2023-07-27 Meta Platforms Technologies, Llc Scalable parallax system for rendering distant avatars, environments, and dynamic objects

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
US7877769B2 (en) * 2000-04-17 2011-01-25 Lg Electronics Inc. Information descriptor and extended information descriptor data structures for digital television signals
US20030169369A1 (en) * 2002-03-05 2003-09-11 Michael Kahn Consumer video captioning system
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
WO2004107763A1 (ja) * 2003-05-28 2004-12-09 Sanyo Electric Co., Ltd. 立体映像表示装置及びプログラム
JP4222875B2 (ja) * 2003-05-28 2009-02-12 三洋電機株式会社 立体映像表示装置及びプログラム
JP4576131B2 (ja) * 2004-02-19 2010-11-04 パイオニア株式会社 立体的二次元画像表示装置及び立体的二次元画像表示方法
KR100585966B1 (ko) * 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
KR100818933B1 (ko) * 2005-12-02 2008-04-04 한국전자통신연구원 디지털방송 기반 3차원 컨텐츠 서비스 제공 방법
WO2007067020A1 (en) * 2005-12-09 2007-06-14 Electronics And Telecommunications Research Institute System and method for transmitting/receiving three dimensional video based on digital broadcasting
KR100747598B1 (ko) * 2005-12-09 2007-08-08 한국전자통신연구원 디지털방송 기반의 3차원 입체영상 송수신 시스템 및 그방법
EP2105032A2 (en) * 2006-10-11 2009-09-30 Koninklijke Philips Electronics N.V. Creating three dimensional graphics data
EP2157803B1 (en) * 2007-03-16 2015-02-25 Thomson Licensing System and method for combining text with three-dimensional content
KR101556123B1 (ko) * 2007-07-25 2015-09-30 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
US8400497B2 (en) * 2007-09-07 2013-03-19 Samsung Electronics Co., Ltd Method and apparatus for generating stereoscopic file
US8898686B2 (en) * 2007-09-27 2014-11-25 Verizon Patent And Licensing Inc. Video on demand sneak peek and “snippet” billing
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
KR101472332B1 (ko) * 2008-04-15 2014-12-15 삼성전자주식회사 3차원 디지털 컨텐츠의 제공 방법, 수신 방법 및 그 장치
AU2009275163B2 (en) * 2008-07-25 2015-11-05 Koninklijke Philips Electronics N.V. 3D display handling of subtitles
EP2351377A1 (en) * 2008-10-21 2011-08-03 Koninklijke Philips Electronics N.V. Method and system for processing an input three dimensional video signal
CN104113749B (zh) * 2009-01-08 2016-10-26 Lg电子株式会社 3d字幕信号发送方法和3d字幕显示方法
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
JP5627860B2 (ja) * 2009-04-27 2014-11-19 三菱電機株式会社 立体映像配信システム、立体映像配信方法、立体映像配信装置、立体映像視聴システム、立体映像視聴方法、立体映像視聴装置
US8291322B2 (en) * 2009-09-30 2012-10-16 United Video Properties, Inc. Systems and methods for navigating a three-dimensional media guidance application

Also Published As

Publication number Publication date
WO2011059290A2 (en) 2011-05-19
CN102640505A (zh) 2012-08-15
JP5721733B2 (ja) 2015-05-20
EP2499828A2 (en) 2012-09-19
EP2499828A4 (en) 2014-03-05
WO2011059289A2 (en) 2011-05-19
CN102640504A (zh) 2012-08-15
EP2471263A4 (en) 2014-03-05
US20110119708A1 (en) 2011-05-19
US20110119709A1 (en) 2011-05-19
WO2011059289A3 (en) 2011-10-13
JP2013511199A (ja) 2013-03-28
BR112012010636A2 (pt) 2017-12-19
JP2013511200A (ja) 2013-03-28
MX2012004678A (es) 2012-06-14
EP2471263A2 (en) 2012-07-04
KR20110053160A (ko) 2011-05-19
KR20110053159A (ko) 2011-05-19
BR112012011171A2 (pt) 2017-09-12
JP5721732B2 (ja) 2015-05-20
WO2011059290A3 (en) 2011-09-15

Similar Documents

Publication Publication Date Title
MX2012004849A (es) Metodo y aparato para generar caudal multimedia para ajustar la prodfundidad de la informacion de reproduccion de video adicional tridimencional, y metodo y aparato para recibir caudal multimedia para ajustar la profundidad de informacion de reproduccion de video adicional tridimencional.
JP5675810B2 (ja) 付加データの三次元再生のための信号処理方法及びその装置
US8289998B2 (en) Method and apparatus for generating three (3)-dimensional image data stream, and method and apparatus for receiving three (3)-dimensional image data stream
JP6034420B2 (ja) 3次元映像の再生のための付加情報が挿入された3次元映像データストリーム生成方法及びその装置、3次元映像の再生のための付加情報が挿入された3次元映像データストリーム受信方法及びその装置
US9699439B2 (en) 3D caption signal transmission method and 3D caption display method
US9313442B2 (en) Method and apparatus for generating a broadcast bit stream for digital broadcasting with captions, and method and apparatus for receiving a broadcast bit stream for digital broadcasting with captions
US20120033039A1 (en) Encoding method, display device, and decoding method
US20140078248A1 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
MX2012008816A (es) Metodo y aparato para generar flujo de datos para proporcionar servicio multimedia tridimensional, y metodo y aparato para recibir el flujo de datos.
MX2013000348A (es) Datos auxiliares en radiodifusion de video de tres dimensiones.
US9357200B2 (en) Video processing device and video processing method
US9270972B2 (en) Method for 3DTV multiplexing and apparatus thereof
US8488950B2 (en) Reproducing apparatus and reproducing method, data structure, recording medium, recording apparatus and recording method, and program

Legal Events

Date Code Title Description
FG Grant or registration