[go: up one dir, main page]

RU2008143242A - Адаптивное воспроизведение телевизионного содержимого, основанное на дополнительных кадрах содержимого - Google Patents

Адаптивное воспроизведение телевизионного содержимого, основанное на дополнительных кадрах содержимого Download PDF

Info

Publication number
RU2008143242A
RU2008143242A RU2008143242/09A RU2008143242A RU2008143242A RU 2008143242 A RU2008143242 A RU 2008143242A RU 2008143242/09 A RU2008143242/09 A RU 2008143242/09A RU 2008143242 A RU2008143242 A RU 2008143242A RU 2008143242 A RU2008143242 A RU 2008143242A
Authority
RU
Russia
Prior art keywords
elements
reproducing
primary
content signal
processor
Prior art date
Application number
RU2008143242/09A
Other languages
English (en)
Other versions
RU2454023C2 (ru
Inventor
Барт Герард Бернард БАРЕНБУРГ (NL)
Барт Герард Бернард БАРЕНБУРГ
Лео Ян ВЕЛТХОВЕН (NL)
Лео Ян ВЕЛТХОВЕН
Марк Йозеф Виллем МЕРТЕНС (NL)
Марк Йозеф Виллем МЕРТЕНС
Михил Адриансзон КЛОМПЕНХАУВЕР (NL)
Михил Адриансзон КЛОМПЕНХАУВЕР
БРЮЭЙН Фредерик Ян ДЕ (NL)
БРЮЭЙН Фредерик Ян ДЕ
Original Assignee
Конинклейке Филипс Электроникс Н.В. (Nl)
Конинклейке Филипс Электроникс Н.В.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Конинклейке Филипс Электроникс Н.В. (Nl), Конинклейке Филипс Электроникс Н.В. filed Critical Конинклейке Филипс Электроникс Н.В. (Nl)
Publication of RU2008143242A publication Critical patent/RU2008143242A/ru
Application granted granted Critical
Publication of RU2454023C2 publication Critical patent/RU2454023C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45455Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Marketing (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

1. Способ воспроизведения содержимого изображения, содержащий этапы, на которых ! анализируют, по меньшей мере, одну из предшествующей и последующей по времени частей сигнала содержимого для определения вторичных элементов, относящихся к первичным элементам текущей части сигнала содержимого; ! воспроизводят текущую часть сигнала содержимого на первичном устройстве воспроизведения; и ! воспроизводят вторичные элементы, относящиеся к первичным элементам текущей части сигнала содержимого на вторичном устройстве воспроизведения одновременно с воспроизведением текущей части сигнала содержимого. ! 2. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с более низким разрешением, чем воспроизводимая текущая часть сигнала содержимого. ! 3. Способ по п.1, в котором этап, на котором анализируют, по меньшей мере, одну из предшествующей и последующей по времени частей сигнала содержимого выполняют с более низким разрешением, чем сигнал содержимого. ! 4. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с изменяющимся разрешением, причем эти изменения определяют на основе, по меньшей мере, одного из: пространственного или временного положения воспроизводимых вторичных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения. ! 5. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с разрешением, определяемым на основании пол�

Claims (66)

1. Способ воспроизведения содержимого изображения, содержащий этапы, на которых
анализируют, по меньшей мере, одну из предшествующей и последующей по времени частей сигнала содержимого для определения вторичных элементов, относящихся к первичным элементам текущей части сигнала содержимого;
воспроизводят текущую часть сигнала содержимого на первичном устройстве воспроизведения; и
воспроизводят вторичные элементы, относящиеся к первичным элементам текущей части сигнала содержимого на вторичном устройстве воспроизведения одновременно с воспроизведением текущей части сигнала содержимого.
2. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с более низким разрешением, чем воспроизводимая текущая часть сигнала содержимого.
3. Способ по п.1, в котором этап, на котором анализируют, по меньшей мере, одну из предшествующей и последующей по времени частей сигнала содержимого выполняют с более низким разрешением, чем сигнал содержимого.
4. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с изменяющимся разрешением, причем эти изменения определяют на основе, по меньшей мере, одного из: пространственного или временного положения воспроизводимых вторичных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
5. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с разрешением, определяемым на основании положения воспроизведенных вторичных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
6. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с разрешением, определяемым на основании положения во времени воспроизведенных вторичных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
7. Способ по п.1, в котором этап, на котором анализируют, содержит этап, на котором вырабатывают вспомогательные данные, относящиеся к определенным вторичным элементам, и связывают вспомогательные данные с сигналом содержимого, и в котором этап, на котором воспроизводят вторичные элементы выполняют с использованием вспомогательных данных.
8. Способ по п.7, в котором вспомогательные данные описаны в структуре стандарта вспомогательных данных, для данных изображения в сигнале содержимого.
9. Способ по п.8, в котором вспомогательные данные содержат одно из: или данные восприятия окружающей среды (AMBX), или информацию дополнительного улучшения (SEI).
10. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы как элементы окружающего освещения.
11. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы как элементы периферийного изображения.
12. Способ по п.1, в котором этап, на котором анализируют, содержит этап, на котором определяют вторичные элементы на основании положения вторичного устройства воспроизведения по отношению к первичному устройству воспроизведения.
13. Способ по п.1, в котором этап, на котором анализируют, содержит этап, на котором определяют вторичные элементы на основании положения каждого из множества вторичных устройств воспроизведения по отношению к первичному устройству воспроизведения.
14. Способ по п.1, в котором этап, на котором анализируют, содержит этап, на котором определяют вторичные элементы на основании вспомогательных данных, связанных с содержимым изображения.
15. Способ по п.14, в котором вспомогательные данные содержат одно из: или данные восприятия окружающей среды (AMBX), или информацию дополнительного улучшения (SEI).
16. Способ по п.14, в котором этап, на котором анализируют, содержит этап, на котором определяют вторичные элементы на основе положения каждого из множества вторичных устройств воспроизведения по отношению к первичному устройству воспроизведения.
17. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы для одного из множества вторичных устройств воспроизведения, расположенного на одной стороне от первичного устройства воспроизведения, и для другого одного из множества вторичных устройств воспроизведения, расположенного на другой стороне от первичного устройства воспроизведения.
18. Способ по п.17, в котором этап, на котором анализируют, содержит этап, на котором анализируют каждую из предшествующей и последующей во времени частей сигнала содержимого для определения вторичных элементов.
19. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, воспроизводят вторичные элементы с более низкой частотой смены кадров, чем воспроизводимый сигнал содержимого.
20. Способ по п.1, в котором вторичные элементы связаны с текущей частью сигнала содержимого посредством, по меньшей мере, одного из: отношений движения и геометрических отношений.
21. Способ по п.20, в котором, по меньшей мере, одна подобласть, показываемая в конкретный момент времени на первичном устройстве воспроизведения, отслеживается средством анализа движений для определения, по меньшей мере, одного элемента, воспроизводимого на вторичном устройстве воспроизведения.
22. Способ по п.21, в котором анализ движений выполняют на основе продолжения движения в содержимом изображения, воспроизведенном для первичного устройства воспроизведения.
23. Способ по п.21, в котором анализ движений является проекцией движений, распознанных из текущей части сигнала содержимого на геометрическое местоположение вторичного устройства воспроизведения.
24. Способ по п.1, в котором геометрическое местоположение включает в себя, по меньшей мере, одно из: положение вторичных устройств воспроизведения по отношению к первичному устройству воспроизведения, и отношение размеров содержимого, воспроизводимого на первичном и вторичных устройствах воспроизведения.
25. Приложение, реализованное на машиночитаемом носителе, выполненном с возможностью воспроизведения содержимого изображения, причем приложение содержит
часть программы, выполненную с возможностью анализа, по меньшей мере, одной из предшествующей и последующей во времени частей сигнала содержимого для определения элементов, которые являются, по меньшей мере, одними из элементов, пространственно или во времени связанных с текущей частью сигнала содержимого;
часть программы, выполненную с возможностью воспроизведения текущей части сигнала содержимого на первичном устройстве воспроизведения; и
часть программы, выполненную с возможностью воспроизведения элементов, связанных с текущей частью сигнала содержимого на вторичном устройстве воспроизведения одновременно с воспроизведением текущей части сигнала содержимого.
26. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов с более низким разрешением, чем воспроизводимая текущая часть сигнала содержимого.
27. Приложение по п.25, в котором часть программы, выполненная с возможностью анализа, по меньшей мере, одной из предшествующей и последующей во времени частей сигнала содержимого, выполнена с возможностью анализа, по меньшей мере, одной из предшествующей и последующей во времени частей с более низким разрешением, чем воспроизводимая текущая часть сигнала содержимого.
28. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов с изменяющимся разрешением, и в котором это изменение определяют на основе положения воспроизведенных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
29. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов с разрешением, определяемом на основании положения воспроизведенных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
30. Приложение по п.29, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов с разрешением, определяемом на основании положения во времени воспроизведенных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
31. Приложение по п.25, в котором часть программы, выполненная с возможностью анализа, выполнена с возможностью выработки вспомогательных данных, относящихся к определенным элементам, и связывания вспомогательных данных с сигналом содержимого, и в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью использования вспомогательных данных.
32. Приложение по п.31, в котором вспомогательные данные содержат одно из: или данные восприятия окружающей среды (AMBX) или информацию дополнительного улучшения (SEI).
33. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов как элементов окружающего освещения.
34. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов как элементов периферийного изображения.
35. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов на основании положения вторичного устройства воспроизведения по отношению к первичному устройству воспроизведения.
36. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов на основании положения каждого из множества вторичных устройств воспроизведения по отношению к первичному устройству воспроизведения.
37. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов на основании вспомогательных данных, связанных с упомянутым содержимым.
38. Приложение по п.37, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов на основании вспомогательных данных, которые являются или данными восприятия окружающей среды (AMBX) или информацией дополнительного улучшения (SEI).
39. Приложение по п.37, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов на основании положения каждого из множества вторичных устройств воспроизведения по отношению к первичному устройству воспроизведения.
40. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов для одного из множества вторичных устройств воспроизведения, расположенного на одной стороне от первичного устройства воспроизведения, и для другого одного из множества вторичных устройств воспроизведения, расположенного на другой стороне от первичного устройства воспроизведения.
41. Приложение по п.40, в котором часть программы, выполненная с возможностью анализа, выполнена с возможностью анализа каждой из предшествующей и последующей во времени частей сигнала содержимого для определения упомянутых элементов.
42. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов с более низкой частотой смены кадров, чем воспроизводимый сигнал содержимого.
43. Процессор (510) для воспроизведения содержимого изображения на каждом из первичного и вторичного устройства воспроизведения, причем процессор (510) содержит соединение, выполненное с возможностью подключения во включенном состоянии к каждому из первичного и вторичного устройств (530, 540) воспроизведения, при этом процессор выполнен с возможностью
анализа, по меньшей мере, одной из предшествующей и последующей по времени частей сигнала содержимого для определения элементов, позиционно относящихся к текущей части сигнала содержимого;
предоставления текущей части сигнала содержимого для воспроизведения на первичном устройстве (530) воспроизведения; и
предоставления упомянутых элементов, позиционно относящихся к текущей части сигнала содержимого, для воспроизведения на вторичном устройстве (540) воспроизведения одновременно с воспроизведением текущей части сигнала содержимого.
44. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов, по меньшей мере, с одним из следующего: с более низким разрешением или с более низкой частотой смены кадров, чем предоставленная текущая часть сигнала содержимого.
45. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью анализа, по меньшей мере, одной из предшествующей и последующей во времени частей с более низким разрешением, чем сигнала содержимого.
46. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов с изменяющимся разрешением, причем это изменение определяется на основании положения предоставленных элементов по отношению к сигналу содержимого, предоставленному для воспроизведения на первичном устройстве (530) воспроизведения.
47. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов с разрешением, определяемым на основании положения воспроизводимых элементов по отношению к сигналу содержимого, предоставленному для воспроизведения на первичном устройстве (530) воспроизведения.
48. Процессор (510) по п.47, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов с разрешением, определяемым на основании положения во времени предоставленных элементов по отношению к сигналу содержимого, предоставленному для воспроизведения на первичном устройстве (530) воспроизведения.
49. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов, используя вспомогательные данные, связанные с сигналом содержимого и относящиеся к определенным элементам.
50. Процессор (510) по п.49, причем вспомогательные данные содержат одно из: или данные восприятия окружающей среды (AMBX), или информацию дополнительного улучшения (SEI).
51. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов, по меньшей мере, одного из следующего: как элементов окружающего освещения или элементов периферийного изображения.
52. Процессор (510) по п.51, содержащий вторичное устройство (540) воспроизведения, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов как элементов окружающего освещения, и при этом вторичное устройство отображения содержит, по меньшей мере, одно из следующего: матрицу светоизлучающих диодов или пико-проектор.
53. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов на основании положения вторичного устройства (540) воспроизведения по отношению к первичному устройству (530) воспроизведения.
54. Процессор (510) по п.43, содержащий вторичное устройство (540) воспроизведения, причем вторичное устройство воспроизведения содержит множество вторичных устройств (540) воспроизведения, и при этом процессор (510) выполнен с возможностью предоставления упомянутых элементов на основании положения каждого из множества вторичных устройств (540) воспроизведения по отношению к первичному устройству (530) воспроизведения.
55. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов на основании вспомогательных данных, являющихся одним из: или данными восприятия окружающей среды (AMBX) или информацией дополнительного улучшения (SEI), связанными с содержимым.
56. Процессор (510) по п.55, содержащий вторичное устройство (540) воспроизведения, причем вторичное устройство воспроизведения содержит множество вторичных устройств (540) воспроизведения, и при этом процессор (510) выполнен с возможностью предоставления упомянутых элементов на основании положения каждого из вторичных устройств (540) воспроизведения по отношению к первичному устройству (530) воспроизведения.
57. Процессор (510) по п.43, содержащий множество вторичных устройств (540) воспроизведения, причем процессор (510) выполнен с возможностью воспроизведения элементов для одного из множества вторичных устройств (540) воспроизведения, расположенного с одной стороны первичного устройства (530) воспроизведения, и для другого одного из множества вторичных устройств (540) воспроизведения, расположенного с другой стороны первичного устройства (530) воспроизведения.
58. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью определения упомянутых элементов на основании, по меньшей мере, одного из: пространственного положения или положения во времени предоставляемых элементов по отношению к сигналу содержимого, предоставленному для воспроизведения на первичном устройстве (530) воспроизведения.
59. Вспомогательный сигнал изображения, встроенный в поток передачи, позволяющий воспроизведение вторичного изображения, относящегося к первичному изображению, причем вспомогательный сигнал изображения предназначен для описания элементов, подходящих для продолжения с первичного устройства воспроизведения на вторичное устройство воспроизведения, при этом вспомогательный сигнал изображения включает в себя профиль позиционирования, позволяющий помещать упомянутый элемент на вторичном устройстве воспроизведения во множестве моментов времени.
60. Вспомогательный сигнал изображения по п.60, причем вспомогательный сигнал изображения идентифицирует упомянутый элемент как один из объектов: или объект переднего плана, или фоновый объект.
61. Вспомогательный сигнал изображения по п.60, в котором профиль позиционирования включают в себя параметрическую функцию положения для пограничных пикселей упомянутого элемента.
62. Вспомогательный сигнал изображения по п.62, в котором параметрическая функция положения включает в себя описание ограничивающего контура для упомянутого элемента.
63. Вспомогательный сигнал изображения по п.60, причем вспомогательный сигнал изображения включает в себя профиль изменений, который идентифицирует, по меньшей мере, один из: цвет или изменение яркости для элемента, когда данный элемент переходит с первичного устройства воспроизведения на вторичное устройство воспроизведения.
64. Вспомогательный сигнал изображения по п.64, в котором профиль изменений включают в себя, по меньшей мере, один из: или цвет элемента или структурные характеристики, предназначенные для обеспечения точной сегментации упомянутого элемента.
65. Вспомогательный сигнал изображения по п.64, в котором профиль изменений включают в себя данные преобразования, предназначенные для обеспечения, по меньшей мере, одного из: пространственно-временного перспективного преобразования, преобразования резкости, или детального изменения упомянутого элемента, когда упомянутый элемент переходит с первичного устройства воспроизведения на вторичное устройство воспроизведения.
66. Способ выработки вспомогательных данных для воспроизведения элементов на вторичном устройстве воспроизведения около первичного устройства воспроизведения, содержащий этапы, на которых
анализируют набор изображений;
извлекают области этих изображений;
определяют информацию последующего положения для этих областей для последующих моментов времени для воспроизведения в пространстве изображения за пределами пространства изображения первичного воспроизведения;
кодируют информацию последующего положения во вспомогательных данных, связанных с упомянутым набором изображений.
RU2008143242/07A 2006-03-31 2007-03-29 Адаптивное воспроизведение телевизионного содержимого, основанное на дополнительных кадрах содержимого RU2454023C2 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US78847606P 2006-03-31 2006-03-31
US60/788,476 2006-03-31

Publications (2)

Publication Number Publication Date
RU2008143242A true RU2008143242A (ru) 2010-05-10
RU2454023C2 RU2454023C2 (ru) 2012-06-20

Family

ID=38426552

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2008143242/07A RU2454023C2 (ru) 2006-03-31 2007-03-29 Адаптивное воспроизведение телевизионного содержимого, основанное на дополнительных кадрах содержимого

Country Status (10)

Country Link
US (1) US8599313B2 (ru)
EP (1) EP2005732A1 (ru)
JP (1) JP5107338B2 (ru)
KR (1) KR101465459B1 (ru)
CN (1) CN101438579B (ru)
BR (1) BRPI0709260A2 (ru)
MX (1) MX2008012473A (ru)
RU (1) RU2454023C2 (ru)
TW (1) TW200746818A (ru)
WO (1) WO2007113754A1 (ru)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101569241A (zh) * 2006-12-21 2009-10-28 皇家飞利浦电子股份有限公司 显示光辐射的系统、方法、计算机可读介质和用户界面
CN101587586B (zh) * 2008-05-20 2013-07-24 株式会社理光 一种图像处理装置及图像处理方法
JP4813517B2 (ja) * 2008-05-29 2011-11-09 オリンパス株式会社 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
DE102008026517A1 (de) * 2008-06-03 2009-12-10 Zumtobel Lighting Gmbh Beleuchtungs- und Anzeigevorrichtung
TWI395512B (zh) * 2008-08-08 2013-05-01 Remote controller for light emitting diode module
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
EP2371125A1 (en) * 2008-11-28 2011-10-05 Koninklijke Philips Electronics N.V. A display system, control unit, method, and computer program product for providing ambient light with 3d sensation
JP5622372B2 (ja) * 2009-09-10 2014-11-12 任天堂株式会社 画像表示システムおよび照明装置
JP2011086437A (ja) * 2009-10-14 2011-04-28 Nintendo Co Ltd 画像表示システム、照明システム、情報処理装置、および制御プログラム
US9220158B2 (en) * 2009-12-17 2015-12-22 Koninklijke Philips N.V. Ambience cinema lighting system
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
EP2543181B1 (en) 2010-03-03 2015-10-21 Koninklijke Philips N.V. Apparatuses and methods for defining color regimes
US9754629B2 (en) 2010-03-03 2017-09-05 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
US8982151B2 (en) * 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
TWI533286B (zh) * 2010-09-06 2016-05-11 元太科技工業股份有限公司 平面顯示裝置
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US20120223885A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
KR20120134412A (ko) * 2011-06-02 2012-12-12 삼성전자주식회사 디스플레이 장치, 디스플레이 시스템 및 그 영상 표시 방법
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
CN103247273B (zh) * 2012-02-08 2018-03-27 三星电子株式会社 显示装置
US8804321B2 (en) 2012-05-25 2014-08-12 Steelcase, Inc. Work and videoconference assembly
KR101305249B1 (ko) * 2012-07-12 2013-09-06 씨제이씨지브이 주식회사 다면 상영 시스템
EP2731055A1 (en) 2012-10-04 2014-05-14 Thomson Licensing Method and apparatus for ambient lighting color determination
US9930082B2 (en) 2012-11-20 2018-03-27 Nvidia Corporation Method and system for network driven automatic adaptive rendering impedance
US10616086B2 (en) * 2012-12-27 2020-04-07 Navidia Corporation Network adaptive latency reduction through frame rate control
EP3783883B1 (en) * 2013-02-21 2023-10-04 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
US10055866B2 (en) 2013-02-21 2018-08-21 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
TWM459428U (zh) * 2013-03-04 2013-08-11 Gunitech Corp 環境控制裝置及影/音播放裝置
US9819604B2 (en) 2013-07-31 2017-11-14 Nvidia Corporation Real time network adaptive low latency transport stream muxing of audio/video streams for miracast
KR101829773B1 (ko) 2014-01-29 2018-03-29 인텔 코포레이션 2차 디스플레이 메커니즘
JP5965434B2 (ja) * 2014-06-17 2016-08-03 任天堂株式会社 画像表示システム、照明システム、情報処理装置、および制御プログラム
US9389703B1 (en) * 2014-06-23 2016-07-12 Amazon Technologies, Inc. Virtual screen bezel
US9373054B2 (en) 2014-09-02 2016-06-21 Kodak Alaris Inc. Method for selecting frames from video sequences based on incremental improvement
DE102014016643A1 (de) 2014-11-11 2016-05-12 Novomatic Ag Anzeigevorrichtung und Verfahren zum Betreiben einer solchen Anzeigevorrichtung
KR102281162B1 (ko) 2014-11-20 2021-07-23 삼성전자주식회사 영상 처리 장치 및 방법
US9544419B2 (en) 2014-12-24 2017-01-10 Intel Corporation Methods and systems for configuring a mobile device based on an orientation-based usage context
US9826277B2 (en) * 2015-01-23 2017-11-21 TCL Research America Inc. Method and system for collaborative and scalable information presentation
US10089532B2 (en) 2015-02-23 2018-10-02 Kodak Alaris Inc. Method for output creation based on video content characteristics
JP6680294B2 (ja) 2015-03-31 2020-04-15 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び画像表示システム
KR20180018522A (ko) * 2015-06-12 2018-02-21 소니 주식회사 정보 처리 장치 및 정보 처리 방법
EP3139369A1 (en) * 2015-09-02 2017-03-08 TP Vision Holding B.V. Printed circuit board for controlling projectors and electronic device
CN105657494B (zh) * 2015-12-31 2018-12-25 北京小鸟看看科技有限公司 一种虚拟影院及其实现方法
EP3446551B1 (en) * 2016-04-22 2019-08-14 Signify Holding B.V. Controlling a lighting system
SG11201810918PA (en) * 2016-06-14 2019-01-30 Razer Asia Pacific Pte Ltd Image processing devices, methods for controlling an image processing device, and computer-readable media
KR102267397B1 (ko) * 2016-10-25 2021-06-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
JP2018105659A (ja) * 2016-12-23 2018-07-05 国立研究開発法人理化学研究所 識別装置、識別システム、学習装置、学習方法、識別プログラム、学習プログラム、記録媒体、及び集積回路
US10080051B1 (en) * 2017-10-25 2018-09-18 TCL Research America Inc. Method and system for immersive information presentation
EP4283528A3 (en) 2018-01-04 2024-02-14 Samsung Electronics Co., Ltd. Video playback device and control method thereof
KR102594652B1 (ko) 2018-12-07 2023-10-27 삼성전자 주식회사 전자 장치의 시각 효과 제공 방법 및 이를 사용하는 전자 장치
US11935500B2 (en) 2018-12-13 2024-03-19 Hewlett-Packard Development Company, L.P. Customizable onscreen display reference points
KR102429408B1 (ko) 2019-09-26 2022-08-05 구글 엘엘씨 레인지 익스텐더 장치
CN110730338A (zh) * 2019-10-23 2020-01-24 国网黑龙江省电力有限公司信息通信公司 一种电视背景墙投影装置
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
FR3111724B1 (fr) * 2020-06-18 2022-11-04 Cgr Cinemas Méthodes pour la production d’effets d’immersion visuelle pour un contenu audiovisuel
US12086301B2 (en) 2022-06-01 2024-09-10 Sphere Entertainment Group, Llc System for multi-user collaboration within a virtual reality environment
EP4654591A1 (en) 2023-02-27 2025-11-26 Samsung Electronics Co., Ltd. Electronic device and method for displaying different video corresponding to video displayed on external electronic device, and non-transitory computer-readable storage medium

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999053728A1 (en) * 1998-04-13 1999-10-21 Matsushita Electric Industrial Co., Ltd. Illumination control method and illuminator
JP4176233B2 (ja) * 1998-04-13 2008-11-05 松下電器産業株式会社 照明制御方法及び照明装置
JP2001118689A (ja) * 1999-10-15 2001-04-27 Matsushita Electric Ind Co Ltd 照明制御方法
US6872553B2 (en) * 1999-10-20 2005-03-29 Degussa Ag Nucleotide sequences which code for the pck gene
JP4399087B2 (ja) * 2000-05-31 2010-01-13 パナソニック株式会社 照明システム、映像表示デバイスおよび照明制御方法
WO2003017649A1 (en) 2001-08-20 2003-02-27 Koninklijke Philips Electronics N.V. Image size extension
US6940558B2 (en) * 2001-12-06 2005-09-06 Koninklijke Philips Electronics N.V. Streaming content associated with a portion of a TV screen to a companion device
GB0211898D0 (en) * 2002-05-23 2002-07-03 Koninkl Philips Electronics Nv Controlling ambient light
CN1666506B (zh) * 2002-07-04 2011-06-22 皇家飞利浦电子股份有限公司 用于控制环境光的方法和系统以及照明单元
JP2005531908A (ja) * 2002-07-04 2005-10-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 周辺光を制御する方法及びシステムと、照明ユニット
US20060109283A1 (en) * 2003-02-04 2006-05-25 Shipman Samuel E Temporal-context-based video browsing interface for PVR-enabled television systems
JP2005020512A (ja) * 2003-06-27 2005-01-20 Pioneer Electronic Corp 映像信号処理装置
JP2005057410A (ja) * 2003-08-01 2005-03-03 Alpine Electronics Inc 映像出力装置および方法
US20050036067A1 (en) * 2003-08-05 2005-02-17 Ryal Kim Annon Variable perspective view of video images
US20070258015A1 (en) * 2004-06-30 2007-11-08 Koninklijke Philips Electronics, N.V. Passive diffuser frame system for ambient lighting using a video display unit as light source
JP4727342B2 (ja) * 2004-09-15 2011-07-20 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体
JP4587871B2 (ja) * 2005-05-11 2010-11-24 シャープ株式会社 コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体

Also Published As

Publication number Publication date
JP2009542039A (ja) 2009-11-26
MX2008012473A (es) 2008-10-10
KR20080111515A (ko) 2008-12-23
KR101465459B1 (ko) 2014-12-10
EP2005732A1 (en) 2008-12-24
US20100201878A1 (en) 2010-08-12
CN101438579B (zh) 2012-05-30
TW200746818A (en) 2007-12-16
JP5107338B2 (ja) 2012-12-26
BRPI0709260A2 (pt) 2011-06-28
WO2007113754A1 (en) 2007-10-11
CN101438579A (zh) 2009-05-20
RU2454023C2 (ru) 2012-06-20
US8599313B2 (en) 2013-12-03

Similar Documents

Publication Publication Date Title
RU2008143242A (ru) Адаптивное воспроизведение телевизионного содержимого, основанное на дополнительных кадрах содержимого
RU2609760C2 (ru) Устройства и способы усовершенствованного кодирования изображений
CN111491148B (zh) 显示方法
JP5909542B2 (ja) 画像捕獲表示システム、ビデオ画像内の関心領域を用いてシステム同期型輝度制御を実行する方法、およびメタデータの使用
CN111447425B (zh) 显示方法和显示装置
US8421819B2 (en) Pillarboxing correction
KR20090006139A (ko) 결합된 비디오 및 오디오 기반 주변 조명 제어
CN108462878B (zh) 基于关键帧和指示符运动模型的教学视频压缩算法
US20200302659A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2010511986A (ja) アンビエント照明
US20130301918A1 (en) System, platform, application and method for automated video foreground and/or background replacement
CN1822651A (zh) 一种动态生成字幕图像数据及字幕数据流的方法
US10290110B2 (en) Video overlay modification for enhanced readability
US20160019705A1 (en) Image processing apparatus, image processing method, and storage medium
KR20150040559A (ko) 관심영역 기반의 화질개선 장치와 그를 위한 컴퓨터로 읽을 수 있는 기록 매체
KR20070122409A (ko) 비디오 콘텐츠 검출기
CN105208286A (zh) 一种模拟慢速快门的拍摄方法及装置
US20030063191A1 (en) Method and system for detecting and selecting foreground objects
CA3189464A1 (en) Enhancing image data for different types of displays
KR101373631B1 (ko) 실시간 크로마키 합성 시스템 및 방법
CN106303366B (zh) 一种基于区域分类编码的视频编码的方法及装置
WO2019111921A1 (ja) 撮像装置、電子機器および彩度抑制プログラム
JP7703782B2 (ja) 画像及びビデオ・データのコンテキスト依存カラー・マッピング
JP2020195137A (ja) 表示方法および表示装置
CN113301427A (zh) 数据处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PC41 Official registration of the transfer of exclusive right

Effective date: 20150218

MM4A The patent is invalid due to non-payment of fees

Effective date: 20190330