ES2972485T3 - Sistemas de visualización en un entorno de entretenimiento - Google Patents
Sistemas de visualización en un entorno de entretenimiento Download PDFInfo
- Publication number
- ES2972485T3 ES2972485T3 ES19779719T ES19779719T ES2972485T3 ES 2972485 T3 ES2972485 T3 ES 2972485T3 ES 19779719 T ES19779719 T ES 19779719T ES 19779719 T ES19779719 T ES 19779719T ES 2972485 T3 ES2972485 T3 ES 2972485T3
- Authority
- ES
- Spain
- Prior art keywords
- display
- images
- user
- features
- encoded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B1/00—Optical elements characterised by the material of which they are made; Optical coatings for optical elements
- G02B1/10—Optical coatings produced by application to, or surface treatment of, optical elements
- G02B1/11—Anti-reflection coatings
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
- G02B30/24—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
- G02B30/25—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
-
- G—PHYSICS
- G02—OPTICS
- G02F—OPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
- G02F1/00—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
- G02F1/01—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour
- G02F1/13—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour based on liquid crystals, e.g. single liquid crystal display cells
- G02F1/137—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour based on liquid crystals, e.g. single liquid crystal display cells characterised by the electro-optical or magneto-optical effect, e.g. field-induced phase transition, orientation effect, guest-host interaction or dynamic scattering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- Nonlinear Science (AREA)
- Chemical & Material Sciences (AREA)
- Crystallography & Structural Chemistry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Un sistema 10 de visualización de realidad aumentada (AR) y tridimensional (3-D) para proporcionar una experiencia AR y 3-D a un usuario incluye un dispositivo de visualización portátil 16 que tiene un conjunto de visualización 18 a través del cual el usuario es capaz de ver una entorno del mundo real. El conjunto de visualización 18 incluye una primera pantalla 30 configurada para mostrar una o más características AR y un componente de visualización tridimensional t140 que permite al usuario percibir una o más imágenes bidimensionales (2-D) codificadas como una o más imágenes descifradas 3. -D características. El sistema 10 de visualización AR y 3D también incluye un sistema 42 de visualización 3D fijo que tiene una segunda pantalla 32 configurada para mostrar una o más imágenes 2D codificadas. El sistema de visualización tridimensional fijo 42 está dispuesto dentro del entorno del mundo real. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Sistemas de visualización en un entorno de entretenimiento
Antecedentes
La materia descrita en la presente memoria se refiere a entornos de entretenimiento y, más específicamente, con proporcionar experiencias de realidad aumentada (AR) y tridimensionales (3-D) en atracciones de parques de atracciones.
Los parques de atracciones y/o parques temáticos pueden incluir diversas atracciones de entretenimiento, restaurantes y atracciones útiles para proporcionar diversión a los visitantes (p. ej., familias y/o personas de todas las edades) del parque de atracciones. Las áreas del parque de atracciones pueden tener diferentes temáticas que estén, específicamente, dirigidas a determinados públicos. Por ejemplo, ciertas áreas pueden incluir temáticas que, tradicionalmente, son de interés para los niños, mientras que otras áreas pueden incluir temáticas que, tradicionalmente, son de interés para públicos más maduros. Generalmente, las ubicaciones con temáticas asociadas con dicho parque de atracciones pueden denominarse atracción o atracción temática.
Las atracciones temáticas pueden establecerse utilizando equipos fijos, diseños de edificios, accesorios, decoraciones, etc., la mayoría de los cuales pueden, generalmente, referirse a una temática determinada. En situaciones donde se va a establecer una temática diferente en la misma ubicación, las características asociadas con una temática más antigua pueden reemplazarse con características asociadas con una temática más nueva. Dependiendo de la complejidad de la temática de la ubicación, esto puede resultar muy difícil y llevar mucho tiempo, porque las decoraciones, muebles, equipos, accesorios, etc., pueden retirarse o reemplazarse. De hecho, para determinados tipos de atracciones, las temáticas relativamente complejas se han vuelto más comunes para brindar a los visitantes experiencias más inmersivas. El documento US 2011/213664 describe un ocular interactivo montado en la cabeza que incluye un conjunto óptico a través del cual el usuario ve el entorno circundante y el contenido mostrado. El contenido mostrado incluye un anuncio local, en donde la ubicación del ocular es determinada por un sensor de ubicación integrado y en donde el anuncio local tiene relevancia para la ubicación del ocular. El ocular montado en la cabeza también puede incluir un dispositivo de audio y el contenido mostrado puede comprender anuncios locales y audio.
Ahora se reconoce que es deseable incluir atracciones donde sea posible cambiar las temáticas de la atracción, o incluir determinadas características temáticas en dichas atracciones de una manera flexible y eficiente, en relación con las técnicas tradicionales. También se reconoce ahora que puede ser deseable mejorar la experiencia inmersiva de los visitantes para dichas atracciones, y proporcionar una experiencia más personalizada y adaptadas para los visitantes.
Compendio
La invención proporciona un sistema de visualización de realidad aumentada (AR) y tridimensional (3-D) para proporcionar una experiencia de AR y 3-D a un usuario según la reivindicación 1.
Breve descripción de los dibujos
Estas y otras características, aspectos, y ventajas de la presente descripción se entenderán mejor cuando se lea la siguiente descripción detallada con referencia a los dibujos adjuntos, en los que caracteres similares representan partes similares en todos los dibujos, en donde:
La FIG. 1 es una ilustración de una realización de un dispositivo de visualización portátil que puede utilizarse en un sistema de visualización de realidad aumentada (AR) y tridimensional (3-D), de acuerdo con las presentes realizaciones;
La FIG. 2 es una vista esquemática, parcialmente despiezada, de una realización del dispositivo de visualización portátil dentro del sistema de visualización AR y 3-D de la FIG. 1, de acuerdo con las presentes realizaciones;
La FIG. 3 es una vista esquemática, parcialmente despiezada, de otra realización del dispositivo de visualización portátil dentro del sistema de visualización AR y 3-D de la FIG. 1, de acuerdo con las presentes realizaciones;
La FIG. 4 es una ilustración de un sistema de visualización 3-D y del dispositivo de visualización portátil del sistema de visualización AR y 3-D de la FIG. 1, que puede utilizarse desde un vehículo de transporte de pasajeros, de acuerdo con las presentes realizaciones;
La FIG. 5 es un diagrama de flujo que ilustra una realización de un proceso de funcionamiento del sistema de visualización AR y 3-D de la FIG. 1, de acuerdo con las presentes realizaciones; y
La FIG. 6 es un diagrama de flujo que ilustra una realización de un proceso de funcionamiento del sistema de visualización AR y 3-D de la FIG. 1 con un componente de visualización 3-D activo, de acuerdo con las presentes realizaciones.
Descripción detallada
A continuación se describirán una o más realizaciones específicas de la presente descripción. En un esfuerzo por proporcionar una descripción concisa de estas realizaciones, es posible que no se describan en la especificación todas las características de una implementación real. Debe apreciarse que en el desarrollo de cualquier implementación real, como en cualquier proyecto de ingeniería o diseño, deben tomarse numerosas decisiones específicas de la implementación para lograr los objetivos específicos de los desarrolladores, como el cumplimiento de las restricciones relacionadas con el sistema y relacionadas con el negocio, que pueden variar de una implementación a otra. Además, debe apreciarse que dicho esfuerzo de desarrollo podría ser complejo y llevar mucho tiempo, pero que, sin embargo, sería una tarea rutinaria de diseño, fabricación y manufactura para aquellos con conocimientos ordinarios que se benefician de esta descripción.
Las presentes realizaciones se refieren a sistemas para proporcionar una experiencia de realidad aumentada (AR) y tridimensional (3-D) como parte de una atracción asociada a un parque de atracciones o parque temático. Con la integración de tecnologías portátiles para la cabeza en ciertos vehículos de paseo dentro de los entornos del parque temático, resulta difícil o poco realista para los usuarios utilizar, simultáneamente, gafas 3-D tradicionales para percibir el contenido 3-D mostrado o proyectado dentro de los entornos del parque temático. Sin embargo, el contenido 3-D proporcionado por los sistemas de visualización 3-D, incluidos proyectores o dispositivos electrónicos de visualización, aún puede ser útil para contribuir a la experiencia del usuario dentro de los entornos del parque temático. Como tal, las realizaciones de un sistema de visualización AR y 3-D descritas en la presente memoria integran tecnologías de AR reflectantes con tecnologías de visualización 3-D dentro de un solo auricular para permitir a los usuarios percibir tanto el contenido AR para el ojo cercano, presentado por el auricular, como el contenido 3-D para el ojo lejano, presentado por un sistema de visualización 3-D. Como se utiliza en la presente memoria, AR incluye cualquier técnica adecuada para mostrar características virtuales que aumentan o modifican la visión de un usuario de un entorno circundante. Por ejemplo, las características de AR pueden proporcionarse proyectando imágenes ligeramente desplazadas en una pantalla portátil frente al usuario (o en los ojos del usuario), de manera que el usuario combine, ópticamente, las dos imágenes desplazadas en las características de AR. Además, la referencia a 3-D incluye cualquier técnica estereoscópica adecuada para proporcionar un efecto 3-D estereoscópico que permita a un usuario percibir profundidad a partir de imágenes bidimensionales (2-D), ligeramente desplazadas, o imágenes en 2-D codificadas, que son presentadas a cada ojo del usuario. Las características 3-D se visualizan desde un dispositivo electrónico de visualización o una pantalla de proyección a través de revestimientos o elementos filtrantes de la luz que permiten que cada ojo del usuario reciba dos imágenes diferentes de un mismo objeto, que se combinan, ópticamente, en una apariencia 3-D discernible o descifrada.
Por ejemplo, las presentes realizaciones pueden incluir dispositivos de visualización como dispositivos de visualización portátiles (p. ej., gafas, pantallas, anteojos electrónicos) a través de los cuales los usuarios pueden ver dispositivos de visualización fijos (p. ej., pantallas electrónicas de visualización, pantallas de proyección), que funcionan en conjunto para proporcionar una experiencia de AR y 3-D a un usuario. El dispositivo de visualización portátil incluye componentes en el mismo con propiedades ópticas que permiten a los usuarios percibir tanto las características de AR presentadas en una pantalla portátil del dispositivo de visualización portátil como las características 3-D presentadas en una pantalla separada de los dispositivos de visualización fijos, que son parte de un sistema de visualización 3-D. El sistema de visualización 3-D puede incluir un proyector que presenta contenido codificado en la pantalla separada para permitir al usuario decodificar o procesar, visualmente, el contenido codificado como tridimensional a través de los componentes de visualización 3-D del dispositivo de visualización portátil. Como se discute en la presente memoria, el dispositivo de visualización portátil puede emplear cualquier tecnología 3-D adecuada para permitir al usuario percibir las características 3-D, incluyendo una lente, revestimiento, o filtro 3-D pasivo (p. ej., anaglifo, polarización, etc.) o una lente, revestimiento, o filtro 3-D activo (p. ej., sistema de obturación activa). El sistema de visualización 3-D y el dispositivo de visualización portátil pueden configurarse para funcionar de forma independiente, o pueden estar acoplados, de forma operativa, a través de un controlador (p. ej., controlador maestro, sistema de generación de gráficos por ordenador, uno o más procesadores), que puede sincronizar y/o coordinar las visualizaciones mostradas por el sistema de visualización 3-D y el dispositivo de visualización portátil.
Permitiendo que las características 3-D se perciban en un entorno dispuesto más allá del dispositivo de visualización portátil, y en combinación con las características de AR, el dispositivo de visualización portátil permite al usuario percibir contenido en múltiples planos focales independientes. En algunos casos, el contenido multidimensional del dispositivo de visualización portátil actualmente descrito proporciona una experiencia o temática más inmersiva que un único plano focal proporcionado por los dispositivos de visualización portátiles tradicionales. Como tal, la provisión de múltiples planos focales, generalmente, proporciona una experiencia de entretenimiento personalizada más realista a los usuarios del sistema de visualización AR y 3-D. Además, aunque se discuten en la presente memoria con referencia al empleo del dispositivo de visualización portátil dentro de un parque temático, las técnicas descritas pueden aplicarse a cualquier dispositivo AR adecuado para cualquier aplicación adecuada. Por ejemplo, el sistema de visualización AR y 3-D que incluye el dispositivo de visualización portátil puede utilizarse para proporcionar experiencias 3-D y AR a los usuarios en casa (p. ej., jugando un videojuego), en un lugar de trabajo (p. ej., construyendo modelos, viendo presentaciones inmersivas), etc.
Volviendo ahora a los dibujos, la FIG. 1 representa una realización de un sistema 10 de visualización AR y 3-D que permite a un usuario 14 experimentar (p. ej., ver, interactuar con) imágenes o características de AR y 3-D superpuestas en un entorno del mundo real. De acuerdo con ciertas realizaciones, el usuario 14 puede comprar o recibir de otro modo un dispositivo 16 de visualización portátil con un conjunto 18 de visualización, que puede, en ciertas realizaciones, incluir anteojos electrónicos (p. ej., anteojos, gafas de AR/realidad virtual). El dispositivo 16 de visualización portátil puede incluir una parte portátil 20, ilustrada en la presente realización como una diadema, para alojar, al menos, una parte del conjunto 18 de visualización y retener el conjunto 18 de visualización en posición frente a los ojos del usuario 14.
El dispositivo 16 de visualización portátil puede utilizarse en combinación con otras características del sistema 10 de visualización AR y 3-D para crear la percepción de un entorno surrealista 24 para el usuario 14. A través del dispositivo 16 de visualización portátil, el usuario 14 puede ver imágenes 26 del mundo real, cada una de las cuales, generalmente, representa características del entorno físico o del mundo real que el usuario 14 vería en tiempo real, incluso cuando no usa el dispositivo 16 de visualización portátil. El término "tiempo real" indica que las imágenes se obtienen y/o proporcionan al usuario 14 en un período de tiempo dentro o sustancialmente cercano (p. ej., ± 0,01 segundo, ± 0,1 segundo, ± 1 segundo) al tiempo de la observación real por parte del usuario 14. Como se discute en la presente memoria, el conjunto 18 de visualización del dispositivo 16 de visualización portátil controla, parcialmente, la vista del usuario 14 (p. ej., utilizando una pantalla transflectiva o semitransparente), de manera que el entorno surrealista 24 incluye las imágenes 26 del mundo real del entorno físico, fusionadas electrónicamente, con una o más imágenes 28 de AR (p. ej., que incluyen una o más características de AR, aumentos virtuales). Es decir, el entorno surrealista 24 incluye el entorno físico real con las imágenes 28 de AR superpuestas en el conjunto 18 de visualización del dispositivo 16 de visualización portátil en la presente realización. En otras realizaciones, las imágenes 28 de AR pueden proyectarse, directamente, sobre los ojos del usuario 14.
Como se ilustra adicionalmente, el conjunto 18 de visualización del dispositivo 16 de visualización portátil incluye una primera parte 30 de visualización y una segunda parte 32 de visualización, cada una correspondiente, respectivamente, a un ojo del usuario 14. En otras realizaciones, puede emplearse una visualización unificada que corresponde a ambos ojos del usuario 14 dentro del dispositivo 16 de visualización portátil. Las respectivas partes 30, 32 de visualización pueden incluir cada una, a modo de ejemplo no limitante, lentes, total o parcialmente transparentes, sobre las cuales pueden superponerse las imágenes 28 de AR. En una realización, las partes 30, 32 de visualización son superficies de visualización y el dispositivo 16 de visualización portátil incluye características (p. ej., circuitos, emisores de luz) ubicadas adyacentes a sus respectivas periferias para superponer las imágenes 28 de AR sobre las mismas. Adicional o alternativamente, las partes 30, 32 de visualización pueden incluir cualquier material transflectivo, transparente, o translúcido adecuado, útil para mostrar las imágenes 26 del mundo real y las imágenes 28 de AR al usuario 14. En una realización, las respectivas partes 30, 32 de visualización pueden incluir, cada una, pantalla LED transparente (p. ej., transparente) o una pantalla OLED transparente (p. ej., transparente) útil para permitir, por ejemplo, que el usuario 14 vea las imágenes 28 de AR que aparecen en las respectivas partes 30, 32 de visualización como una superposición al entorno real y físico (p. ej., una atracción asociada a un parque de atracciones o a el interior de un vehículo de transporte de pasajeros).
Además, a través del conjunto 18 de visualización del dispositivo 16 de visualización portátil, el usuario 14 puede ver las imágenes 40 en 3-D (p. ej., que incluyen una o más características 3-D), que contribuyen al entorno surrealista 24 experimentado por el usuario 14. Las imágenes 40 en 3-D se presentan en una pantalla 3-D de un sistema 42 de visualización 3-D ubicado dentro del entorno físico, físicamente separado o independiente del dispositivo 16 de visualización portátil. Como tal, el usuario 14 puede visualizar, simultáneamente, las imágenes 28 de AR dentro de un primer plano focal definido por el dispositivo 16 de visualización portátil y las imágenes 40 en 3-D dentro de un segundo plano focal definido por la pantalla 3-D separada. Para permitir que el usuario 14 procese, visualmente, las imágenes 28 de AR y las imágenes 40 en 3-D, simultáneamente, el conjunto 18 de visualización incluye un componente de visualización 3-D acoplado, de forma operativa, dentro del conjunto 18 de visualización. Como se discute con más detalle con referencia a las FIGS. 2 y 3, el componente de visualización 3-D incluye una parte del componente de visualización 3-D adaptada para cada ojo del usuario 14 para permitir que el usuario 14 perciba las imágenes 40 en 3-D presentadas por el sistema 42 de visualización 3-D. Es decir, una primera parte del componente de visualización 3-D puede estar asociada con una parte 30, 32 de visualización y una segunda parte del componente de visualización 3-D puede estar asociada con la otra parte 30, 32 de visualización. Como se describe con más detalle a continuación, las imágenes 40 en 3-D se proporcionan al usuario 14 a través del dispositivo 16 de visualización portátil en cualquier formato 3-D pasivo o activo adecuado, de manera que el componente de visualización 3-D del conjunto 18 de visualización incluye uno o múltiples filtros anaglifos, filtros de polarización, capas de cristal líquido, etc.
Las cámaras 44 y 46 están incluidas en la presente realización del dispositivo 16 de visualización portátil para capturar datos de video en tiempo real (p. ej., video en vivo) o señales de luz ambiental del entorno físico que corresponden, respectivamente, al punto de vista del usuario 14. En otras realizaciones, el dispositivo 16 de visualización portátil puede emplear una sola cámara. El dispositivo 16 de visualización portátil también puede incluir cámaras adicionales para rastrear los movimientos oculares del usuario en algunas realizaciones, lo que puede ser, particularmente útil, para realizaciones en donde se proyectan características virtuales, directamente, en los ojos del usuario 14.
Las características 50 de comunicación (p. ej., que incluyen un transceptor inalámbrico) del dispositivo 16 de visualización portátil pueden transmitir datos en tiempo real (p. ej., datos de vídeo, datos de seguimiento ocular) capturados a través de las respectivas cámaras 44, 46 a otros componentes del dispositivo 16 de visualización portátil o sistemas acoplados al mismo para su procesamiento, en algunas realizaciones. Otras características del dispositivo 16 de visualización portátil pueden transmitir datos de orientación, datos de posición, datos del punto de vista (p. ej., distancia focal, orientación, postura), datos de seguimiento del movimiento, etc. obtenidos y/o derivados en función de los datos obtenidos a través de los sensores del dispositivo 16 de visualización portátil. Dichos sensores pueden incluir sensores de orientación y posición (p. ej., acelerómetros, magnetómetros, giroscopios, receptores del Sistema de Posicionamiento Global [GPS]), sensores de seguimiento del movimiento (p. ej., sensores de seguimiento del movimiento electromagnéticos y de estado sólido), unidades de medida inercial (IMU), y otros. En ciertas realizaciones, las características del dispositivo 16 de visualización portátil (p. ej., aspectos geométricos o marcas) pueden ser monitorizadas por un sistema 58 de monitorización (p. ej., una o más cámaras) para determinar la posición, ubicación, orientación, etc. del dispositivo 16 de visualización portátil y, a su vez, la del usuario 14. El sistema 58 de monitorización puede acoplarse, de forma comunicativa, al sistema 60 de generación de gráficos por ordenador y utilizarse para identificar la posición, ubicación, orientación, etc. del usuario 14 (o múltiples usuarios).
Como se representa, a través de las características 50 de comunicación del dispositivo 16 de visualización portátil, el dispositivo 16 de visualización portátil está acoplado, de forma comunicativa, al sistema 42 de visualización 3-D, al sistema 58 de monitorización, a un sistema 60 de generación de gráficos por ordenador, y a un controlador maestro 62 junto con una red inalámbrica 64. La red inalámbrica 64 puede incluir una red de área local inalámbrica (WLAN), una red de área amplia inalámbrica (WWAN), una comunicación de campo cercano (NFC), una red de tipo malla, etc. De hecho, en las realizaciones de la red inalámbrica 64 con la red de tipo malla, los diversos contenidos visualizables discutidos en la presente memoria pueden localizarse, de manera reflexiva o automática, para un estado o condición actual del sistema 10 de visualización AR y 3-D y/o de los usuarios 14. En la presente realización, la red inalámbrica 64 acopla, de forma comunicativa, cada componente del sistema 10 de visualización AR y 3-D, aunque en otras realizaciones, uno o múltiples componentes del sistema 10 de visualización AR y 3-D pueden acoplarse, de forma comunicativa mediante una conexión por cable. En consecuencia, el sistema 58 de monitorización, el sistema 42 de visualización 3-D, el sistema 60 de generación de gráficos por ordenador, y el controlador maestro 62 incluyen, cada uno, características 65, 66, 68, 70 de comunicación respectivas que permiten que el sistema 42 de visualización 3-D, el sistema 58 de monitorización, el sistema 60 de generación de gráficos por ordenador, y el controlador maestro 62 transfieran datos y/o señales de control con el dispositivo 16 de visualización portátil a través de la red inalámbrica 64.
Mirando ahora con más detalle los componentes acoplados, de forma comunicativa, al dispositivo 16 de visualización portátil, el sistema 60 de generación de gráficos por ordenador del sistema 10 de visualización AR y 3-D es responsable de generar las imágenes 28 de AR que se presentarán al usuario 14 a través del dispositivo 16 de visualización portátil. Por ejemplo, el sistema 60 de generación de gráficos por ordenador de la presente realización es un servidor o controlador del juego que se coloca dentro de un parque de atracciones para generar las imágenes 28 de AR en función de diversos factores asociados al usuario 14. Como tal, el sistema 60 de generación de gráficos por ordenador es, generalmente, un sistema con una potencia de procesamiento significativa que representa las imágenes 28 de AR en función de entradas específicas recibidas a través de la red inalámbrica 64. Por ejemplo, en algunas realizaciones, el sistema 60 de generación de gráficos por ordenador procesa los datos de video en tiempo real (p. ej., video en vivo), datos de orientación y posición, datos del punto de vista, o cualquier combinación de los mismos, recibidos del dispositivo 16 de visualización portátil y/o del sistema 58 de monitorización.
Específicamente, el sistema 60 de generación de gráficos por ordenador puede utilizar estos datos para generar una trama de referencia para registrar las imágenes 28 de AR en el entorno físico, por ejemplo, en las imágenes 26 del mundo real visibles por el usuario a través del dispositivo 16 de visualización portátil. Utilizando la trama de referencia generado en función de los datos de orientación, datos de posición, datos del punto de vista, datos de seguimiento del movimiento, etc., el sistema 60 de generación de gráficos por ordenador puede entonces representar una vista de las imágenes 28 de AR de una manera que sea, temporal y espacialmente, proporcional a lo que el usuario 14 percibiría si no usara el dispositivo 16 de visualización portátil. El sistema 60 de generación de gráficos por ordenador puede actualizar constantemente (p. ej., en tiempo real), la representación de las imágenes 28 de AR para reflejar el cambio en la orientación, posición y/o movimiento respectivo del usuario 14 respectivo.
En ciertas realizaciones, el sistema 60 de generación de gráficos por ordenador está colocado dentro de un vehículo de transporte de pasajeros. El sistema 60 de generación de gráficos por ordenador puede rastrear datos correspondientes a una pluralidad de usuarios 14 (p. ej., pasajeros del vehículo de transporte de pasajeros), donde cada usuario 14 (o, al menos, algunos usuarios 14) tiene un correspondiente dispositivo 16 de visualización portátil. En algunas realizaciones, el sistema 60 de generación de gráficos por ordenador genera las imágenes 28 de AR para su visualización a través de cada dispositivo 16 de visualización portátil dentro del vehículo de transporte de pasajeros. Después o durante la generación de las imágenes 28 de AR, el sistema 60 de generación de gráficos por ordenador proporciona las imágenes 28 de AR (p. ej., datos indicativos de las imágenes 28 de AR) a los dispositivos 16 de visualización portátiles en tiempo real para su visualización en los conjuntos 18 de visualización de los mismos. En otras realizaciones, el sistema 60 de generación de gráficos por ordenador puede incluirse con el dispositivo 16 de visualización portátil, combinado con el controlador maestro 62, etc.
Además, el sistema 42 de visualización 3-D del sistema 10 de visualización AR y 3-D es responsable de mostrar las imágenes 40 en 3-D para contribuir al entorno surrealista 24 experimentado por el usuario 14. En algunas realizaciones, las imágenes 40 en 3-D se recuperan de una memoria del sistema 42 de visualización 3-D, aunque en otras realizaciones, el sistema 60 de generación de gráficos por ordenador es compartido tanto por los dispositivos 16 de visualización portátiles como por el sistema 42 de visualización 3-D, de manera que el sistema 60 de generación gráficos por ordenador genera las imágenes 40 en 3-D y transmite las imágenes 40 en 3-D (p. ej., datos indicativos de las imágenes 40 en 3-D) al sistema 42 de visualización 3-D. Además, en algunas realizaciones, el sistema 42 de visualización 3-D incluye su propio sistema 60 de generación de gráficos por ordenador para generar las imágenes 40 en 3-D. Como se discute con más detalle a continuación, el sistema 42 de visualización 3-D incluye una pantalla fija separada, como una pantalla de proyector o un dispositivo de visualización electrónico, en la que se presentan al usuario 14 imágenes bidimensionales (2-D) codificadas. Como se indica en la presente memoria, las imágenes en 2-D codificadas incluyen cualquier representación plana adecuada de objetos a partir de los cuales pueda percibirse profundidad a través de cualquier tecnología de visualización 3-D adecuada. Por ejemplo, las imágenes en 2-D codificadas pueden incluir perspectivas planas y desplazadas de uno o de múltiples objetos, que cuando se ven a través de un dispositivo o componente estereoscópico o de descifrado, dan a uno o a múltiples objetos una ilusión de profundidad. Cuando se ven sin el dispositivo o componente de descifrado, las imágenes en 2-D codificadas pueden ser, generalmente, borrosas o indiscernibles. Así, viendo las imágenes en 2-D codificadas a través del conjunto 18 de visualización del dispositivo 16 de visualización portátil, el usuario 14 descifra, visualmente, las imágenes en 2-D codificadas como tridimensionales, revelando las imágenes 40 en 3-D. Se entiende que, aunque las presentes realizaciones pueden describirse con referencia a presentar o mostrar las imágenes 40 en 3-D al usuario 14 por brevedad, las imágenes presentadas al usuario 14, generalmente, incluyen estas representaciones 2-D a partir de las cuales se percibe profundidad a través del dispositivo 16 de visualización portátil. De hecho, como se discute con más detalle en la presente memoria, las imágenes 40 en 3-D se perciben en combinación con las imágenes 28 de AR como una superposición a las imágenes 26 del mundo real, proporcionando así una experiencia de visualización mejorada al usuario 14.
El controlador maestro 62 (p. ej., controlador del programa) de la presente realización del sistema 10 de visualización AR y 3-D coordina el funcionamiento de los componentes del sistema 10 de visualización AR y 3-D descrito en la presente memoria. Por ejemplo, el controlador maestro 62 proporciona señales de control a través de la red inalámbrica 64 al sistema 60 de generación de gráficos por ordenador, al sistema 42 de visualización 3-D, y al dispositivo 16 de visualización portátil. Generalmente, el controlador maestro 62 de la presente realización instruye al sistema 60 de generación de gráficos por ordenador para generar y proporcionar las imágenes 28 de AR al dispositivo 16 de visualización portátil. En algunas realizaciones, el controlador maestro 62 instruye al sistema 60 de generación de gráficos por ordenador para generar y proporcionar las imágenes 40 en 3-D al sistema 42 de visualización 3-D. Además, el controlador maestro 62 instruye al dispositivo 16 de visualización portátil para presentar las imágenes 28 de AR al usuario 14 e instruye al sistema 42 de visualización 3-D para presentar las imágenes 40 en 3-D al usuario 14, cada una en de manera controlada, contextualizada, y/o individualizada. A continuación, se discuten realizaciones de ejemplo del sistema 10 de visualización AR y 3-D con referencia a las FIGS. 2 y 3.
La FIG. 2 ilustra una vista esquemática, parcialmente despiezada, de una realización del dispositivo 16 de visualización portátil dentro del sistema 10 de visualización AR y 3-D. Como se ilustra, el dispositivo 16 de visualización portátil incluye el conjunto 18 de visualización para permitir que el usuario 14 vea, simultáneamente, las imágenes 28 de AR presentadas por el dispositivo 16 de visualización portátil y las imágenes 40 en 3-D presentadas por el sistema 42 de visualización 3-D. Cuando se usa el dispositivo 16 de visualización portátil, el conjunto 18 de visualización se retiene frente a los ojos del usuario 14, con la primera parte 30 de visualización frente a un primer ojo del usuario 14 y la segunda parte 32 de visualización frente a un segundo ojo del usuario 14. Las partes 30, 32 de visualización no se ilustran por separado en la FIG. 2.
Para permitir una mejor comprensión de los componentes del conjunto 18 de visualización, primero se proporcionan en la presente memoria detalles con respecto al funcionamiento de los componentes del dispositivo 16 de visualización portátil que funcionan para proyectar las imágenes 28 de AR sobre el conjunto 18 de visualización. Es decir, el dispositivo 16 de visualización portátil incluye ciertos componentes electrónicos para facilitar la visualización de las imágenes 28 de AR a través del conjunto 18 de visualización. Por ejemplo, en la realización ilustrada, el dispositivo 16 de visualización portátil incluye el circuito 100 de procesamiento, como un procesador 102 y una memoria 104. El procesador 102 está acoplado, de forma operativa, a la memoria 104 para ejecutar instrucciones para llevar a cabo las técnicas actualmente descritas, por ejemplo, presentando o representando las imágenes 28 de AR (p. ej., características o imágenes virtuales). En algunas realizaciones, estas instrucciones se codifican en programas o código almacenado en un medio tangible, no transitorio, legible por ordenador, como la memoria 104 y/u otro almacenamiento. El procesador 102 puede ser un procesador de propósito general, un dispositivo de sistema en chip (SoC), un circuito integrado de aplicación específica (ASIC), o alguna otra configuración de procesador similar.
Además, las características 50 de comunicación del dispositivo 16 de visualización portátil están acopladas, de forma operativa, al procesador 102 para permitir que el dispositivo 16 de visualización portátil se comunique con el sistema 60 de generación de gráficos por ordenador, con el controlador maestro 62 y/o con el sistema 42 de visualización 3-D a través de la red inalámbrica 64. Por ejemplo, el sistema 60 de generación de gráficos por ordenador de la presente realización incluye un procesador 110 (p. ej., procesador de propósito general u otro procesador) y una memoria 112, ambos acoplados, de forma operativa, a las características 68 de comunicación. Debido a que el sistema 60 de generación de gráficos por ordenador, generalmente, incluye una mayor cantidad de potencia de procesamiento que el dispositivo 16 de visualización portátil, el sistema 60 de generación de gráficos por ordenador es capaz de generar las imágenes 28 de AR para su visualización a través del dispositivo 16 de visualización portátil, así como también transmitir las imágenes AR. 28 al dispositivo 16 de visualización portátil a través de la red inalámbrica 64. En realizaciones con múltiples dispositivos 16 de visualización portátiles, el sistema 60 de generación de gráficos por ordenador puede proporcionar las imágenes 28 de AR para cada dispositivo 16 de visualización portátil.
Además, el procesador 102 del dispositivo 16 de visualización portátil está acoplado, de forma operativa, a un microproyector 120 (p. ej., fuente de luz, dispositivo de visualización OLED) que genera y proyecta la luz 122, que es indicativa de las imágenes 28 de AR, sobre el conjunto 18 de visualización del dispositivo 16 de visualización portátil. Debe entenderse que el dispositivo 16 de visualización portátil puede incluir un micro-proyector para cada ojo del usuario 14 en algunas realizaciones. Para recibir y redirigir la luz 122 del micro-proyector 120 hacia los ojos del usuario 14, que visualiza las imágenes 28 de AR desde el mismo, el conjunto 18 de visualización del dispositivo 16 de visualización portátil incluye una pantalla portátil 124 (p. ej., primera pantalla, pantalla de campo cercano). Aunque se ilustran como componentes planos o rectangulares, debe entenderse que la pantalla portátil 124 y otros componentes del conjunto 18 de visualización pueden incluir cualquier curvatura adecuada para dirigir la luz 122 hacia los ojos del usuario 14. Como se introdujo anteriormente con referencia a las partes 30, 32 de visualización, la pantalla portátil 124 es un componente transflectivo (p. ej., parcialmente translúcido, parcialmente reflectante) que es suficientemente transparente para permitir la luz ambiental emitida desde el entorno físico, incluida la luz representativa de las imágenes 40 en 3-D discutidas a continuación, para llegar a los ojos del usuario 14. Para mejorar aún más las propiedades reflectantes del conjunto 18 de visualización, se dispone un revestimiento semi-reflectante 130 o película dentro del conjunto 18 de visualización de la presente realización. Más específicamente, el revestimiento semireflectante 130 está colocado entre una superficie 132 orientada hacia el usuario de la pantalla portátil 124 y el usuario 14 en la presente realización. El revestimiento semi-reflectante 130 puede ser cualquier material adecuado que permita que el usuario 14 perciba las imágenes 28 de AR proyectadas en la pantalla portátil 124 por el micro-proyector 120.
Con respecto a la capacidad de visualización 3-D del dispositivo 16 de visualización portátil, el dispositivo 16 de visualización portátil incluye un componente 140 de visualización 3-D para permitir que el usuario perciba las imágenes 40 en 3-D. Por ejemplo, en la presente realización, el componente 140 de visualización 3-D del conjunto 18 de visualización incluye una lente 3-D pasiva 142 que decodifica, ópticamente, las imágenes 40 en 3-D presentadas al usuario 14. La lente 3-D pasiva 142 es un revestimiento aplicado a la pantalla portátil 124 o una película flexible retenida adyacente a la pantalla portátil 124, en algunas realizaciones. Además, aunque se ilustra como dispuesto adyacente a una superficie 144 orientada hacia el entorno de la pantalla portátil 124, debe entenderse que el componente 140 de visualización 3-D puede colocarse en cualquier otra disposición adecuada dentro del conjunto 18 de visualización.
Generalmente, el componente 140 de visualización 3-D incluye un primer filtro para la primera parte 30 de visualización del conjunto 18 de visualización y un segundo filtro, que incluye diferentes propiedades o calidades ópticas, para la segunda parte 32 de visualización del conjunto 18 de visualización. Por ejemplo, en algunas realizaciones, el componente 140 de visualización 3-D es un conjunto de lentes de filtrado de luz o una capa de filtrado 3-D que incluye una primera lente o filtro anaglifo (p. ej., película azul) para la primera parte 30 de visualización y una segunda lente o filtro anaglifo (p. ej., película roja) para la segunda parte 32 de visualización. En otras realizaciones, el componente 140 de visualización 3-D es un conjunto de lentes de filtrado de luz o una capa de filtrado 3-D que incluye una primera lente polarizada con una primera polarización (p. ej., en el sentido de las agujas del reloj, vertical) para la primera parte 30 de visualización y una segunda lente polarizada con una segunda polarización, opuesta (p. ej., en el sentido contrario a las agujas del reloj, horizontal) para la segunda parte 32 de visualización. Por lo tanto, el componente 140 de visualización 3-D utiliza filtrado de longitud de onda o filtrado de polarización para acondicionar las imágenes 40 en 3-D para que las vea el usuario 14. Como tal, cuando se usa el dispositivo 16 de visualización portátil, el componente 140 de visualización 3-D proporciona una primera perspectiva o parte de las imágenes 40 en 3-D para un ojo del usuario 14, y una segunda perspectiva o parte desplazada de las imágenes 40 en 3-D al otro ojo del usuario 14. Las imágenes relativamente desplazadas proporcionan una percepción de profundidad al usuario 14, quien visualiza las imágenes 40 en 3-D a una longitud focal especificada que varía en función de una magnitud del desplazamiento entre las imágenes desplazadas,
El conjunto 18 de visualización también puede incluir un revestimiento antideslumbrante 150 o un filtro dispuesto adyacente a una superficie 152 orientada hacia el entorno del componente 140 de visualización 3-D. El revestimiento antideslumbrante 150 es cualquier material adecuado semi-opaco o que bloquee la luz, que reduzca la transmisión de luz desde fuentes de luz intensas a través del conjunto 18 de visualización que de otro modo oscurecería las imágenes 28 de AR y las imágenes 40 en 3-D. En otras realizaciones, se omite el revestimiento antideslumbrante 150 y/o el usuario 14 usa un ala de sombrero para reducir el deslumbramiento sobre el conjunto 18 de visualización. Además, debe entenderse que los revestimientos del conjunto 18 de visualización pueden disponerse en cualquier orden adecuado entre sí, siempre que el conjunto 18 de visualización sea suficientemente transparente a la luz del sistema 42 de visualización 3-D discutido en la presente memoria, para permitir que el usuario 14 visualice, adecuadamente, las imágenes 40 en 3-D, y suficientemente reflectante a la luz 122 del micro-proyector 120, para permitir que el usuario 14 visualice, adecuadamente, las imágenes 28 de AR.
Cuando el usuario 14 está frente al sistema 42 de visualización 3-D, el sistema 42 de visualización 3-D dirige luz indicativa de las imágenes 40 en 3-D al conjunto 18 de visualización. Para presentar las imágenes 40 en 3-D al usuario 14, el sistema 42 de visualización 3-D incluye una pantalla fija 160 (p. ej., segunda pantalla, pantalla remota), que está separada del dispositivo 16 de visualización portátil. En la presente realización, la pantalla fija 160 es una pantalla 161 de proyección o una pared o superficie de proyección, sobre la cual un proyector 162 (p. ej., proyector 3-D) del sistema 42 de visualización 3-D superpone las imágenes 40 en 3-D. El proyector 162 incluye un procesador 164, una memoria 166, un dispositivo 168 emisor de luz, y las características 66 de comunicación, que están acopladas, de forma operativa, al procesador 164 y acopladas, de forma comunicativa, a la red inalámbrica 64. El dispositivo 168 emisor de luz es cualquier sistema adecuado de lentes, fuentes de luz, y/o láseres que dirige, selectivamente, la luz 170 representativa de las imágenes 40 en 3-D sobre la pantalla fija 160 en respuesta a instrucciones proporcionadas por el procesador 164. De hecho, como se discute en la presente memoria, el dispositivo 168 emisor de luz puede incluir una lente de multiplexación o cualquier otro componente de multiplexación adecuado, capaz de mostrar contenido 3-D individualizado para múltiples usuarios 14. Además, el procesador 164 recupera datos indicativos de las imágenes 40 en 3-D de la memoria 166, e instruye al dispositivo 168 emisor de luz para que genere la luz 170 representativa de las imágenes 40 en 3-D. En otras realizaciones, el dispositivo 168 emisor de luz puede recibir datos indicativos de las imágenes 40 en 3-D del sistema 60 de generación de gráficos por ordenador, de un componente de almacenamiento dispuesto dentro de un dispositivo de entrada/salida del proyector 162, etc.
Aunque el sistema 42 de visualización 3-D se discute en la presente memoria con referencia a la pantalla fija 160, que es estacionaria dentro del entorno del mundo real, debe entenderse que la pantalla fija 160 y/o el proyector 162 pueden ser móviles en algunas realizaciones. Por ejemplo, la pantalla fija 160 y/o el proyector 162 pueden fijarse a un vehículo de transporte de pasajeros, moverse a lo largo de carriles, o ajustarse en posición de otro modo mediante cualquier actuador adecuado. En dichas realizaciones, el actuador puede recibir señales de control para coordinar el movimiento de la pantalla fija 160 y/o del proyector 162 desde el controlador maestro 62.
Según lo coordinado por el controlador maestro 62, durante el funcionamiento del sistema 10 de visualización AR y 3-D, las imágenes 28 de AR se muestran dentro de un primer plano focal 180 asociado a la pantalla portátil 124, y las imágenes 40 en 3-D se muestran dentro de un segundo plano focal 182 asociado a la pantalla fija 160. Es decir, el controlador maestro 62 incluye un procesador 184, una memoria 186, y las características 70 de comunicación, para proporcionar señales de temporización o señales de control al dispositivo 16 de visualización portátil y al sistema 42 de visualización 3-D. En función de las señales de temporización, el dispositivo 16 de visualización portátil y el sistema 42 de visualización 3-D generan, respectivamente, las imágenes 28 de AR y las imágenes 40 en 3-D para que el usuario 14 las visualice simultáneamente. Debido a que la pantalla fija 160 está colocada dentro del entorno del mundo real, y la pantalla portátil 124 es empleada y movida por los movimientos del usuario 14, el primer plano focal 180 y el segundo plano focal 182 son independientes entre sí. Es decir, el posicionamiento de un plano focal 180, 182 no afecta el posicionamiento del otro plano focal 180, 182, de modo que los planos focales 180, 182 son diferentes entre sí en la realización ilustrada. Por lo tanto, el usuario 14 puede visualizar contenido en múltiples planos focales para disfrutar de una experiencia de visualización de contenido virtual más realista que la experiencia proporcionada utilizando un dispositivo de visualización portátil tradicional.
La FIG. 3 ilustra una vista esquemática, parcialmente despiezada, de otra realización del dispositivo 16 de visualización portátil empleado dentro del sistema 10 de visualización AR y 3-D. A través del conjunto 18 de visualización, el dispositivo 16 de visualización portátil permite que el usuario 14 vea las imágenes 28 de AR presentadas en la pantalla portátil 124 y las imágenes 40 en 3-D presentadas por el sistema 42 de visualización 3-D, de una manera, sustancialmente similar, al funcionamiento del dispositivo 16 de visualización portátil de la FIG. 2. Sin embargo, en lugar de la lente 3-D pasiva 142 del dispositivo 16 de visualización portátil de la FIG. 2, el componente 140 de visualización 3-D de la presente realización es un sistema 200 de obturación activa (p. ej., con lentes de obturación activa). Generalmente, en comparación con un sistema 3-D pasivo, el sistema 200 de obturación activa proporciona una capa de personalización adicional, o un mando de control, para ajustar y personalizar las imágenes 40 en 3-D mostradas para el usuario 14. Es decir, el sistema 200 de obturación activa de la presente realización es controlable por el dispositivo 16 de visualización portátil para proporcionar más control sobre, y personalización para, las imágenes 40 en 3-D vistas por el usuario 14, como se discute en la presente memoria.
Más particularmente, el sistema 200 de obturación activa de la presente realización incluye una capa 202 de cristal líquido (p. ej., revestimiento o capacidad de multiplexación) dispuesta dentro del conjunto 18 de visualización. Como se ilustra, la capa 202 de cristal líquido se coloca entre la pantalla portátil 124 y la revestimiento semi-reflectante 130. En otras realizaciones, la capa 202 de cristal líquido puede estar dispuesta en cualquier otra posición adecuada dentro del conjunto 18 de visualización que no obstaculice el funcionamiento del revestimiento semi-reflectante 130, de la pantalla portátil 124 y/o del revestimiento antideslumbrante 150 del conjunto 18 de visualización. Por ejemplo, la capa 202 de cristal líquido se coloca entre la pantalla portátil 124 y el revestimiento antideslumbrante 150 en algunas realizaciones.
La capa 202 de cristal líquido es un elemento controlable con propiedades ópticas que se ajustan en respuesta a señales de control (p. ej., fuente de voltaje, fuente de alimentación) emitidas por el procesador 102 del dispositivo 16 de visualización portátil. Además, la capa 202 de cristal líquido de la presente realización está dividida entre una primera parte de capa de cristal líquido para la primera parte 30 de visualización del dispositivo 16 de visualización portátil y una segunda parte de capa de cristal líquido para la segunda parte 32 de visualización del dispositivo 16 de visualización portátil. Es decir, en función de la aplicación de la señales de control, cada parte de capa de cristal líquido de la capa 202 de cristal líquido se ajusta entre un estado opaco y un estado translúcido. Como tal, en respuesta a la recepción de las señales de control proporcionadas a las partes de capa de cristal líquido de la capa 202 de cristal líquido, el conjunto 18 de visualización puede abrir (p. ej., hacer transparente) una parte 30, 32 de visualización y cerrar (p. ej., hacer opaca) la otra parte 30, 32 de visualización. Como tal, la capa 202 de cristal líquido del sistema 200 de obturación activa es una capa de filtrado 3-D que filtra la luz visible para el usuario 14 en función del momento en el que se emite la luz, en lugar de en función de una orientación o longitud de onda de la luz.
En otras realizaciones, la capa 202 de cristal líquido puede ser opaca cuando el procesador 102 no proporciona una señal de control, y se vuelve transparente en respuesta a la aplicación o recepción de la señal de control. En algunas realizaciones, las partes de capa de cristal líquido tienen orientaciones de estado opuestas, de manera que la aplicación de la señal de control a la capa 202 de cristal líquido vuelve opaca una primera capa de cristal líquido mientras que una segunda capa de cristal líquido se vuelve transparente, y esa desaplicación de la señal de control vuelve opaca la segunda capa de cristal líquido mientras que la primera parte de capa de cristal líquido se vuelve translúcida. En estas realizaciones, la dependencia de una única señal de control para modificar ambas partes de capa de cristal líquido puede proporcionar oportunidades reducidas de que el sistema 200 de obturación activa se desincronice.
En la realización ilustrada, el dispositivo 16 de visualización portátil incluye además, una fuente 206 de alimentación que está acoplada, de forma operativa, entre el procesador 102 y la capa 202 de cristal líquido. Como tal, el procesador 102 proporciona señales de control para controlar el funcionamiento de la fuente 206 de alimentación, que proporciona, selectivamente, señales de control a la capa 202 de cristal líquido. En algunas realizaciones, la fuente 206 de alimentación es la misma fuente 206 de alimentación que proporciona energía a otros componentes del dispositivo 16 de visualización portátil, como el micro-proyector 120. En respuesta a las señales de control proporcionadas por la fuente 206 de alimentación, las propiedades ópticas de las partes de capa de cristal líquido de la capa 202 de cristal líquido se ajustan selectivamente. En otras realizaciones, el procesador 102 proporciona señales de control a la capa 202 de cristal líquido directamente, sin dependencia de la fuente 206 de alimentación.
Durante el funcionamiento del sistema 42 de visualización AR y 3-D, el sistema 200 de obturación activa obtura las partes de capa de cristal líquido de la capa 202 de cristal líquido mientras que el sistema 42 de visualización 3-D alterna las imágenes 40 en 3-D presentadas en la pantalla fija 160, como a través de cualquier componente y/o proceso de multiplexación adecuado. Es decir, las imágenes 40 en 3-D presentadas por el sistema 42 de visualización 3-D varían, rápidamente, entre imágenes relativamente desplazadas, en coordinación con la obturación del sistema 200 de obturación activa. Como tal, los ojos izquierdo y derecho del usuario 14 reciben, cada uno, perspectivas respectivas de las imágenes del sistema 42 de visualización 3-D que están desplazadas entre sí. Por lo tanto, el usuario 14 es capaz de percibir la profundidad a partir de las diferentes perspectivas de las imágenes 40 en 3-D, revelando las imágenes 3-D como tridimensionales. En algunas realizaciones, el sistema 42 de visualización 3-D y el sistema 200 de obturación activa obturan o cambian las imágenes a 60 hercios, 100 hercios, 120 hercios, o a cualquier frecuencia de actualización suficientemente alta (p. ej., actualizaciones de la memoria intermedia por segundo) que permita que el usuario 14 vea las imágenes 40 en 3-D en tiempo real, de forma realista o parecida a la vida real. Como se discutió anteriormente, las imágenes 40 en 3-D se ven en combinación con las imágenes 28 de AR presentadas en la pantalla portátil 124.
Para mostrar las imágenes 40 en 3-D al usuario 14 a través del sistema 200 de obturación activa, el sistema 10 de visualización AR y 3-D 10 incluye una realización del sistema 42 de visualización 3-D con un dispositivo electrónico 210 de visualización (p. ej., una pantalla de televisión) como la pantalla fija 160. El dispositivo electrónico 210 de visualización de la presente realización incluye el procesador 164 acoplado, de forma operativa, a la memoria 166 y a las características 66 de comunicación, como se discutió anteriormente con referencia al proyector 162 de la FIG. 2. De manera similar al proyector 162, el dispositivo electrónico 210 de visualización también puede incluir cualquier dispositivo multiplexor y/o dispositivo demultiplexor adecuado para permitir que una señal multiplexada se divida en múltiples señales que se presentan, individualmente, a múltiples usuarios 14. Las características 66 de comunicación son cualquier transceptor o antena adecuada que permita que el dispositivo electrónico 210 de visualización se comunique con el sistema 60 de generación de gráficos por ordenador, con el controlador maestro 62 y con el dispositivo 16 de visualización portátil a través de la red inalámbrica 64. La pantalla fija 160 del dispositivo electrónico 210 de visualización muestra las imágenes 40 en 3-D en función de los datos almacenados dentro de la memoria 166 del dispositivo electrónico 210 de visualización. Sin embargo, en otras realizaciones, las imágenes 40 en 3-D son generadas por el sistema 60 de generación de gráficos por ordenador y transmitidas al dispositivo electrónico 210 de visualización a través de la red inalámbrica 64 como un flujo de datos en tiempo real. Por lo tanto, la pantalla fija 160 del dispositivo electrónico 210 de visualización presenta imágenes desplazadas de las imágenes 40 en 3-D al usuario 14 de manera alterna que permite al usuario 14 percibir las imágenes 40 en 3-D a través del dispositivo 16 de visualización portátil.
El dispositivo electrónico 210 de visualización del sistema 42 de visualización 3-D también incluye un transmisor 220 (p. ej., transmisor de infrarrojos [IR]) que transmite señales de obturación como señales IR, señales de sincronización, o señales de temporización a un receptor 222 (p. ej., receptor IR) del dispositivo 16 de visualización portátil. En función de las señales de obturación del transmisor 220, el dispositivo 16 de visualización portátil coordina o alinea la obturación de las partes de capa de cristal líquido de la capa 202 de cristal líquido para cada parte 30, 32 de visualización del dispositivo 16 de visualización portátil, con la conmutación de las imágenes desplazadas de las imágenes 40 en 3-D. Por lo tanto, el dispositivo 16 de visualización portátil y la pantalla fija 160 pueden utilizar alimentación anticipada y/o retroalimentación para controlar el funcionamiento en coordinación entre sí, sustancialmente, a la misma frecuencia de actualización (p. ej., dentro del 5%).
Como se reconoce en la presente memoria, el funcionamiento del sistema 42 de visualización 3-D a frecuencias de actualización más altas proporciona vistas más realistas de las imágenes 40 en 3-D presentadas en combinación con las imágenes 28 de AR. Además, si se opera a una frecuencia de actualización suficientemente alta, el uso del sistema 200 de obturación activa, como el componente 140 de visualización 3-D, permite que el sistema 10 de visualización AR y 3-D individualice el contenido presentado en la pantalla fija 160 para cada usuario 14 o para cada grupo de usuarios 14, que ven la pantalla fija 160 a través del dispositivo 16 de visualización portátil, como se discute con más detalle a continuación. Generalmente, puede presentarse contenido individualizado para un número de grupos que sea igual a la frecuencia de actualización del sistema de visualización 3-D dividida por 60 hercios, u otro umbral de la frecuencia de actualización adecuado, de manera que cada grupo reciba contenido a, o por encima del umbral de la frecuencia de actualización.
A modo de ejemplo del sistema 10 de visualización AR y 3-D para proporcionar contenido 3-D a múltiples usuarios 14, la FIG. 4 ilustra dos usuarios 14 que llevan, cada uno, uno de los dispositivos 16 de visualización portátiles, descritos con referencia a la FIG. 3, dentro de un parque 250 de atracciones. Como se discutió anteriormente, cada uno de los dispositivos 16 de visualización portátiles incluye una de las pantallas portátiles 124 (p. ej., primera pantalla, tercera pantalla) y uno de los componentes 140 de visualización 3-D discutidos anteriormente. Como tal, uno de los dispositivos 16 de visualización portátiles incluye un primer componente 140 de visualización 3-D y el otro de los dispositivos 16 de visualización portátiles incluye un segundo componente 140 de visualización 3-D. Los usuarios 14 están en un vehículo 252 de transporte de pasajeros que se mueve a lo largo de un recorrido 254 del paseo (p. ej., pistas) de un emocionante recorrido 256, como una montaña rusa o un paseo oscuro. En la realización ilustrada, el recorrido 254 del paseo se proporciona a través de un entorno físico 260 circundante a la vista de atracciones 262 de entretenimiento adicionales (p. ej., noria), de un centro comercial 264 de instalaciones del parque (p. ej., áreas de juego, hoteles, restaurantes, tiendas de recuerdos), y de otros elementos del entorno físico 260.
El sistema 42 de visualización 3-D incluye un primer dispositivo electrónico 270 de visualización y un segundo dispositivo electrónico 272 de visualización dispuestos dentro del entorno físico 260 y visibles desde el recorrido 254 del paseo. Incluyendo múltiples dispositivos electrónicos 270, 272 de visualización, el sistema 10 de visualización AR y 3-D permite a los usuarios 14 percibir las imágenes 40 en 3-D durante una duración parcial o total del emocionante recorrido 256. Los dispositivos electrónicos 270, 272 de visualización del sistema 42 de visualización 3-D están fijos o inmóviles en el presente realización, de modo que el vehículo 252 de transporte de pasajeros se pueda mover a lo largo del recorrido 254 del paseo más allá de las pantallas fijas 160 (p. ej., segundas pantallas) de los dispositivos electrónicos 270, 272 de visualización. En otras realizaciones, los dispositivos electrónicos 270, 272 de visualización pueden ser móviles, mientras el vehículo 252 de transporte de pasajeros está estacionario. Además, debe entenderse que en algunas realizaciones, la pantalla 161 de proyección y el proyector 162 pueden emplearse además de, o como alternativa a, los dispositivos electrónicos 270, 272 de visualización para presentar las imágenes 40 en 3-D a los usuarios 14.
Los dispositivos electrónicos 270, 272 de visualización, generalmente, funcionan de manera similar al dispositivo electrónico 210 de visualización discutido anteriormente con referencia a la FIG. 3, y así, cada uno, incluye un transmisor 220 para coordinar el funcionamiento de los sistemas 200 de obturación activa de los dispositivos 16 de visualización portátiles. Los transmisores 220 del sistema 42 de visualización 3-D transmiten señales de control a los dispositivos 16 de visualización portátiles de cada usuario 14 para permitir que el dispositivo 16 de visualización portátil cierre los conjuntos 18 de visualización de una manera predeterminada y controlada. Como tal, cada uno de los usuarios 14 puede percibir las imágenes 40 en 3-D desde un respectivo dispositivo electrónico 270, 272 de visualización en un plano focal asociado a la pantalla fija 160 del respectivo dispositivo electrónico 270, 272 de visualización. Como se utiliza en la presente memoria, un plano focal se refiere a un plano que es perpendicular a un eje óptico del dispositivo 16 de visualización portátil, y que intersecta objetos que están enfocados dentro del plano focal. En otras palabras, los rayos de luz de un punto en particular de las imágenes 40 en 3-D convergen o pasan a través de un foco, antes de ser dirigidos a un punto correspondiente en la retina del usuario 14. Además, en algunas realizaciones, el foco es un punto focal, generalmente separado del foco del dispositivo 16 de visualización portátil por una distancia focal.
Cuando usa uno de los dispositivos 16 de visualización portátiles, cada usuario 14 puede ver las imágenes 28 de AR presentadas por el dispositivo 16 de visualización portátil. Además, cuando usa uno de los dispositivos 16 de visualización portátiles y cuando está frente u orientado hacia uno de los dispositivos electrónicos 270, 272 de visualización, cada usuario 14 puede ver las imágenes 40 en 3-D presentadas por el respectivo dispositivo electrónico 270, 272 de visualización. Es decir, los sistemas 200 de obturación activa de cada dispositivo 16 de visualización portátil se obturan entre las dos partes 30, 32 de visualización de los dispositivos 16 de visualización portátiles de cada usuario 14 para permitir que cada usuario 14 perciba las imágenes 40 en 3-D. Como se discutió anteriormente, el sistema de 200 de obturación activa de un dispositivo 16 de visualización portátil utiliza una capa 202 de cristal líquido (p. ej., primeras lentes de obturación activa), y el sistema 200 de obturación activa del otro dispositivo 16 de visualización portátil incluye otra capa 202 de cristal líquido (p. ej., segundas lentes de obturación activa).
En algunas realizaciones, los usuarios 14 pueden estar asignados a diferentes grupos a los que se les proporcionan imágenes 40 en 3-D individualizadas (p. ej., a través de dispositivos multiplexores y/o dispositivos demultiplexores de los dispositivos electrónicos 270, 272 de visualización). En algunas realizaciones, las temáticas para cada uno de estos grupos de usuarios 14 se seleccionan en función de uno o más factores, como un equipo al que está asignado un usuario 14, un ticket asociado al usuario 14, la altura del usuario 14, la edad del usuario 14 (p. ej., recuperada de una base de datos), el color de la ropa usada por el usuario 14 (p. ej., identificado por una cámara dentro del entorno físico 260), etc. Como se discute con más detalle con referencia a las FIGS. 4 y 6, los sistemas 200 de obturación activa de los dispositivos 16 de visualización portátiles son capaces de accionar, secuencialmente, los dispositivos 16 de visualización portátiles de cada grupo de usuarios 14, mientras que las imágenes 40 en 3-D para cada grupo de usuarios 14 se alternan o multiplexan en los dispositivos electrónicos 270, 272 de visualización para presentar diferentes imágenes 40 en 3-D a cada grupo de usuarios 14. Las imágenes 28 de AR mostradas a través de los dispositivos 16 de visualización portátiles de cada grupo de usuarios 14 se ajustan, simultáneamente, para corresponder con las imágenes 40 en 3-D que se muestran a cada usuario 14. Como tal, cada usuario 14 puede experimentar una temática diferente o individualizada en el emocionante recorrido 256.
La FIG. 5 ilustra un diagrama de flujo de una realización de un proceso 300 para proporcionar mejoras de AR y 3-D a los visitantes del parque de atracciones (p. ej., el usuario 14). El proceso 300 puede ser útil para crear la experiencia de AR y 3-D durante una experiencia del parque de atracciones, como el emocionante recorrido 256. El proceso 300 puede ser representativo de un código iniciado o instrucciones almacenadas en un medio legible por ordenador no transitorio (p. ej., la memoria 104, 112, 166, 186) y ejecutado, por ejemplo, por el procesador 102 del dispositivo 16 de visualización portátil, por el procesador 110 del sistema 60 de generación de gráficos por ordenador, por el procesador 164 del sistema 42 de visualización 3-D, y/o por el procesador 184 del controlador maestro 62. Los procesadores 102, 110, 164, y/o 184 pueden estar acoplados, de forma comunicativa, a través de una red, como la red inalámbrica 64, para recibir y enviar las instrucciones que se describen a continuación.
El proceso 300 comienza con la generación (bloque 302) de las imágenes 28 de AR que se mostrarán a través del dispositivo 16 de visualización portátil asociado al usuario 14. Es decir, como se discutió anteriormente, el sistema 60 de generación de gráficos por ordenador genera las imágenes 28 de AR, aunque en otras realizaciones, las imágenes 28 de AR son generadas por el procesador 102 del dispositivo 16 de visualización portátil o por el procesador 184 del controlador maestro 62. En algunas realizaciones, las imágenes 28 de AR generadas por el sistema 60 de generación de gráficos por ordenador se individualizan o personalizan para el usuario 14. Por ejemplo, en función de un grupo asociado al usuario, de una posición del usuario 14 a lo largo del recorrido 254 del paseo, de una orientación del usuario 14, o cualquier otro dato de sensor adecuado relacionado con el usuario 14, el sistema 60 de generación de gráficos por ordenador genera las imágenes 28 de AR, específicamente, para mostrarlas al usuario 14, en algunas realizaciones. Durante o después de la generación de las imágenes 28 de AR, el sistema 60 de generación de gráficos por ordenador transmite las imágenes 28 de AR al dispositivo 16 de visualización portátil a través de la red inalámbrica 64.
El proceso 300 incluye mostrar (bloque 304) las imágenes 28 de AR a través del dispositivo 16 de visualización portátil al usuario 14. Es decir, el micro-proyector 120 genera y dirige la luz 122 indicativa de las imágenes 28 de AR a la pantalla portátil 124 del dispositivo 16 de visualización portátil. Debido a que la pantalla portátil 124 del dispositivo 16 de visualización portátil es transflectiva, al menos, una parte de la luz 122 se refleja en los ojos del usuario 14, quien visualiza las imágenes 28 de AR desde allí. Como tal, las imágenes 28 de AR proporcionan una primera capa de características visibles por el usuario 14 en el primer plano focal 180, asociado a la pantalla portátil 124 del dispositivo 16 de visualización portátil.
La realización ilustrada del proceso 300 también incluye recibir (bloque 306) datos indicativos de las imágenes 40 en 3-D que se mostrarán al usuario 14 a través de la pantalla fija 160 del sistema 42 de visualización 3-D. Como se discutió anteriormente, en algunas realizaciones en las que la pantalla fija 160 del sistema 42 de visualización 3-D es proporcionada por el dispositivo electrónico 210 de visualización, el procesador 164 del dispositivo electrónico 210 de visualización recibe los datos indicativos de las imágenes 40 en 3-D de la memoria 166 del dispositivo electrónico 210 de visualización. En algunas realizaciones en las que la pantalla fija 160 es la pantalla 161 de proyección y el sistema 42 de visualización 3-D incluye el proyector 162, el proyector 162 recibe los datos indicativos de las imágenes 40 en 3-D de la memoria 166 del proyector 162. En otras realizaciones, el sistema 60 de generación de gráficos por ordenador genera y proporciona los datos indicativos de las imágenes 40 en 3-D, directamente, al proyector 162 y/o al dispositivo electrónico 210 de visualización del sistema 42 de visualización 3-D. Los datos indicativos de las imágenes 40 en 3-D pueden, adicional o alternativamente, recibirse de los puertos de entrada/salida del proyector 162 o del dispositivo electrónico 210 de visualización, recuperarse de una base de datos, etc.
El proceso 300 incluye además mostrar (bloque 308) las imágenes 40 en 3-D a través del dispositivo 16 de visualización portátil. El sistema 42 de visualización 3-D presenta las imágenes 40 en 3-D en la pantalla fija 160 asociada al dispositivo electrónico 210 de visualización o a la pantalla 161 de proyección. Debe entenderse que los bloques 306 y 308 pueden realizarse, simultáneamente, en algunas realizaciones, de manera que las imágenes 40 en 3-D son recibidas por el procesador 164 y mostradas en la pantalla fija 160 del sistema 42 de visualización 3-D en tiempo real. Las imágenes 28 de AR y las imágenes 40 en 3-D pueden mostrarse en función de uno o múltiples factores, incluida la posición o ubicación del vehículo 252 de transporte de pasajeros a lo largo del recorrido 254 del paseo (p. ej., u otra ubicación cuando el recorrido del paseo no esté presente) en cualquier momento dado durante un ciclo del emocionante recorrido 256, una distancia predeterminada recorrida por el vehículo 252 de transporte de pasajeros durante un ciclo del emocionante recorrido 256, después de un lapso de tiempo predeterminado, o después de que el usuario 14 haya realizado una o más acciones, etc.
Mirando a través del componente 140 de visualización 3-D del dispositivo 16 de visualización portátil a la pantalla fija 160 del sistema 42 de visualización 3-D, el usuario 14 puede ver las imágenes 40 en 3-D en el segundo plano focal 182 asociado a la pantalla fija 160. Como se reconoce en la presente memoria, las imágenes 40 en 3-D se muestran al usuario 14 en combinación con las imágenes 28 de AR para contribuir a la temática del emocionante recorrido 256 experimentado por el usuario 14. Por lo tanto, las imágenes 40 en 3-D proporcionan una segunda capa de características que son visibles más allá de la primera capa de características proporcionada por las imágenes 28 de AR mostradas. En algunas realizaciones, el controlador maestro 62 coordina el funcionamiento del dispositivo 16 de visualización portátil y del sistema 42 de visualización 3-D (p. ej., a través del control anticipado) para proporcionar una experiencia multidimensional sin fisuras.
En las realizaciones del dispositivo 16 de visualización portátil con el sistema 200 de obturación activa con la capa 202 de cristal líquido como el componente 140 de visualización 3-D, el paso de mostrar (bloque 308) las imágenes 40 en 3-D a través del sistema 42 de visualización 3-D de la presente realización del proceso 300 incluye pasos adicionales, como se representan dentro del cuadro 310 de puntos. Es decir, en algunas realizaciones, el proceso 300 incluye recibir (bloque 312) una señal de coordinación del transmisor 220 del sistema 42 de visualización 3-D. El receptor 222 del dispositivo 16 de visualización portátil recibe la señal de coordinación del transmisor 220 a cualquier tasa o frecuencia adecuada. En algunas realizaciones, el receptor 222 recibe la señal de coordinación tanto cuando el dispositivo 16 de visualización portátil está, como cuando no está, orientado hacia el transmisor 220. El paso de mostrar (bloque 308) las imágenes 40 en 3-D a través del sistema 42 de visualización 3-D también incluye, en algunas realizaciones, coordinar (bloque 314) la obturación de la capa 202 de cristal líquido del dispositivo 16 de visualización portátil en función de la señal de coordinación. En otras palabras, el dispositivo 16 de visualización portátil abre o cierra, alternativamente, las partes de capa de cristal líquido para cada parte 30, 32 de visualización del conjunto 18 de visualización, mientras que el sistema 42 de visualización 3-D presenta perspectivas alternas de las imágenes 40 en 3-D mostradas para permitir que el usuario 14 perciba las imágenes 40 en 3-D a partir de las mismas.
En algunas realizaciones con múltiples pantallas fijas 160, como las presentadas anteriormente con referencia a la FIG. 4, el dispositivo 16 de visualización portátil puede generar imágenes 28 de AR específicas para coordinar con las imágenes 40 en 3-D visibles en la pantalla fija 16 que está frente al usuario 14. Como tal, el receptor 222 del dispositivo 16 de visualización portátil puede utilizar la señal de coordinación recibida de la pantalla fija 160 del sistema 42 de visualización 3-D hacia la cual está orientado el dispositivo 16 de visualización portátil. En algunas realizaciones, el controlador maestro 62 funciona como el transmisor 220, que puede omitirse. En dichas realizaciones, el controlador maestro 62 proporciona las señales de temporización o control a las pantallas fijas 160, que siguen un algoritmo de control maestro-esclavo (p. ej., sin componentes de temporización adicionales). Por lo tanto, la una o múltiples pantallas fijas 160 del sistema 42 de visualización 3-D pueden mostrar las imágenes 40 en 3-D para que los usuarios 14 puedan percibir las imágenes 40 en 3-D dentro del segundo plano focal 182, mientras que perciben, simultáneamente, las imágenes 28 de AR dentro del primer plano focal 180. Además, en algunas realizaciones con la capa 202 de cristal líquido, la capa 202 de cristal líquido puede dividirse en varias partes de píxeles que pueden activarse, individual y selectivamente, para corresponder a, o reflejar, las imágenes 28 de AR mostradas en la pantalla portátil 124. Como tal, la capa 202 de cristal líquido puede controlarse para que se vuelva opaca para bloquear la luz ambiental y aumentar el contraste para una visualización más eficiente de las imágenes 28 de AR.
La FIG. 6 ilustra un diagrama de flujo de una realización de un proceso 340 para proporcionar experiencias de AR y 3-D a múltiples usuarios 14 que utilizan el dispositivo 16 de visualización portátil con los sistemas 200 de obturación activa. El proceso 340 puede ser útil para crear la experiencia de AR y 3-D que es individualizada para cada usuario 14. De manera similar al proceso 300, el proceso 340 puede ser representativo de un código iniciado o instrucciones almacenadas en un medio legible por ordenador no transitorio (p. ej., la memoria 104, 112, 166, 186) y ejecutado, por ejemplo, por el procesador 102 del dispositivo 16 de visualización portátil, por el procesador 164 del sistema 42 de visualización 3-D, por el procesador 110 del sistema 60 de generación de gráficos por ordenador, y/o por el procesador 184 del controlador maestro 62. Los procesadores 102, 110, 164, y/o 184 están acoplados, de forma comunicativa, a través de la red inalámbrica 64, o cualquier otro componente de comunicación adecuado para recibir y enviar las instrucciones que se describen a continuación.
Como se indica en la presente memoria, el proceso 340 es similar al proceso 300, pero más específicamente dirigido a proporcionar experiencias de AR y 3-D individualizadas a múltiples usuarios 14 con dispositivos 16 de visualización portátiles con sistemas 200 de obturación activa. Por ejemplo, el proceso 340 incluye generar (bloque 342) imágenes 28 de AR respectivas para un primer usuario 14 y para un segundo usuario 14. De manera similar al bloque 302 del proceso 300, las imágenes 28 de AR son generadas por el sistema 60 de generación de gráficos por ordenador para cada usuario 14 en función de ciertos factores asociados a cada usuario 14. Por ejemplo, las imágenes 28 de AR pueden generarse en función de la dirección que mira el usuario 14, de una posición del usuario 14 dentro del vehículo 252 de transporte de pasajeros, de un grupo al que está asignado cada usuario 14, de una posición del vehículo 252 de transporte de pasajeros a lo largo del recorrido 254 del paseo, etc. De manera similar al bloque 304 del proceso 300, el proceso 340 también incluye mostrar (bloque 344) las imágenes 28 de AR a través del respectivo dispositivo 16 de visualización portátil asociado a cada usuario 14. De esta manera, un primer usuario 14 puede ver un primer conjunto de imágenes 28 de AR que están personalizadas para el primer usuario 14, mientras que el segundo usuario 14 puede ver un segundo conjunto de imágenes 28 de AR que están personalizadas para el segundo usuario 14.
Con respecto a la visualización de las imágenes 40 en 3-D, similar al bloque 306 del proceso 300, el proceso 340 incluye recibir (bloque 346) datos indicativos de las imágenes 40 en 3-D que se mostrarán a cada usuario 14. Por ejemplo, los dispositivos electrónicos 270, 272 de visualización recuperan las imágenes 40 en 3-D a visualizar de la respectiva memoria 166 de los dispositivos electrónicos 270, 272 de visualización. En otras realizaciones, el sistema 60 de generación de gráficos por ordenador genera las imágenes 40 en 3-D para cada usuario 14 in situ, en función de datos de sensores recopilados por los dispositivos 16 de visualización portátiles asociados a cada usuario 14, luego proporciona las imágenes 40 en 3-D a los dispositivos electrónicos 270, 272 de visualización. En algunas realizaciones, las imágenes 40 en 3-D se proporcionan al sistema 42 de visualización 3-D como una señal multiplexada, que es demultiplexada por el sistema 40 de visualización 3-D para una visualización individualizada a los usuarios 14.
Además, el proceso 340 incluye recibir (bloque 348) la señal de coordinación del sistema 42 de visualización 3-D. Es decir, los receptores 222 de los dispositivos 16 de visualización portátiles reciben las señales de coordinación de los transmisores 220 de los dispositivos electrónicos 270, 272 de visualización. La presente realización del proceso 340 también incluye coordinar (bloque 350) la obturación de los respectivos sistemas 200 de obturación activa de los dispositivos 16 de visualización portátiles. Es decir, los sistemas 200 de obturación activa de los dispositivos 16 de visualización portátiles se accionan, secuencialmente (p.ej., abierto, hecho transparente), en un orden en particular para proporcionar imágenes 40 en 3-D personalizadas a cada usuario 14. Por ejemplo, los sistemas 200 de obturación activa pueden coordinarse para accionar, secuencialmente, uno de: la primera parte 30 de visualización de las lentes de obturación activa del dispositivo 16 de visualización portátil de un primer usuario 14 (o grupo de usuarios) durante un primer período de tiempo, la primera parte 30 de visualización de las lentes de obturación activa del dispositivo 16 de visualización portátil de un segundo usuario 14 durante un segundo período de tiempo, la segunda parte 32 de visualización de las lentes de obturación activa del dispositivo 16 de visualización portátil del primer usuario 14 durante un tercer período de tiempo, y la segunda parte 32 de visualización de las lentes de obturación activa del dispositivo 16 de visualización portátil del segundo usuario 14 durante un cuarto período de tiempo. La secuencia puede repetirse rápidamente, de manera que cada parte del ojo se active entre 50 y 100 veces por segundo. Como se indica en la presente memoria, los períodos primero, segundo, tercero, y cuarto de tiempo están desplazados entre sí en algunas realizaciones. Simultáneamente, el proceso 340 incluye mostrar (bloque 352) respectivas imágenes 40 en 3-D en los dispositivos electrónicos 270, 272 de visualización para ser vistas por los usuarios 14. Las imágenes 28 de AR mostradas a través de los dispositivos 16 de visualización portátiles de cada usuario 14 se ajustan, simultáneamente, para corresponder con las imágenes 40 en 3-D que se muestran a cada usuario 14.
En otras palabras, para las realizaciones del dispositivo 16 de visualización portátil con el sistema 200 de obturación activa, pueden presentarse dos o más presentaciones 3-D superpuestas en el tiempo, casi simultáneamente, a los usuarios 14 para proporcionar imágenes 40 en 3-D individualizadas para el primer usuario 14 (p. ej., una o más características 3-D descifradas) e imágenes 40 en 3-D individualizadas para el segundo usuario 14 (p. ej., una o más segundas características 3-D descifradas), incluso desde una única pantalla fija 160. Aunque se describe con referencia a dos usuarios 14, debe entenderse que pueden utilizarse conceptos similares a los discutidos con referencia al proceso 340 para proporcionar contenido 3-D y AR individualizado a cualquier número adecuado de usuarios 14 o grupos de los mismos. En consecuencia, el sistema de visualización AR y 3-D descrito en la presente memoria puede ajustar, de forma adaptativa, una temática del emocionante recorrido 256 o contribuir a cualquier otro entorno adecuado para proporcionar contenido individualizado e inmersivo a través de múltiples planos focales a los usuarios 14.
Si bien en la presente memoria sólo se han ilustrado y descrito ciertas características de la descripción, a los expertos en la técnica se les ocurrirán muchas modificaciones y cambios. El alcance de la invención está definido por las reivindicaciones adjuntas.
Claims (15)
1. Un sistema de visualización de realidad aumentada (AR) y tridimensional (3-D) para proporcionar una experiencia de AR y 3-D a un usuario, comprendiendo el sistema:
un controlador (62) del programa;
un dispositivo (16) de visualización portátil acoplado, de forma comunicativa, al controlador (62) del programa y que comprende un conjunto (18) de visualización a través del cual el usuario es capaz de ver un entorno del mundo real, en donde el conjunto (18) de visualización comprende:
una primera pantalla configurada para mostrar una o más características de AR; y
un componente de visualización 3-D que permite al usuario percibir una pluralidad de imágenes bidimensionales (2-D) codificadas como una o más características 3-D descifradas,
en donde el componente de visualización 3-D comprende lentes de obturación activa, y
en donde el conjunto (18) de visualización se configura para coordinar el accionamiento de las lentes de obturación activa durante un primer intervalo de tiempo periódico; y
un segundo dispositivo (16) de visualización portátil acoplado, de forma comunicativa, al controlador (62) del programa y que comprende un segundo conjunto (18) de visualización a través del cual un segundo usuario es capaz de ver el entorno del mundo real, en donde el segundo conjunto (18) de visualización comprende: una segunda pantalla configurada para mostrar una o más segundas características de AR; y
un segundo componente de visualización 3-D que permite al segundo usuario percibir una pluralidad de segundas imágenes en 2-D codificadas como una o más características 3-D descifradas, en donde el segundo componente de visualización 3-D comprende unas segundas lentes de obturación activa, y en donde el segundo conjunto (18) de visualización se configura para coordinar el accionamiento de las segundas lentes de obturación activa durante un segundo intervalo de tiempo periódico, desplazado del primer intervalo de tiempo periódico, y en donde la una o más características 3-D descifradas y la una o más segundas características 3-D descifradas son diferentes entre sí; y
un sistema (42) de visualización 3-D acoplado, de forma comunicativa, al controlador (62) del programa y que comprende una pluralidad de terceras pantallas, en donde cada tercera pantalla de la pluralidad de terceras pantallas se configura para mostrar partes respectivas de la pluralidad de imágenes en 2-D codificadas y de la pluralidad de segundas imágenes en 2-D codificadas, en función de las señales de control proporcionadas al sistema (42) de visualización 3-D por el controlador (62) del programa, y en donde el sistema (42) de visualización 3-D está dispuesto dentro del entorno del mundo real.
2. El sistema de visualización AR y 3-D de la reivindicación 1, en donde el componente de visualización 3-D comprende revestimientos filtrantes de la luz dispuestos en la primera pantalla.
3. El sistema de visualización AR y 3-D de la reivindicación 2, en donde los revestimientos filtrantes de la luz comprenden un primer filtro de lente anaglifo para una primera parte de la primera pantalla y un segundo filtro de lente anaglifo para una segunda parte de la primera pantalla, o en donde los revestimientos filtrantes de luz comprenden un primer filtro de lente polarizada para una primera parte de la primera pantalla y un segundo filtro de lente polarizada para una segunda parte de la primera pantalla.
4. El sistema de visualización AR y 3-D de la reivindicación 1, en donde las lentes de obturación activa comprenden una capa (202) de cristal líquido dispuesta adyacente a la primera pantalla, en donde una primera parte de la capa (202) de cristal líquido se configura para volverse opaca en respuesta a una señal de control, y en donde una segunda parte de la capa (202) de cristal líquido se configura para volverse o permanecer transparente en respuesta a la señal de control.
5. El sistema de visualización AR y 3-D de la reivindicación 1, en donde el sistema (42) de visualización 3-D comprende un proyector (162) configurado para transmitir partes respectivas de la pluralidad de imágenes en 2-D codificadas en cada tercera pantalla de la pluralidad de terceras pantallas, y en donde la, al menos una, tercera pantalla comprende una pantalla de proyección, o en donde, al menos, una tercera pantalla del sistema (42) de visualización 3-D comprende un dispositivo electrónico (210) de visualización configurado para generar y mostrar las partes respectivas de la pluralidad de imágenes en 2-D codificadas.
6. El sistema de visualización AR y 3-D de la reivindicación 1, en donde la una o más características 3-D descifradas están individualizadas para el usuario, y en donde la una o más segundas características 3-D descifradas están individualizadas para el segundo usuario.
7. El sistema de visualización AR y 3-D de la reivindicación 1, en donde las lentes de obturación activa están dispuestas adyacentes a la primera pantalla, en donde las segundas lentes de obturación activa están dispuestas adyacentes a la segunda pantalla, y en donde el sistema (42) de visualización 3-D comprende un transmisor (220) configurado para transmitir una señal que permite que las lentes de obturación activa y las segundas lentes de obturación activa se sincronicen con una frecuencia de actualización del sistema (42) de visualización 3-D.
8. El sistema de visualización AR y 3-D de la reivindicación 7, en donde el controlador (62) del programa se configura para permitir que la una o más características 3-D descifradas y la una o más segundas características 3-D descifradas sean diferentes entre sí mediante el controlador (62) del programa que está configurado para:
accionar una primera parte de visualización de las lentes de obturación activa durante un primer período de tiempo; y
accionar una segunda parte de visualización de las lentes de obturación activa durante un segundo período de tiempo;
accionar una primera parte de visualización de las segundas lentes de obturación activa durante un tercer período de tiempo; y
accionar una segunda parte de visualización de las segundas lentes de obturación activa durante un cuarto período de tiempo, en donde los períodos de tiempo primero, segundo, tercero y cuarto están desplazados entre sí.
9. El sistema de visualización AR y 3-D de la reivindicación 1, en donde las partes del ojo izquierdo de la pluralidad de imágenes en 2-D codificadas están desplazadas con respecto a las partes del ojo derecho de la pluralidad de imágenes en 2-D codificadas para permitir que el usuario perciba la una o características 3-D descifradas, o en donde el controlador (62) del programa comprende un procesador (184) configurado para instruir a un sistema (60) de generación de gráficos por ordenador para instruir a cada tercera pantalla de la pluralidad de terceras pantallas para que muestre las partes respectivas de la pluralidad de imágenes en 2-D codificadas en función de una orientación del usuario, de una posición del usuario, de un movimiento del usuario, o de una combinación de los mismos.
10. El sistema de visualización AR y 3-D de la reivindicación 1, en donde el componente de visualización 3-D comprende un conjunto de procesamiento 3-D, comprendiendo el conjunto de procesamiento 3-D una primera capa de filtrado 3-D para una primera parte del ojo de la primera pantalla y una segunda capa de filtrado 3-D para una segunda parte del ojo de la primera pantalla, en donde la primera capa de filtrado 3-D y la segunda capa de filtrado 3-D cooperan para permitir que el usuario perciba la pluralidad de imágenes en 2-D codificadas como una o más características 3-D descifradas, y en donde el conjunto de procesamiento 3-D comprende las lentes de obturación activa; y en donde el sistema (42) de visualización 3-D está separado del dispositivo (16) de visualización portátil y del segundo dispositivo (16) de visualización portátil.
11. El sistema de visualización AR y 3-D de la reivindicación 10, en donde las partes respectivas de la pluralidad de imágenes en 2-D codificadas presentadas por cada tercera pantalla de la pluralidad de terceras pantallas comprenden perspectivas relativamente desplazadas de un objeto, y en donde el conjunto de procesamiento 3-D permite que el usuario decodifique, ópticamente, las partes respectivas de la pluralidad de imágenes en 2-D codificadas percibiendo que el objeto tiene profundidad desde las perspectivas desplazadas del objeto.
12. El sistema de visualización AR y 3-D de la reivindicación 10, en donde la primera capa de filtrado 3-D comprende un primer revestimiento con un primer efecto óptico, y en donde la segunda capa de filtrado 3-D comprende un segundo revestimiento con un segundo efecto óptico que es diferente del primer efecto óptico, o en donde la primera capa de filtrado 3-D comprende una primera lente de obturador activo y en donde la segunda capa de filtrado 3-D comprende una segunda lente de obturador activo.
13. El sistema de visualización AR y 3-D de la reivindicación 1, en donde la primera pantalla se configura para mostrar la una o más características de AR dentro de un primer plano focal;
el componente de visualización 3-D permite que el usuario perciba una o más imágenes en 2-D codificadas como una o más imágenes en 3-D descifradas dentro de un segundo plano focal, en donde el primer plano focal y el, al menos uno, segundo plano focal son independientes entre sí; y
la segunda pantalla se configura para mostrar la una o más segundas características de AR dentro de un tercer plano focal;
el segundo componente de visualización 3-D permite que el usuario perciba una o más imágenes en 2-D codificadas como una o más imágenes en 3-D descifradas dentro de un cuarto plano focal, en donde el tercer plano focal y el cuarto plano focal son independientes entre sí.
14. El sistema de visualización AR y 3-D de la reivindicación 13, que comprende un sistema (60) de generación de gráficos por ordenador que comprende un procesador (110) configurado para:
generar la una o más características de AR y la una o más segundas características de AR, proporcionar la una o más características de AR al dispositivo (16) de visualización portátil, y proporcionar la una o más segundas características de AR al segundo dispositivo (16) de visualización portátil;
generar la pluralidad de imágenes en 2-D codificadas y la pluralidad de segundas imágenes en 2-D codificadas, y proporcionar las respectivas partes de la pluralidad de imágenes en 2-D codificadas y de la pluralidad de segundas imágenes en 2-D codificadas a cada tercera pantalla de la pluralidad de terceras pantallas; y en donde el controlador (62) del programa se configura para coordinar la presentación de la una o más características de AR, la una o más segundas características de AR, la pluralidad de imágenes en 2-D codificadas, y la pluralidad de segundas imágenes en 2-D codificadas.
15. El sistema de visualización AR y 3-D de la reivindicación 13, en donde el procesador (110) del sistema (60) de generación de gráficos por ordenador se configura para generar la una o más características de AR y la pluralidad de imágenes en 2-D codificadas en función de una orientación del usuario, de una posición del usuario, de un movimiento del usuario, o de una combinación de los mismos.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201862737275P | 2018-09-27 | 2018-09-27 | |
| US16/174,263 US10777012B2 (en) | 2018-09-27 | 2018-10-29 | Display systems in an entertainment environment |
| PCT/US2019/051777 WO2020068520A1 (en) | 2018-09-27 | 2019-09-18 | Display systems in an entertainment environment |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2972485T3 true ES2972485T3 (es) | 2024-06-13 |
Family
ID=69946387
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES19779719T Active ES2972485T3 (es) | 2018-09-27 | 2019-09-18 | Sistemas de visualización en un entorno de entretenimiento |
Country Status (10)
| Country | Link |
|---|---|
| US (1) | US10777012B2 (es) |
| EP (1) | EP3856379B1 (es) |
| JP (1) | JP7331090B2 (es) |
| KR (1) | KR102818276B1 (es) |
| CN (1) | CN112739438B (es) |
| CA (1) | CA3111588A1 (es) |
| ES (1) | ES2972485T3 (es) |
| MY (1) | MY207217A (es) |
| SG (1) | SG11202102101YA (es) |
| WO (1) | WO2020068520A1 (es) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11774770B2 (en) * | 2020-06-03 | 2023-10-03 | Universal City Studios Llc | Interface device with three-dimensional (3-D) viewing functionality |
| US11559749B2 (en) * | 2020-08-18 | 2023-01-24 | Universal City Studios Llc | Systems and methods for thrust-vectored practical fluid flow effects |
| US11756376B2 (en) * | 2020-09-29 | 2023-09-12 | Universal City Studios Llc | Guest-facing game information management systems and methods |
| US11794121B1 (en) * | 2020-12-09 | 2023-10-24 | Falcon's Beyond Brands, Llc | Theme or amusement park attraction using high frame rate active shutter technology |
| CN112904473A (zh) * | 2021-01-28 | 2021-06-04 | 武汉华星光电技术有限公司 | 导光板、背光模组、头戴显示设备 |
| USD1023209S1 (en) | 2022-05-26 | 2024-04-16 | Sally Industries, Inc. | Indoor amusement ride |
Family Cites Families (53)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002532795A (ja) | 1998-12-07 | 2002-10-02 | ユニバーサル シティ スタジオズ インコーポレイテッド | 視点画像ゆがみを補償するための画像補正方法 |
| US20100079585A1 (en) | 2008-09-29 | 2010-04-01 | Disney Enterprises, Inc. | Interactive theater with audience participation |
| US8427590B2 (en) | 2009-05-29 | 2013-04-23 | Soraa, Inc. | Laser based display method and system |
| FR2955409B1 (fr) | 2010-01-18 | 2015-07-03 | Fittingbox | Procede d'integration d'un objet virtuel dans des photographies ou video en temps reel |
| US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
| US20130278631A1 (en) | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
| JP5499854B2 (ja) * | 2010-04-08 | 2014-05-21 | ソニー株式会社 | 頭部装着型ディスプレイにおける光学的位置調整方法 |
| US8890941B2 (en) * | 2010-04-29 | 2014-11-18 | Virginia Venture Industries, Llc | Methods and apparatuses for viewing three dimensional images |
| US9994228B2 (en) | 2010-05-14 | 2018-06-12 | Iarmourholdings, Inc. | Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment |
| US20120004919A1 (en) | 2010-06-30 | 2012-01-05 | Broadcom Corporation | Three-dimensional glasses with bluetooth audio decode |
| EP2625845B1 (en) | 2010-10-04 | 2021-03-03 | Gerard Dirk Smits | System and method for 3-d projection and enhancements for interactivity |
| US20130063560A1 (en) * | 2011-09-12 | 2013-03-14 | Palo Alto Research Center Incorporated | Combined stereo camera and stereo display interaction |
| US20130083008A1 (en) | 2011-09-30 | 2013-04-04 | Kevin A. Geisner | Enriched experience using personal a/v system |
| US9268406B2 (en) * | 2011-09-30 | 2016-02-23 | Microsoft Technology Licensing, Llc | Virtual spectator experience with a personal audio/visual apparatus |
| US10514542B2 (en) | 2011-12-19 | 2019-12-24 | Dolby Laboratories Licensing Corporation | Head-mounted display |
| CN103472909B (zh) | 2012-04-10 | 2017-04-12 | 微软技术许可有限责任公司 | 用于头戴式、增强现实显示器的逼真遮挡 |
| JP5891125B2 (ja) * | 2012-06-29 | 2016-03-22 | 株式会社ソニー・コンピュータエンタテインメント | 映像処理装置、映像処理方法、および映像処理システム |
| JP5483761B2 (ja) * | 2012-06-29 | 2014-05-07 | 株式会社ソニー・コンピュータエンタテインメント | 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法 |
| KR101209854B1 (ko) | 2012-09-11 | 2012-12-11 | 신동호 | 시뮬레이터용 3차원 운동장치 |
| US10371943B2 (en) | 2013-03-14 | 2019-08-06 | Valve Corporation | Method and system to control the focus depth of projected images |
| US10019057B2 (en) * | 2013-06-07 | 2018-07-10 | Sony Interactive Entertainment Inc. | Switching mode of operation in a head mounted display |
| US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
| US9986228B2 (en) * | 2016-03-24 | 2018-05-29 | 3Di Llc | Trackable glasses system that provides multiple views of a shared display |
| US20160011422A1 (en) | 2014-03-10 | 2016-01-14 | Ion Virtual Technology Corporation | Method and system for reducing motion blur when experiencing virtual or augmented reality environments |
| US20150358539A1 (en) | 2014-06-06 | 2015-12-10 | Jacob Catt | Mobile Virtual Reality Camera, Method, And System |
| WO2016025962A1 (en) | 2014-08-15 | 2016-02-18 | The University Of Akron | Device and method for three-dimensional video communication |
| US9690375B2 (en) | 2014-08-18 | 2017-06-27 | Universal City Studios Llc | Systems and methods for generating augmented and virtual reality images |
| CN105828021A (zh) | 2015-01-05 | 2016-08-03 | 沈阳新松机器人自动化股份有限公司 | 基于增强现实技术的特种机器人图像采集控制方法及系统 |
| US20160371884A1 (en) | 2015-06-17 | 2016-12-22 | Microsoft Technology Licensing, Llc | Complementary augmented reality |
| US9918074B2 (en) | 2015-06-18 | 2018-03-13 | Disney Enterprises, Inc. | Three dimensional (3D) stereo display systems for creating 3D effects for viewers wearing 3D glasses |
| CN205003369U (zh) | 2015-09-10 | 2016-01-27 | 上海理鑫光学科技有限公司 | 三维增强现实系统 |
| US11112266B2 (en) | 2016-02-12 | 2021-09-07 | Disney Enterprises, Inc. | Method for motion-synchronized AR or VR entertainment experience |
| WO2017165301A1 (en) * | 2016-03-21 | 2017-09-28 | Washington University | Virtual reality or augmented reality visualization of 3d medical images |
| US20170323482A1 (en) * | 2016-05-05 | 2017-11-09 | Universal City Studios Llc | Systems and methods for generating stereoscopic, augmented, and virtual reality images |
| CN106101689B (zh) | 2016-06-13 | 2018-03-06 | 西安电子科技大学 | 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法 |
| KR102568897B1 (ko) * | 2016-08-16 | 2023-08-21 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
| DE102016215860A1 (de) | 2016-08-24 | 2018-03-01 | Siemens Aktiengesellschaft | Trackingloses projektionsbasiertes "Augmented Reality [AR]"-Verfahren und -System zur Montageunterstützung von Produktionsgütern, insbesondere zum Lokalisieren von Nutensteinen für die Bauteilmontage im Waggonbau |
| CN106331682B (zh) | 2016-08-24 | 2018-05-11 | 同济大学 | 一种互动区域可调的增强现实云台系统 |
| CN106371586B (zh) | 2016-08-24 | 2018-10-26 | 同济大学 | 一种互动区域可调的增强现实实现方法 |
| CN106371211B (zh) | 2016-10-18 | 2018-08-24 | 上海蓝眸多媒体科技有限公司 | 一种基于透明成像玻璃的增强现实眼镜 |
| CN106371210B (zh) | 2016-10-18 | 2018-05-25 | 上海蓝眸多媒体科技有限公司 | 一种基于透明成像玻璃的增强现实眼镜 |
| CN206584583U (zh) | 2016-10-19 | 2017-10-24 | 华南理工大学 | 基于增强现实和生物反馈的驾驶培训系统 |
| CN106693361A (zh) | 2016-12-23 | 2017-05-24 | 武汉市马里欧网络有限公司 | 一种基于超声波手势识别的ar换装游戏投影方法及系统 |
| CN106483814A (zh) | 2016-12-26 | 2017-03-08 | 岭南师范学院 | 一种基于增强现实的3d全息投影系统及其使用方法 |
| CN206348604U (zh) | 2016-12-26 | 2017-07-21 | 岭南师范学院 | 一种基于增强现实的3d全息投影系统 |
| WO2018126220A1 (en) * | 2016-12-30 | 2018-07-05 | Holonyne Corporation | Virtual display engine |
| CN107016730A (zh) | 2017-04-14 | 2017-08-04 | 陈柳华 | 一种虚拟现实与真实场景融合的装置 |
| CN107027015A (zh) | 2017-04-28 | 2017-08-08 | 广景视睿科技(深圳)有限公司 | 基于增强现实的3d动向投影系统以及用于该系统的投影方法 |
| CN206788558U (zh) | 2017-05-10 | 2017-12-22 | 大连新锐天地传媒有限公司 | 一种基于增强现实的全息投影装置 |
| CN207059896U (zh) | 2017-07-28 | 2018-03-02 | 合肥芯福传感器技术有限公司 | 用于车辆安全倒车的ar投影系统 |
| CN107399276A (zh) | 2017-07-28 | 2017-11-28 | 合肥芯福传感器技术有限公司 | 用于车辆安全倒车的ar投影系统及投影方法 |
| CN107561710A (zh) | 2017-09-29 | 2018-01-09 | 塔普翊海(上海)智能科技有限公司 | 一种基于三维激光全息投影技术的头戴显示系统 |
| CN107561714A (zh) | 2017-10-25 | 2018-01-09 | 上海驾馥电子科技有限公司 | 一种通过3d显示技术增强现实的抬头显示器 |
-
2018
- 2018-10-29 US US16/174,263 patent/US10777012B2/en active Active
-
2019
- 2019-09-18 WO PCT/US2019/051777 patent/WO2020068520A1/en not_active Ceased
- 2019-09-18 EP EP19779719.4A patent/EP3856379B1/en active Active
- 2019-09-18 SG SG11202102101YA patent/SG11202102101YA/en unknown
- 2019-09-18 MY MYPI2021001110A patent/MY207217A/en unknown
- 2019-09-18 KR KR1020217012509A patent/KR102818276B1/ko active Active
- 2019-09-18 CN CN201980063713.3A patent/CN112739438B/zh active Active
- 2019-09-18 JP JP2021516819A patent/JP7331090B2/ja active Active
- 2019-09-18 ES ES19779719T patent/ES2972485T3/es active Active
- 2019-09-18 CA CA3111588A patent/CA3111588A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| US20200105061A1 (en) | 2020-04-02 |
| JP7331090B2 (ja) | 2023-08-22 |
| JP2022502699A (ja) | 2022-01-11 |
| EP3856379B1 (en) | 2023-11-29 |
| CA3111588A1 (en) | 2020-04-02 |
| CN112739438B (zh) | 2023-05-23 |
| US10777012B2 (en) | 2020-09-15 |
| EP3856379A1 (en) | 2021-08-04 |
| MY207217A (en) | 2025-02-06 |
| WO2020068520A1 (en) | 2020-04-02 |
| KR20210062690A (ko) | 2021-05-31 |
| SG11202102101YA (en) | 2021-04-29 |
| CN112739438A (zh) | 2021-04-30 |
| KR102818276B1 (ko) | 2025-06-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2972485T3 (es) | Sistemas de visualización en un entorno de entretenimiento | |
| US12469230B2 (en) | Systems and methods for generating stereoscopic, augmented, and virtual reality images | |
| JP7655887B2 (ja) | 遊園地環境における層状仮想特徴のためのシステム及び方法 | |
| US20250117075A1 (en) | Systems and methods for generating augmented and virtual reality images | |
| JP2013513833A (ja) | 立体画像を提供するためのシステム及び方法 | |
| JP2023529375A (ja) | 3次元(3-d)視覚機能付きインタフェースデバイス | |
| HK40051493B (en) | Display systems in an entertainment environment | |
| HK40051493A (en) | Display systems in an entertainment environment | |
| HK40016432B (zh) | 用於游乐园环境中的分层虚拟特徵的系统和方法 | |
| HK40001050A (en) | Systems and methods for generating stereoscopic, augmented, and virtual reality images | |
| HK40016432A (en) | Systems and methods for layered virtual features in an amusement park environment | |
| HK40001050B (zh) | 用於生成立体的、增强的和虚拟现实图像的系统和方法 |