[go: up one dir, main page]

ES2791823T3 - Correlación de contenido basado en dispositivo móvil para entorno de realidad aumentada - Google Patents

Correlación de contenido basado en dispositivo móvil para entorno de realidad aumentada Download PDF

Info

Publication number
ES2791823T3
ES2791823T3 ES11727622T ES11727622T ES2791823T3 ES 2791823 T3 ES2791823 T3 ES 2791823T3 ES 11727622 T ES11727622 T ES 11727622T ES 11727622 T ES11727622 T ES 11727622T ES 2791823 T3 ES2791823 T3 ES 2791823T3
Authority
ES
Spain
Prior art keywords
mobile device
media content
content item
region
dimensional feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11727622T
Other languages
English (en)
Inventor
Anne Katrin Konertz
Virginia Walker Keating
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2791823T3 publication Critical patent/ES2791823T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Un procedimiento implementado por ordenador, que comprende: extraer una característica tridimensional de un objeto real captado en una vista de cámara de un dispositivo móvil; conectar una región de presentación para un elemento de contenido de medios a al menos una parte de la característica tridimensional como respuesta a una entrada de usuario recibida en el dispositivo móvil, en el que el usuario define la colocación de la región de presentación en relación con la característica tridimensional mediante manipulación, desplazamiento y/o redimensionamiento de la región de presentación usando una interfaz gráfica de usuario; y definir una región de activación para el elemento de contenido de medios en relación con la característica tridimensional extraída, en el que una presentación del elemento de contenido de medios en un dispositivo móvil responde a la entrada de ese dispositivo móvil dentro de la región de activación.

Description

d e s c r ip c ió n
Correlación de contenido basado en dispositivo móvil para entorno de realidad aumentada
a n t e c e d e n t e s
1. Campo
[0001] La materia objeto divulgada en el presente documento se refiere a dispositivos electrónicos y, más en particular, a procedimientos, aparatos y sistemas para su uso en y/o con entornos de realidad aumentada para dispositivos electrónicos móviles.
2. Información
[0002] Los dispositivos informáticos móviles (dispositivos móviles) proporcionan a los usuarios acceso a una variedad de información por medio de sistemas de comunicación inalámbrica. En un ejemplo, los dispositivos móviles pueden usar sistemas de posicionamiento, tales como los sistemas de posicionamiento basados en satélites y/o terrestres que incluyen, por ejemplo, el sistema de posicionamiento global (GPS) u otros como el sistema mundial de navegación por satélite (GNSS), redes celulares inalámbricas y/o redes inalámbricas de área local tales como wifi o WiMAX, para obtener información de posicionamiento geográfico. En otro ejemplo, los dispositivos móviles habilitados para su uso con redes celulares inalámbricas y/o redes inalámbricas de área local tales como wifi o WiMAX proporcionan a los usuarios acceso a una vasta cantidad de recursos de información de Internet. Los dispositivos móviles también pueden permitir a los usuarios explorar entornos de realidad aumentada que proporcionan una vista en tiempo real de un entorno físico real que se fusiona o aumenta con contenido gráfico generado por ordenador. Por ejemplo, una cámara que reside en un dispositivo móvil se puede usar junto con una pantalla gráfica para presentar al usuario información complementaria en relación con puntos de interés que se captan en una vista de cámara del dispositivo móvil. Dicha información complementaria puede formar una capa de información que se superpone a unos objetos reales que se captan en una vista de cámara del dispositivo móvil.
b r e v e e x p l ic a c ió n
[0003] Las implementaciones relacionadas con el despliegue de contenido de medios dentro de un entorno de realidad aumentada se divulgan en un contexto informático móvil. En al menos una implementación, se proporciona un procedimiento que incluye extraer una característica tridimensional de un objeto real captado en una vista de cámara de un dispositivo móvil, y conectar una región de presentación para un elemento de contenido de medios a al menos una parte de la característica tridimensional como respuesta a una entrada del usuario recibida en el dispositivo móvil.
b r e v e d e s c r ip c ió n d e l o s d ib u j o s
[0004] Se describen aspectos no limitantes y no exhaustivos con referencia a las figuras siguientes, en las que números de referencia iguales se refieren a partes iguales en la totalidad de las diversas figuras, a menos que se especifique lo contrario.
La FIG. 1 es un diagrama de bloques esquemático de un ejemplo de entorno de red de acuerdo con una implementación.
La FIG. 2 es un diagrama de bloques esquemático de un ejemplo de dispositivo móvil de acuerdo con una implementación.
La FIG. 3 es un diagrama de flujo que ilustra un ejemplo de proceso para definir un entorno de realidad aumentada y desplegar contenido de medios dentro de ese entorno de realidad aumentada de acuerdo con una implementación.
Las FIGS. 4 - 9 muestran interfaces gráficas de usuario de un ejemplo de entorno de realidad aumentada de acuerdo con diversas implementaciones.
d e s c r ip c ió n d e t a l l a d a
[0005] Las implementaciones relativas a entornos de realidad aumentada se divulgan en un contexto informático móvil. Las herramientas de creación de realidad aumentada que son accesibles por medio de un dispositivo móvil permiten a los usuarios de dispositivos móviles definir un entorno de realidad aumentada y desplegar contenido de medios, tal como imágenes que incluyen fotos u otros elementos gráficos, vídeos, animaciones, texto y audio dentro de ese entorno de realidad aumentada. Otros usuarios de dispositivos móviles que exploran el entorno de realidad aumentada por medio de sus respectivos dispositivos móviles pueden acceder a un contenido de medios que un usuario de dispositivo móvil en particular despliega.
[0006] Las características tridimensionales de objetos reales, tales como estructuras de edificios u otros objetos de interés adecuados que se captan en una vista de cámara de un dispositivo móvil se pueden extraer, por ejemplo, mediante aplicación de técnicas de reconocimiento de objetos para obtener representaciones electrónicas de las características tridimensionales. Dichas representaciones electrónicas pueden comprender múltiples puntos (clave) con sus descriptores asociados obtenidos de la vista de cámara de las características tridimensionales. Además, también se pueden obtener representaciones electrónicas, por ejemplo, de una biblioteca de características preexistente que contiene modelos de diseño asistido por ordenador (CAD) y/o exploraciones ópticas de dichos objetos reales. Un usuario de dispositivo móvil puede definir capas de información que admiten entornos de realidad aumentada, a través de la aplicación de una o más regiones de presentación y/o regiones de activación que se pueden conectar a dichas representaciones electrónicas de características tridimensionales extraídas.
[0007] Un usuario puede desplegar una región de presentación para un elemento de contenido de medios en un entorno de realidad aumentada con el propósito de definir una ubicación (por ejemplo, una posición y/o una orientación) donde el elemento de contenido de medios se presenta dentro de ese entorno de realidad aumentada. Un usuario puede desplegar una región de activación para un elemento de contenido de medios dentro de un entorno de realidad aumentada con el propósito de definir condiciones para cómo y/o cuándo se puede habilitar y/o iniciar la presentación del elemento de contenido de medios en una región de presentación asociada, como respuesta a una entrada de usuario y/o una posición y/o una orientación estimada de dispositivo móvil. Estos y otros aspectos se describirán con mayor detalle con referencia a la siguiente descripción escrita y las figuras asociadas.
[0008] La FIG. 1 es un diagrama de bloques esquemático de un ejemplo de entorno de red 100 de acuerdo con una implementación. El entorno de red 100 puede incluir cualquier número de dispositivos móviles tales como, por ejemplo, los dispositivos móviles 120 y 130. Los dispositivos móviles 120 y 130 se pueden comunicar inalámbricamente con un sistema de servidor 110 por medio de la red 140. Los dispositivos móviles 120 y 130 pueden comprender cualquier plataforma informática móvil adecuada, que incluye un teléfono celular, un teléfono inteligente, un asistente digital personal, un dispositivo de comunicación de bajo ciclo de trabajo, un ordenador portátil, un dispositivo reproductor de medios portátil, un dispositivo de navegación personal y un dispositivo electrónico portátil que comprende una cámara digital, por nombrar solo algunos ejemplos. Además, en algunas implementaciones, los dispositivos móviles 120 y 130 pueden comprender gafas portátiles de realidad aumentada (por ejemplo, visores) que incluyen una o más lentes para visualizar contenido gráfico tal como unas capas de información de realidad aumentada sobre objetos reales que se pueden ver a través de dichas lentes. El entorno de red 100 puede incluir además plataformas informáticas no móviles tales como la plataforma informática 122 que también se puede comunicar con el sistema de servidor 110 por medio de la red 140. En al menos algunas implementaciones, un dispositivo móvil puede estar adaptado para comunicarse acoplándose a la plataforma informática 122 mediante comunicación alámbrica o inalámbrica, por ejemplo, sin utilizar la red 140.
[0009] La red 140 puede comprender una o más de una red de área amplia (por ejemplo, Internet), una red de área local (por ejemplo, una intranet) y/o una red de área personal. Por ejemplo, los dispositivos móviles 120 y 130 se pueden comunicar inalámbricamente con el sistema de servidor 110 por medio de cualquier protocolo de comunicación adecuado, incluyendo unos protocolos de comunicación celular tales como CDMA, GSM o WCDMA y/o unos protocolos de red inalámbrica de área local (WLAN) tal como wifi o WiMAX. En consecuencia, la red 140 puede incluir uno o más transceptores inalámbricos en dichas implementaciones. Los dispositivos móviles 120 y 130 también pueden utilizar los transceptores inalámbricos de la red 140 para obtener información de posicionamiento para estimar la posición de un dispositivo móvil.
[0010] En algunas implementaciones, un dispositivo móvil puede utilizar un enfoque basado en trilateración para estimar una posición geográfica. Por ejemplo, se pueden usar unas técnicas que incluyen la trilateración avanzada de enlace directo (AFLT) en CDMA o la diferencia de tiempo observada mejorada (EOTD) en GSM o la diferencia de tiempo de llegada observada (OTDOA) en WCDMA, que miden en un dispositivo móvil los tiempos de llegada relativos de las señales inalámbricas transmitidas desde cada una de diversas estaciones base equipadas con un transmisor. En otro ejemplo, un dispositivo móvil puede estimar su posición obteniendo una dirección de control de acceso al medio (MAC) u otro identificador adecuado asociado con un transceptor inalámbrico y correlacionando la dirección o identificador MAC con una ubicación geográfica conocida de ese transceptor inalámbrico.
[0011] Los dispositivos móviles 120 y 130 pueden obtener además señales de posicionamiento inalámbricas de un sistema de posicionamiento 150 para estimar la posición del dispositivo móvil. Por ejemplo, el sistema de posicionamiento 150 puede comprender un sistema de posicionamiento por satélite (SPS) y/o un sistema de posicionamiento terrestre. El sistema de posicionamiento por satélite 108 puede incluir, por ejemplo, el sistema de posicionamiento global (GPS), Galileo, GLONASS, NAVSTAR, GNSS, un sistema que usa satélites de una combinación de estos sistemas, o cualquier SPS diseñado en el futuro. Como se usa en el presente documento, también se entenderá que un SPS incluye sistemas de seudosatélites. Se debería entender, sin embargo, que las técnicas de posicionamiento en particular proporcionadas aquí son meramente ejemplos de técnicas de posicionamiento, y que la materia objeto reivindicada no está limitada en este sentido.
[0012] El sistema de servidor 110 puede comprender uno o más servidores y/u otras plataformas informáticas adecuadas. En consecuencia, el sistema de servidor 110 puede incluir medios de almacenamiento 112 que tienen una base de datos 114 e instrucciones 116 almacenadas en los mismos. El sistema de servidor 110 puede incluir uno o más procesadores tales como el ejemplo de procesador 118 para ejecutar instrucciones 116 y/o para facilitar el almacenamiento y la recuperación de datos en la base de datos 114. El sistema de servidor 110 puede incluir además una interfaz de comunicación 160 para facilitar la comunicación con los clientes de la red 140, incluyendo los dispositivos móviles 120 y 130, y la plataforma informática 122.
[0013] Para facilitar la comprensión de las implementaciones divulgadas, las instrucciones 116 se pueden describir en ocasiones en términos de uno o más módulos para realizar operaciones en particular. En un ejemplo, las instrucciones 116 pueden incluir un módulo de extracción de característica 162 para extraer características de objetos reales captados en una vista de cámara de un dispositivo móvil. En otro ejemplo, las instrucciones 116 pueden incluir un módulo de gestión de contenido 164 para gestionar el despliegue de contenido de medios dentro de un entorno de realidad aumentada. El módulo de gestión de contenido 164 puede incluir un número de herramientas para permitir que un usuario (por ejemplo, un usuario humano) interactúe con el módulo de gestión de contenido, por ejemplo, por medio de un dispositivo móvil (por ejemplo, el dispositivo móvil 120) u otra plataforma informática adecuada (por ejemplo, la plataforma informática 122). En al menos algunas implementaciones, el módulo de gestión de contenido 164 puede incluir una herramienta de despliegue de contenido 166 para permitir que un usuario despliegue contenido de medios dentro de un entorno de realidad aumentada; una herramienta de creación de recorrido 168 para permitir que un usuario cree un recorrido que comprende uno o más elementos de contenido de medios desplegados en una o más ubicaciones dentro de un entorno de realidad aumentada; y una herramienta de gestión de derechos 170 para permitir que un usuario gestione los derechos de acceso de otros usuarios al contenido de medios que ese usuario ha desplegado. Dichas herramientas pueden ser accesibles para un usuario por medio de dispositivos de entrada o salida de un dispositivo móvil u otra plataforma informática adecuada. Por ejemplo, una interfaz gráfica de usuario (GUI) presentada en una pantalla gráfica de un dispositivo móvil puede permitir que un usuario defina un entorno de realidad aumentada que comprende uno o más elementos de contenido de medios usando una o más de las herramientas 166, 168 y 170.
[0014] La base de datos 114 puede incluir una variedad de datos, que incluyen uno o más elementos asociados, tales como el ejemplo de elemento asociado 176. El elemento asociado 176 puede incluir, por ejemplo, al menos un elemento de contenido de medios 178 y otros elementos de datos asociados, que incluyen, por ejemplo: una definición de región de presentación 180, una definición de región de activación 182, una definición de recorrido 184, metadatos 186 y una definición de característica extraída 174. La base de datos 114 puede incluir además una biblioteca de características 192 que tiene una o más representaciones electrónicas preexistentes de características tridimensionales reales tales como el ejemplo de representación electrónica preexistente 194. Dichas representaciones electrónicas preexistentes se pueden crear, por ejemplo, mediante la aplicación de técnicas de exploración óptica y/o de ondas sonoras a características reales, o a través de la creación de modelos de diseño asistido por ordenador (CAD) de características reales.
[0015] La definición de región de presentación 180 puede definir una ubicación relativa a una característica extraída de un objeto real (por ejemplo, representada mediante la definición de característica extraída 174) donde el contenido de medios (por ejemplo, el elemento de contenido de medios 178) se puede presentar dentro de un entorno de realidad aumentada. Un usuario puede definir la definición de región de presentación 180 por medio de una herramienta de despliegue de contenido 166.
[0016] La definición de región de activación 182 puede definir cómo y/o cuándo se puede habilitar o iniciar la presentación de contenido de medios en una región de presentación (por ejemplo, como se define en la definición de región de presentación 180) como respuesta a una entrada de usuario y/o una posición y/o una orientación estimada de un dispositivo móvil. Un usuario puede definir la definición de región de activación 182 por medio de la herramienta de despliegue de contenido 166. Por ejemplo, un usuario puede utilizar la herramienta de despliegue de contenido 166 para crear una definición de región de activación 182 que define una región de activación para un elemento de contenido de medios asociado (por ejemplo, el elemento de contenido de medios 178).
[0017] La definición de recorrido 184 puede definir un recorrido guiado dentro de un entorno de realidad aumentada que comprende uno o más elementos de contenido de medios asociados. Un usuario puede utilizar la herramienta de creación de recorrido 168 para crear la definición de recorrido 184. La definición de recorrido 184 puede definir un grupo de cualquier número adecuado de elementos de contenido de medios que se han desplegado dentro de un entorno de realidad aumentada. Otros usuarios pueden acceder a un recorrido guiado de los elementos de contenido de medios asociados explorando dentro de un entorno de realidad aumentada por medio de una vista de cámara de un dispositivo móvil. En consecuencia, se apreciará que la base de datos 114 puede incluir cualquier número adecuado de elementos de contenido de medios asociados, y que el elemento de contenido de medios 178 puede comprender uno de una pluralidad de elementos de contenido de medios asociados con un recorrido dado como se define en la definición de recorrido 184.
[0018] Los metadatos 186 pueden incluir una definición de derechos 188 que define los derechos de los usuarios para acceder a elementos de contenido de medios desplegados, tales como el elemento de contenido de medios asociado 178. En algunas implementaciones, un usuario puede usar la herramienta de gestión de derechos 170 para crear una definición de derechos 188 para el elemento de contenido de medios asociado 178. En un ejemplo no limitante, un usuario puede excluir el acceso de usuarios seleccionados a un elemento de contenido de medios en particular, o un usuario puede conceder a unos usuarios seleccionados el derecho a acceder a un elemento de contenido de medios en particular dentro de un entorno de realidad aumentada.
[0019] Los metadatos 186 pueden incluir además datos de estado de dispositivo 190 que están asociados con el elemento de contenido de medios 178. Los datos de estado de dispositivo 190 pueden indicar una posición y/o una orientación de un dispositivo móvil, por ejemplo, mientras el dispositivo móvil está captando el elemento de contenido de medios asociado. En algunas implementaciones, una posición de un dispositivo móvil se puede representar como uno o más valores de latitud, longitud y/o altitud medidos en relación con un dato de referencia. De forma similar, la orientación de un dispositivo móvil puede estar representada por uno o más valores de balanceo, cabeceo y/o guiñada medidos en relación con un dato de referencia. Un dato de referencia con respecto a dichos valores de orientación se puede definir, por ejemplo, como un eje de una línea de visión de una cámara del dispositivo móvil. Dichos datos de estado de dispositivo se pueden basar en una o más señales de posicionamiento y/o mediciones de sensor de inercia que se obtienen en el dispositivo móvil como se describirá con mayor detalle con referencia a la FIG. 2.
[0020] La FIG. 2 es un diagrama de bloques esquemático de un ejemplo de dispositivo móvil 200 de acuerdo con una implementación. El dispositivo móvil 200 puede servir como ejemplo no limitante de los dispositivos móviles 120 y 130 de la FIG. 1 para al menos algunas implementaciones. En consecuencia, el dispositivo móvil 200 puede incluir una interfaz de comunicación 228 para facilitar la comunicación con otras plataformas informáticas, tales como el sistema de servidor 110, los dispositivos móviles 120, 130 y/o la plataforma informática 122 de la FIG. 1, por ejemplo. Así pues, la interfaz de comunicación 228 puede habilitar la comunicación inalámbrica con redes de comunicación que incluyen el ejemplo de red 140. El dispositivo móvil 200 puede incluir además un receptor 230 para recibir señales de posicionamiento desde un sistema de posicionamiento, tal como el ejemplo de sistema de posicionamiento 150.
[0021] El dispositivo móvil 200 puede incluir dispositivos de entrada 218 para recibir entradas de usuario. Los dispositivos de entrada 218 pueden incluir, por ejemplo, uno o más botones físicos, teclados, controladores, micrófonos, dispositivos de puntero y/o superficies sensibles al tacto, por ejemplo. El dispositivo móvil 200 puede incluir dispositivos de salida 221 para presentar información a un usuario. En un ejemplo, los dispositivos de salida 221 pueden incluir una pantalla gráfica 222 para presentar una interfaz gráfica de usuario 224. La pantalla gráfica 222 puede incluir cualquier dispositivo de pantalla adecuado que incluye una pantalla de cristal líquido (LCD), una pantalla de tubo de rayos catódicos (CRT), una pantalla de retroproyección, etc. En al menos algunas implementaciones, la pantalla gráfica 222 puede comprender una pantalla gráfica sensible al tacto (por ejemplo, una pantalla táctil) capaz de recibir una entrada de usuario, por ejemplo, por medio de uno o más gestos táctiles. Una pantalla gráfica sensible al tacto puede utilizar cualquier técnica de detección adecuada para detectar una entrada de usuario en o cerca de una superficie de visualización, incluyendo técnicas de detección capacitiva, detección resistiva y/o detección óptica, por ejemplo. En dichas implementaciones sensibles al tacto, la pantalla gráfica 222 puede servir tanto de dispositivo de entrada para recibir entradas de usuario como de dispositivo de salida para presentar contenido gráfico. Los dispositivos de salida 221 pueden incluir además un altavoz 226 para presentar contenido de audio en algunas implementaciones.
[0022] En al menos algunas implementaciones, se puede presentar una interfaz gráfica de usuario (GUI) 224 en la pantalla gráfica 222. La GUI 224 puede comprender una o más de una vista de cámara 234 obtenida por medio de una cámara 220 y una capa de información 236. La capa de información 236 puede comprender uno o más elementos de contenido de medios representados, tal como el elemento de contenido de medios representado 238, y uno o más elementos de control gráfico, tal como el elemento de control gráfico 240. En un ejemplo no limitante, el elemento de contenido de medios representado 238 puede corresponder a un estado representado de un elemento de contenido de medios 178, tal como una imagen, un vídeo, una animación, entre otro contenido gráfico adecuado o una parte del mismo. El elemento de control gráfico 240 puede incluir uno o más elementos gráficos para permitir que un usuario proporcione una entrada de usuario para controlar la funcionalidad del dispositivo móvil.
[0023] El dispositivo móvil 200 puede incluir uno o más sensores de inercia 232 para obtener mediciones de sensor de inercia en el dispositivo móvil. En al menos algunas implementaciones, los sensores de inercia 232 pueden comprender uno o más acelerómetros, giroscopios u otros dispositivos adecuados para medir un estado de inercia de un dispositivo móvil. En algunas implementaciones, un estado de inercia de un dispositivo móvil se puede medir mediante sensores de inercia 232 a lo largo de múltiples ejes de sistemas de coordenadas cartesianas y/o polares para proporcionar una indicación de posición y/u orientación del dispositivo móvil.
[0024] Se apreciará que las mediciones de sensor de inercia obtenidas de los sensores de inercia 232 se pueden procesar (por ejemplo, integrar a lo largo del tiempo) para obtener dichas estimaciones de posición y/u orientación de dispositivo móvil. Como se describe previamente, una posición de un dispositivo móvil se puede representar como uno o más valores de latitud, longitud y/o altitud y una orientación de un dispositivo móvil se puede representar mediante uno o más valores de balanceo, cabeceo y/o guiñada medidos en relación con un dato de referencia. El dispositivo móvil 200 puede incluir una cámara 220 para obtener una vista de cámara 234 que se puede presentar en una pantalla gráfica 222. La cámara 220 puede comprender una cámara digital en algunas implementaciones que tienen un número de elementos ópticos que incluyen una o más lentes para enfocar luz y/o uno o más elementos sensores de luz para convertir luz en señales digitales representativas de datos de imagen y/o vídeo. En un ejemplo no limitante, un elemento sensor de luz puede comprender un dispositivo de captación óptica, un dispositivo de carga acoplada y/o un dispositivo fotoeléctrico para convertir luz en señales digitales. Las señales digitales obtenidas de uno o más elementos sensores de luz de la cámara se pueden procesar y/o representar en la pantalla gráfica 222 como una vista de cámara 234. Además, en algunas implementaciones, una vista de cámara obtenida por medio de la cámara 220 se puede almacenar en medios de almacenamiento como contenido de imagen y/o vídeo. Por ejemplo, las señales digitales obtenidas de la cámara 220 se pueden codificar y almacenar en los medios de almacenamiento 210 en formato .jpeg, .mpeg u otro adecuado. Dichas señales digitales representativas de una vista de cámara se pueden transmitir a otras plataformas informáticas para su almacenamiento y/o procesamiento. Por ejemplo, una vista de cámara obtenida en un dispositivo móvil se puede transmitir a un sistema de servidor u otra plataforma informática adecuada por medio de una red de comunicación o por acoplamiento con otra plataforma informática.
[0025] El dispositivo móvil 200 puede incluir además medios de almacenamiento 210 que tienen una base de datos 212 e instrucciones 214 almacenadas en la misma. El dispositivo móvil 200 puede incluir uno o más procesadores tales como el ejemplo de procesador 216 para ejecutar instrucciones 214 y/o facilitar el almacenamiento y la recuperación de datos en la base de datos 212. La base de datos 212 puede incluir una variedad de datos, incluyendo algunos o todos los elementos de datos descritos previamente con referencia a la base de datos 114 de la FIG. 1. Por ejemplo, la base de datos 212 puede retener localmente en el dispositivo móvil 200, uno o más del elemento de contenido asociado 176 y la biblioteca de características 192, entre otros datos. Se apreciará que dichos datos también se pueden retener remotamente, por ejemplo, en un sistema de servidor tal como el sistema de servidor 110 de la FIG. 1 donde el dispositivo móvil puede acceder a estos por medio de una red inalámbrica.
[0026] Las instrucciones 214 pueden incluir de forma similar uno o más de los módulos y/o herramientas de instrucciones 116 de la FIG. 1 descritos previamente. Por ejemplo, las instrucciones 214 pueden incluir el módulo de extracción de característica 162 descrito previamente y el módulo de gestión de contenido 164 retenido localmente en el dispositivo móvil 200. Las instrucciones 214 pueden incluir además el módulo de representación 254 para facilitar la representación y/o presentación de la GUI 224 en la pantalla gráfica 222. Las instrucciones pueden incluir además un módulo de estado de dispositivo 256 para procesar señales de posicionamiento obtenidas por medio del receptor 230 y/o mediciones de sensor de inercia obtenidas por medio de los sensores de inercia 232. Por ejemplo, el módulo de estado de dispositivo 256 puede estar adaptado para estimar una posición y/u orientación del dispositivo móvil 200 en base, al menos en parte, a dichas señales de posicionamiento y/o mediciones de sensor de inercia. Una posición y/u orientación estimada del dispositivo móvil 200 se puede almacenar en la base de datos 212, por ejemplo, como se describe previamente con referencia a los datos de estado de dispositivo 190. En al menos algunas implementaciones, el módulo de estado de dispositivo 256 puede estar adaptado para obtener datos de estado de dispositivo para un dispositivo móvil como respuesta a la captación de un elemento de contenido de medios en el dispositivo móvil. Por ejemplo, una imagen captada en el dispositivo móvil 200 por medio de la cámara 220 puede hacer que el módulo de estado de dispositivo 256 calcule una posición y/u orientación del dispositivo móvil en o cerca del tiempo en que se captó la imagen. El módulo de estado de dispositivo 256 puede estar adaptado además para asociar los datos de estado de dispositivo con ese elemento de contenido de medios (por ejemplo, como metadatos), por ejemplo, en la base de datos 212 o la base de datos 114.
[0027] Además, en al menos algunas implementaciones, las señales digitales representativas de una vista de cámara obtenida por medio de la cámara 220 se pueden captar como una imagen estática o un vídeo dinámico. Dichas señales digitales se pueden procesar mediante el módulo de extracción de característica 162 para obtener una representación electrónica (por ejemplo, un modelo) de características reales captadas dentro de la vista de cámara. Dichas representaciones electrónicas de características reales se pueden almacenar en la base de datos 212 y/o en la base de datos 114 como una definición de característica extraída 174, donde se pueden asociar con uno o más elementos de contenido de medios tales como el elemento de contenido de medios 178, por ejemplo.
[0028] Se apreciará que al menos algunos elementos del ejemplo de dispositivo móvil 200 de la FIG. 2 pueden estar presente en otras plataformas informáticas móviles o no móviles tales como la plataforma informática 122 de la FIG. 1 para permitir que dichas plataformas informáticas realicen una o más de las operaciones, procesos y procedimientos descritos en el presente documento. Por ejemplo, la plataforma informática 122 de la FIG. 1 puede comprender medios de almacenamiento tales como medios de almacenamiento 210 que incluyen instrucciones 214 y/o una base de datos 212, uno o más procesadores tales como el procesador 216, uno o más dispositivos de entrada y salida, y una interfaz de comunicación tal como la interfaz de comunicación 218. En consecuencia, una o más de las operaciones, procesos y procedimientos descritos en el presente documento, por ejemplo, con referencia a la FIG. 3 no están necesariamente limitados a dispositivos móviles.
[0029] La FIG. 3 es un diagrama de flujo que ilustra un ejemplo de proceso 300 para definir un entorno de realidad aumentada y desplegar contenido de medios dentro de ese entorno de realidad aumentada de acuerdo con una implementación. En un ejemplo, uno o más procesadores que ejecutan instrucciones localmente en un dispositivo móvil y/o remotamente en un sistema de servidor u otra plataforma informática adecuada pueden realizar el proceso 300. En consecuencia, las diversas operaciones del proceso 300 se pueden representar mediante instrucciones ejecutables mantenidas en medios de almacenamiento de una o más plataformas informáticas tales como los medios de almacenamiento 112 del sistema de servidor 110 y/o los medios de almacenamiento 210 del dispositivo móvil 200, por ejemplo.
[0030] En resumen, el proceso 300 para desplegar contenido de medios dentro de un entorno de realidad aumentada puede comprender una o más de las siguientes operaciones: extraer una característica tridimensional de un objeto real captado en una vista de cámara de un dispositivo móvil en la operación 310; obtener un elemento de contenido de medios, por ejemplo, captando el elemento de contenido de medios en el dispositivo móvil y/o recuperando un elemento de contenido de medios existente de un medio de almacenamiento en la operación 320; definir una región de presentación para el elemento de contenido de medios en relación con la característica tridimensional en la operación 330; definir una región de activación para el elemento de contenido de medios en relación con la característica tridimensional en la operación 340; y habilitar y/o iniciar la presentación del elemento de contenido de medios en la región de presentación como respuesta a una entrada de usuario y/o una posición de dispositivo móvil estimada para la región de activación en la operación 350.
[0031] Con referencia a la operación 310, se puede extraer una característica tridimensional de un objeto real captado en una vista de cámara de un dispositivo móvil. Los objetos reales pueden incluir cualquier objeto de interés adecuado, incluyendo, por ejemplo, objetos hechos por el hombre (por ejemplo, estructuras de edificios, puentes, carreteras, etc.) y/u objetos naturales (por ejemplo, montañas, árboles, ríos, etc.). Por ejemplo, con referencia también a la FIG. 4, se muestra una GUI que comprende una vista de cámara 400 de un ejemplo de entorno de realidad aumentada de acuerdo con una implementación. En la FIG. 4, un ejemplo de característica tridimensional 410 de un objeto real (por ejemplo, una estructura de edificio) se capta en la vista de cámara 400.
[0032] En al menos algunas implementaciones, el proceso de extracción de característica realizado en la operación 310 puede incluir aplicar técnicas de reconocimiento de objetos a una característica tridimensional real captada en una vista de cámara de un dispositivo móvil. Por ejemplo, dichas técnicas de reconocimiento de objetos se pueden aplicar en un dispositivo móvil o remotamente en un sistema de servidor u otra plataforma informática adecuada mediante el módulo de extracción de característica 162 en la muestra de vista de cámara obtenida en el dispositivo móvil para generar una representación electrónica (por ejemplo, puntos clave y descriptores, líneas, etc.) de una característica tridimensional real. Dichas técnicas de reconocimiento de objetos pueden comprender técnicas de reconocimiento de objetos estándar y/o bien conocidas en al menos algunas implementaciones. Los ejemplos no limitantes de dichas técnicas de reconocimiento de objetos para generar puntos clave y descriptores incluyen la transformada de características invariante a escala (SIFT), helechos y características robustas aceleradas (SURF), entre otros. Se apreciará que la materia objeto reivindicada no se limita a los ejemplos de técnicas de reconocimiento de objetos descritas en el presente documento.
[0033] Una representación electrónica de referencia de una característica tridimensional real con la cual se compara una generada a partir de la muestra de vista de cámara puede incluir una representación electrónica preexistente (por ejemplo, un modelo, puntos clave y descriptores) de esa característica tridimensional, o la representación electrónica se puede crear a partir de una vista de cámara como una representación electrónica ad hoc de esa característica tridimensional. Además, las características reales pueden comprender superficies bidimensionales y/o tridimensionales. En un ejemplo, un modelo para características bidimensionales reales se puede crear, al menos en parte, a partir de puntos clave y detectores, líneas, formas u otros elementos visuales de las características reales captadas en una única vista de cámara de un dispositivo móvil. En otro ejemplo, un modelo para características tridimensionales reales se puede crear, al menos en parte, a partir de dos o más vistas de cámara obtenidas en diferentes posiciones y/u orientaciones en relación con la característica real. Por ejemplo, se puede usar una pluralidad de imágenes bidimensionales representativas de múltiples vistas de cámara que captan una característica en particular en múltiples ángulos, orientaciones, etc. diferentes para construir (por ejemplo, mediante procedimientos de triangulación) una representación tridimensional electrónica de esa característica. En otro ejemplo más, se pueden crear representaciones tridimensionales electrónicas preexistentes de características reales, por ejemplo, mediante la aplicación de técnicas de exploración a dichas características. En un ejemplo no limitante, las técnicas de exploración óptica (por ejemplo, láser) o de ondas sonoras se pueden aplicar a objetos reales tales como edificios, ciudades o paisajes para crear una representación tridimensional electrónica preexistente de esos objetos reales. En otro ejemplo más, se pueden generar representaciones tridimensionales electrónicas preexistentes de objetos reales a partir de modelos de diseño asistido por ordenador (CAD). Las representaciones electrónicas preexistentes de objetos reales se pueden mantener en un medio de almacenamiento de un dispositivo móvil y/o un sistema de servidor (por ejemplo, como parte de la biblioteca de características 192) donde el módulo de extracción de característica 162 puede acceder a las mismas.
[0034] En un ejemplo no limitante, una representación electrónica preexistente (por ejemplo, la representación electrónica preexistente 194) puede incluir un conjunto de datos que comprende cualquier número adecuado de elementos de datos (por ejemplo, coordenadas espaciales en un espacio bi- o tridimensional, vectores descriptores multidimensionales) que son representativos de una característica tridimensional de un objeto real. El módulo de extracción de característica también puede usar información de estado de dispositivo móvil (por ejemplo, datos de estado de dispositivo 190), obtenida a partir de señales de posicionamiento y/o mediciones de sensor de inercia, para localizar y recuperar representaciones electrónicas preexistentes potencialmente relevantes de la biblioteca de características, por ejemplo, en base a una posición y/u orientación de dispositivo móvil estimada. El módulo de extracción de característica puede buscar en el dominio de representaciones electrónicas preexistentes relevantes una representación electrónica preexistente en particular que coincida o contenga la característica tridimensional. En consecuencia, una representación electrónica preexistente en particular que coincida, represente o contenga una característica tridimensional captada en una vista de cámara de un dispositivo móvil se puede identificar mediante enfoques de reconocimiento de objetos y/o con referencia a la posición y/u orientación del dispositivo móvil. Una representación electrónica preexistente que se obtiene de la base de datos se puede utilizar como una definición de característica extraída 174 para asociarla con el elemento de contenido de medios 178, por ejemplo.
[0035] Sin embargo, en otros ejemplos donde aún no existe una representación electrónica preexistente de una característica tridimensional o esta aún no es accesible para el módulo de extracción de característica, el módulo de extracción de característica puede utilizar una representación electrónica (por ejemplo, un archivo de imagen o archivo de vídeo) de una o más vistas de cámara que captan la característica tridimensional, para crear una representación electrónica ad hoc de esa característica tridimensional. Nuevamente, esta representación electrónica ad hoc puede comprender modelos bidimensionales o modelos tridimensionales de dichas características reales. En un ejemplo, se puede crear un modelo bidimensional de características reales, al menos en parte, a partir de esquinas, líneas, formas u otros elementos visuales de las características reales captadas en una vista de cámara del dispositivo móvil que se usa para crear el entorno de realidad aumentada. En otro ejemplo, se puede crear, al menos en parte, un modelo tridimensional de características reales, a partir de dos o más vistas de cámara obtenidas en diferentes posiciones en relación con dichas características reales por el dispositivo móvil que se usa para crear el entorno de realidad aumentada.
[0036] El módulo de extracción de característica puede añadir representaciones electrónicas ad hoc a la biblioteca de características y puede indicar además datos de estado de dispositivo (por ejemplo, posición y/u orientación de dispositivo móvil) asociados con la vista de cámara a partir de la cual se captó la representación tridimensional. En esta situación, el módulo de extracción de característica puede utilizar la representación electrónica ad hoc como definición de característica extraída 174 en lugar de o además de usar una representación electrónica preexistente de esa característica tridimensional.
[0037] La definición de característica extraída, ya sea obtenida de una representación electrónica preexistente o una representación electrónica ad hoc, puede estar asociada con un elemento de contenido de medios que se va a desplegar dentro de un entorno de realidad aumentada como se describirá con referencia a la operación 320. El módulo de extracción de característica puede hacer referencia más tarde a la definición de característica extraída mientras aplica el reconocimiento de objetos a otras vistas de cámara (por ejemplo, de otros dispositivos móviles) con el propósito de presentar elementos de contenido de medios como se describirá con referencia a la operación 350.
[0038] En 320, se puede obtener un elemento de contenido de medios captando el elemento de contenido de medios en un dispositivo móvil y/o recuperando el elemento de contenido de medios de un medio de almacenamiento. En al menos algunas implementaciones, el módulo de gestión de contenido 164 puede realizar la operación 320 como respuesta a una entrada de usuario (por ejemplo, una selección de usuario) recibida por medio de la herramienta de despliegue de contenido 166. Como se describe previamente, un elemento de contenido de medios puede incluir contenido de audio (por ejemplo, una grabación de sonido) y/o contenido visual (por ejemplo, una imagen, un elemento gráfico, un vídeo, una animación, contenido textual, contenido gráfico tridimensional, entre otros contenidos gráficos, etc.). En un ejemplo, el contenido de imagen o vídeo se puede captar por medio de una cámara (por ejemplo, la cámara 220) de un dispositivo móvil. En otro ejemplo, se puede captar contenido textual por medio de un dispositivo de entrada de un dispositivo móvil que es adecuado para captar contenido textual (por ejemplo, un teclado). En otro ejemplo más, se puede captar contenido de audio por medio de un dispositivo de entrada de un dispositivo móvil que es adecuado para captar contenido de audio (por ejemplo, un micrófono).
[0039] De forma alternativa o adicional, los elementos de contenido de medios se pueden obtener de un medio de almacenamiento que reside en un dispositivo móvil (por ejemplo, en la base de datos 212) o de un medio de almacenamiento que reside en otra plataforma informática tal como un sistema de servidor (por ejemplo, en la base de datos 114). En al menos algunas implementaciones, una GUI presentada en un dispositivo móvil por medio de una pantalla gráfica puede incluir uno o más elementos de control gráfico para permitir a un usuario obtener un elemento de contenido de medios captando ese elemento de contenido de medios (por ejemplo, por medio de una cámara, un micrófono, u otro dispositivo de entrada) y/o recuperando ese elemento de contenido de medios de un medio de almacenamiento donde se mantiene. Con referencia también a la FIG. 4, por ejemplo, se representa un ejemplo de GUI en la que se puede presentar una vista de cámara 400 por medio de una pantalla gráfica de un dispositivo móvil en tiempo real cuando un usuario apunta una cámara del dispositivo móvil a un objeto real, tal como la característica tridimensional 410. Sin embargo, en al menos algunas implementaciones, la vista de cámara 400 se puede almacenar como una imagen u otro formato de datos adecuado a los que un usuario puede hacer referencia o que un usuario puede recuperar posteriormente por medio de otra plataforma informática adecuada. Así pues, una vista de cámara (por ejemplo, la vista de cámara 400) captada previamente en un dispositivo móvil se puede presentar más tarde en una plataforma informática no móvil (por ejemplo, la plataforma informática 122) con el propósito de habilitar la creación de entornos de realidad aumentada, aunque la vista de cámara no sea representativa de una vista de tiempo real de un objeto real captado en esa vista de cámara. En al menos algunas implementaciones, se puede presentar un elemento de control gráfico 420 (por ejemplo, un botón o icono gráfico seleccionable) en la GUI para permitir a un usuario obtener un elemento de contenido de medios deseado.
[0040] En 330, se puede definir una región de presentación para el elemento de contenido de medios obtenido en la operación 320, en relación con la característica tridimensional extraída en la operación 310. Un usuario puede desplegar una región de presentación para un elemento de contenido de medios en un entorno de realidad aumentada con el propósito de definir una ubicación donde el elemento de contenido de medios se va a presentar dentro de ese entorno de realidad aumentada. Por ejemplo, con referencia también a la FIG. 5, se representa un ejemplo de GUI en la que un usuario define una región de presentación 510 en relación con la característica tridimensional 410. En al menos algunas implementaciones, el módulo de gestión de contenido 164 puede realizar la operación 330 como respuesta a una entrada de usuario (por ejemplo, una selección de usuario) recibida por medio de la herramienta de despliegue de contenido 166. Un usuario de dispositivo móvil o un usuario de otra plataforma informática puede usar la herramienta de despliegue de contenido 166 para crear una definición de región de presentación 180 que define la región de presentación en relación con la característica tridimensional extraída (por ejemplo, representada electrónicamente como definición de característica extraída 174).
[0041] En al menos algunas implementaciones, una región de presentación para un elemento de contenido de medios se puede definir en relación con una característica tridimensional conectando la región de presentación a al menos una parte de la característica tridimensional y/o variando una posición y/u orientación de la región de presentación conectada en relación con la característica tridimensional. En al menos algunas implementaciones, una región de presentación para un elemento de contenido de medios se puede conectar a al menos una parte de una característica tridimensional como respuesta a una entrada de usuario recibida en un dispositivo móvil (por ejemplo, el dispositivo móvil 120) u otra plataforma informática adecuada (por ejemplo, la plataforma informática 122). El usuario puede recibir dicha entrada de usuario en el dispositivo móvil por medio de un dispositivo de entrada de usuario, por ejemplo, pulsando un botón físico o pulsando un botón o icono gráfico presentado en una pantalla gráfica sensible al tacto del dispositivo móvil. En un ejemplo no limitante, un usuario puede utilizar gestos táctiles en una GUI presentada por medio de una pantalla gráfica sensible al tacto de un dispositivo móvil para definir la colocación de una región de presentación en relación con la característica tridimensional mediante manipulación, desplazamiento y/o redimensionamiento de esa región de presentación. En otro ejemplo, con referencia nuevamente a la FIG. 5, un usuario puede seleccionar el elemento de control gráfico 420, por ejemplo, para iniciar una conexión de la región de presentación 510 a la característica tridimensional 410.
[0042] En al menos algunas implementaciones, una región de presentación puede comprender una superficie de presentación sobre la cual el elemento de contenido de medios se puede presentar dentro de un entorno de realidad aumentada. Por ejemplo, la región de presentación 510 de la FIG. 5 comprende una superficie de presentación que se ha definido de modo que llena sustancialmente una puerta de la estructura del edificio de la característica tridimensional. En dichas implementaciones, una región de presentación se puede conectar a al menos una parte de la característica tridimensional asociando una superficie de presentación de la región de presentación con al menos una parte de una representación electrónica de la característica tridimensional que se obtuvo, por ejemplo, en la operación 310.
[0043] Por ejemplo, un usuario puede asociar un punto o un borde de una región de presentación con un punto o un borde de una característica tridimensional como se indica, por ejemplo, en 520 manipulando la región de presentación en relación con la característica tridimensional a través de una o más entradas de usuario recibidas en una interfaz de pantalla táctil u otro dispositivo de entrada adecuado. Aquí, en implementaciones en particular analizadas anteriormente, dicha característica tridimensional puede ser descriptiva de un objeto real que se muestra en una vista de cámara presentada por medio de dicha interfaz de pantalla táctil. En un ejemplo no limitante, un usuario puede seleccionar un punto (por ejemplo, una esquina, un punto central, etc.) o un borde de una región de presentación y seleccionar un punto o un borde de una característica tridimensional (por ejemplo, reconocido a través de la aplicación de técnicas de reconocimiento de objetos) para asociar el punto o borde de la región de presentación con el punto o un borde de la característica tridimensional. En otro ejemplo, un usuario puede seleccionar un punto o un borde de una región de presentación y arrastrar el punto o el borde seleccionado de la región de presentación hasta un punto o un borde de una característica tridimensional para asociar el punto o el borde seleccionado de la región de presentación con el punto o el borde de la característica tridimensional.
[0044] En algunas implementaciones, un usuario puede seleccionar (por ejemplo, pulsar en una interfaz de pantalla táctil) y mantener pulsada una región de presentación durante un período de tiempo umbral para invocar uno o más iconos que indican o resaltan puntos, bordes u otras características prominentes de una región de presentación que puede estar asociada con una característica tridimensional. De forma similar, en algunas implementaciones, un usuario puede pulsar y mantener pulsada una característica tridimensional durante un período de tiempo umbral para invocar uno o más iconos que indican o resaltan puntos, bordes u otras características prominentes de una característica tridimensional que puede estar asociada con una región de presentación. Por ejemplo, un módulo de gestión de contenido puede estar adaptado para resaltar dichos puntos, bordes u otras características prominentes de una región de presentación y/o una característica tridimensional en beneficio de un usuario para permitir al usuario seleccionar entre dichas características resaltadas. Como respuesta a la conexión por un usuario de una región de presentación con una característica tridimensional, un módulo de gestión de contenido puede estar adaptado para actualizar una definición de región de presentación para que esa región de presentación refleje cómo se define la región de presentación en relación con una representación electrónica de la característica tridimensional. Se apreciará que dichos ejemplos no son limitantes, y que se pueden utilizar otros enfoques adecuados para conectar una región de presentación a características tridimensionales extraídas de una vista de cámara.
[0045] En algunas implementaciones, un usuario puede editar la región de presentación conectada, mediante traslado, reorientación o redimensionamiento de la región de presentación en relación con la característica tridimensional como respuesta a una o más entradas de usuario adicionales. Dichas entradas de usuario adicionales pueden incluir, por ejemplo, uno o más gestos táctiles recibidos por medio de una pantalla gráfica sensible al tacto de un dispositivo móvil. Por ejemplo, con referencia también a la FIG. 6, se representa un ejemplo de GUI en la que una región de presentación 430 se puede trasladar en relación con la característica tridimensional 410 a una posición diferente 610 como respuesta a un gesto táctil indicado por el vector 620. Dichos gestos táctiles se pueden recibir en la región de presentación como una operación de arrastrar y soltar, por ejemplo. En otros ejemplos, una región de presentación se puede girar con respecto a una característica tridimensional como respuesta a unas entradas de usuario adicionales indicativas de una rotación de la región de presentación.
[0046] En al menos algunas implementaciones, se pueden recibir gestos táctiles u otras entradas de usuario adecuadas en una capa de información 630 que permite a un usuario editar una región de presentación mediante traslado, rotación y/o redimensionamiento de una región de presentación en relación con una característica tridimensional. La capa de información 630 puede comprender un menú que incluye cualquier número adecuado de elementos de control gráfico. En un ejemplo, un usuario puede seleccionar los elementos de control gráfico 632 y 634 para trasladar la región de presentación hacia su posición actual o fuera de esta. En otro ejemplo, el elemento de control gráfico 636 se puede seleccionar para girar la región de presentación alrededor de un primer eje de rotación y/o el elemento de control gráfico 638 se puede seleccionar para girar la región de presentación alrededor de un segundo eje de rotación diferente del primer eje. De esta manera, un usuario puede variar la posición y/u orientación de la región de presentación en un espacio tridimensional.
[0047] En al menos algunas implementaciones, una capa de información tal como la capa de información 630 se puede visualizar a un usuario como respuesta a la selección o la pulsación por el usuario de la región de presentación por medio de un gesto táctil u otra entrada de usuario adecuada. En un ejemplo, un usuario puede entrar en un modo de edición para la región de presentación, con lo que una capa de información tal como la capa de información 630 se puede visualizar como respuesta a la pulsación y el mantenimiento de esta por el usuario de una entrada táctil en la región de presentación durante un período de tiempo umbral (por ejemplo, de 1,0 segundos u otro período de tiempo adecuado).
[0048] Con referencia también a la FIG. 7, se representa un ejemplo de GUI en la que una región de presentación 430 se puede redimensionar en relación con la característica tridimensional 410 como respuesta a unas entradas de usuario adicionales como se indica mediante el vector 710. Dichas entradas de usuario adicionales para editar una superficie de presentación conectada se pueden recibir por medio de un dispositivo de entrada de usuario de un dispositivo móvil, tal como por medio de una pantalla gráfica sensible al tacto u otro dispositivo de entrada de usuario adecuado. Por ejemplo, un usuario puede editar la región de presentación tocando la región de presentación en una ubicación donde se representa en una pantalla gráfica sensible al tacto del dispositivo móvil y arrastrando al menos una parte de la región de presentación hasta una posición diferente para variar su posición y/u orientación.
[0049] Como respuesta a la edición por un usuario de una región de presentación, ya sea mediante traslado, rotación o redimensionamiento de la región de presentación, un módulo de gestión de contenido puede estar adaptado para actualizar una definición de región de presentación para que esa región de presentación refleje los cambios en cómo se define la región de presentación en relación con una representación electrónica de la característica tridimensional. En un ejemplo no limitante, donde la región de presentación se define mediante uno o más puntos medidos en relación con el sistema de coordenadas de una característica tridimensional, dicha edición por un usuario puede hacer que el uno o más puntos estén desplazados en relación con el sistema de coordenadas de la característica tridimensional en una cantidad indicada por una o más entradas de usuario. El módulo de gestión de contenido 164 puede realizar la actualización de la definición de región de presentación como respuesta a dicha edición, de modo que la región de presentación se puede representar en una posición y/u orientación deseada por el usuario.
[0050] En algunas implementaciones, la herramienta de despliegue de contenido 166 puede emplear un proceso parcialmente automatizado para conectar regiones de presentación a características tridimensionales. Por ejemplo, la herramienta de despliegue de contenido puede reconocer determinadas características, tales como características horizontales y verticales, bordes, esquinas, etc. en objetos reales y sugerir cómo colocar una superficie de presentación en relación con dichos objetos reales. A continuación, un usuario puede ajustar la colocación inicial de la superficie de presentación editando la posición y/u orientación de la superficie de presentación en relación con la característica tridimensional (por ejemplo, para añadir una perspectiva espacial). A continuación, un usuario puede bloquear una superficie de presentación en su lugar en relación con una característica tridimensional como respuesta a la entrada de usuario adicional, por ejemplo, seleccionando un elemento de control gráfico de la GUI, utilizando un gesto táctil en particular en una pantalla gráfica sensible al tacto (por ejemplo, con un doble toque) o enviando información adicional por medio de un dispositivo de entrada de usuario. De esta manera, el contenido de medios desplegado dentro de un entorno de realidad aumentada puede hacerse a medida para encajar con unas características tridimensionales en particular de objetos reales que están presentes en ese entorno de realidad aumentada.
[0051] En algunas implementaciones, una región de presentación puede comprender un volumen tridimensional que define una pluralidad de superficies de presentación. Dichos volúmenes tridimensionales se pueden utilizar, por ejemplo, para presentar elementos gráficos, animaciones, etc., como una representación tridimensional de dichos elementos o animaciones en un entorno de realidad aumentada. Por ejemplo, una región de presentación puede comprender formas tridimensionales regulares (por ejemplo, esferas, cubos, etc.) o formas tridimensionales irregulares (por ejemplo, figuras humanoides o animales, muebles, vehículos, etc.) sobre los cuales se puede presentar un contenido de medios. Se apreciará que una posición y una orientación de unas regiones de presentación que comprenden un volumen tridimensional se pueden variar de una manera similar a la descrita previamente con referencia a las superficies de presentación.
[0052] En 340, se puede definir una región de activación para el elemento de contenido de medios obtenido en la operación 320, en relación con la característica tridimensional extraída en la operación 310. Un usuario puede desplegar una región de activación para un elemento de contenido de medios dentro de un entorno de realidad aumentada con el propósito de definir cómo se puede habilitar y/o iniciar la presentación del elemento de contenido de medios en una región de presentación, como respuesta a una entrada de usuario y/o una posición de dispositivo móvil estimada.
[0053] Por ejemplo, con referencia también a la FIG. 8, se representa un ejemplo de GUI en la que se puede definir una región de activación 810 en relación con la característica tridimensional 410, de modo que la región de activación se solapa al menos parcialmente con la región de presentación 430. La región de activación 810 se representa como un botón o icono gráfico seleccionable en este ejemplo en particular. Un usuario de dispositivo móvil puede utilizar una o más entradas de usuario para iniciar una presentación de un elemento de contenido de medios en la región de presentación 430, por ejemplo, seleccionando la región de activación 810. En este ejemplo en particular, la región de activación 810 comprende una superficie de activación que puede estar asociada con una representación electrónica de la característica tridimensional 410 como se describe previamente con referencia a las superficies de presentación.
[0054] En otro ejemplo, se define una región de activación 820 en relación con la característica tridimensional 410 de modo que un usuario de dispositivo móvil puede habilitar y/o iniciar una presentación de un elemento de contenido de medios en la superficie de presentación desplazando físicamente el dispositivo móvil dentro de la región de activación 820. Por ejemplo, la región de activación 820 puede estar definida para iniciar una presentación de un elemento de contenido de medios en la región de presentación 430 cuando un dispositivo móvil entra dentro de una región de activación 820 sin requerir una entrada adicional de usuario. En otros ejemplos, la región de activación 820 puede estar definida para habilitar una presentación de un elemento de contenido de medios en la región de presentación 430 cuando un dispositivo móvil entra dentro de la región de activación 820. Una vez que se ha habilitado la presentación del contenido de medios, se puede solicitar al usuario que inicie la presentación del elemento de contenido de medios proporcionando una entrada de usuario, por ejemplo, en otra región de activación, tal como la región de activación 810 o cualquier dispositivo de entrada adecuado del dispositivo móvil.
[0055] En al menos algunas implementaciones, una región de activación se puede definir usando un proceso similar al proceso descrito anteriormente en la operación 330 para definir una región de presentación. Por ejemplo, una región de activación para un elemento de contenido de medios se puede definir en relación con una característica tridimensional conectando la región de activación a al menos una parte de la característica tridimensional y/o editando una posición y/u orientación de la región de activación conectada en relación con la característica tridimensional. Como respuesta a la conexión y/o edición por un usuario de una región de activación, un módulo de gestión de contenido puede estar adaptado para actualizar una definición de región de activación para esa región de activación para reflejar cómo se define la región de activación en relación con una representación electrónica de la característica tridimensional.
[0056] En al menos algunas implementaciones, una región de activación puede comprender una superficie de activación que se puede presentar dentro de un entorno de realidad aumentada. En dichas implementaciones, la región de activación se puede conectar a al menos una parte de la característica tridimensional asociando una superficie de activación de la región de activación con al menos una parte de una representación electrónica de la característica tridimensional que se obtuvo, para ejemplo, en la operación 310. Un usuario también puede variar una posición y/u orientación de una región de activación conectada como se describe previamente con referencia a la edición de superficies de presentación en la operación 330.
[0057] Aunque las operaciones 310, 320, 330 y 340 se describen en un contexto de dispositivo móvil, se apreciará que una o más de dichas operaciones se pueden realizar en una plataforma informática (por ejemplo, la plataforma informática 122) que está separada del dispositivo móvil. En dichas implementaciones, un usuario de dispositivo móvil puede cargar una vista de cámara obtenida en un dispositivo móvil en una plataforma informática diferente para realizar una o más de las operaciones 310-340. De esta manera, la creación de entornos de realidad aumentada no se limita necesariamente a las operaciones realizadas en un dispositivo móvil, sino que se puede realizar al menos parcialmente en otras plataformas informáticas.
[0058] En 350, la presentación de un elemento de contenido de medios en la región de presentación definida en la operación 330 se puede habilitar y/o iniciar como respuesta a una entrada de usuario y/o una posición de dispositivo móvil estimada para la región de activación definida en la operación 340. Se apreciará que la presentación de contenido de medios a un usuario determinado puede estar condicionada a los derechos de acceso asociados con ese elemento de contenido de medios. Como se describe previamente con referencia a la operación 340, las regiones de activación pueden estar definidas para habilitar una presentación de contenido de medios en un dispositivo móvil que un usuario transporta dentro de una región de activación. De forma alternativa, las regiones de activación pueden estar definidas para iniciar una presentación de contenido de medios sin requerir una entrada de usuario adicional en un dispositivo móvil que un usuario transporta dentro de una región de activación.
[0059] Además, con respecto a la operación 350, las superficies de presentación y/o las superficies de activación que se despliegan dentro de un entorno de realidad aumentada se pueden presentar en una vista de cámara de un dispositivo móvil tras el reconocimiento de la característica tridimensional captada en esa vista de cámara. Por ejemplo, el módulo de extracción de característica puede hacer referencia a una definición de característica extraída mientras aplica técnicas de reconocimiento de objetos a una vista de cámara en particular obtenida en un dispositivo móvil, con el propósito de presentar en ese dispositivo móvil uno o más elementos de contenido de medios, regiones de presentación y/o regiones de activación que están asociadas con esa definición de característica extraída.
[0060] Dichas técnicas de reconocimiento de objetos pueden implicar nuevamente la comparación de una muestra de vista de cámara con una o más definiciones de característica extraída para identificar qué definición de característica extraída está presente en la muestra de vista de cámara. Dichas técnicas de reconocimiento de objetos típicamente incluyen la determinación de la transformación espacial subyacente, por ejemplo, homografía, transformación afín u otras, para corregir una diferencia de punto de vista entre la característica tridimensional en la muestra de vista de cámara y la definición de característica extraída. Tras la identificación de la definición de característica extraída pertinente para una vista de cámara dada, el módulo de gestión de contenido puede recuperar la región de presentación asociada, la región de activación, el elemento de contenido de medios y otra información para esa definición de característica extraída de una base de datos si dicha base de datos está situada localmente en el dispositivo móvil o remotamente en un sistema de servidor u otro recurso informático.
[0061] En al menos algunas implementaciones, la definición de región de activación 182 puede definir una región de activación donde la presentación de un elemento de contenido de medios asociado 178 se puede iniciar o habilitar si un dispositivo móvil entra en la región de activación. Por ejemplo, la región de activación puede definir una región específica en un entorno físico real donde la presentación de contenido de medios se inicia como respuesta al traslado por el usuario del dispositivo móvil dentro de esa región específica como se indica mediante un estado del dispositivo móvil. Por ejemplo, se apreciará que una posición y/u orientación de un dispositivo móvil dado en relación con una región de activación dada se puede obtener a partir de señales de posicionamiento y/o mediciones de sensor de inercia obtenidas en el dispositivo móvil, con lo que la presentación del contenido de medios se puede iniciar como respuesta a la posición y/u orientación indicada por el estado del dispositivo móvil.
[0062] Cuando se inicia una presentación de un elemento de contenido de medios, el elemento de contenido de medios asociado con la región de activación se puede presentar en una región de presentación asociada sin requerir una entrada de usuario adicional. Por el contrario, cuando la presentación de un elemento de contenido de medios está habilitada, el elemento de contenido de medios asociado con la región de activación se puede presentar como respuesta a una entrada de usuario adicional recibida, por ejemplo, en un elemento de control gráfico de la GUI, como un gesto táctil recibido en una pantalla gráfica sensible al tacto, o como una entrada de usuario recibida por medio de otro dispositivo de entrada de usuario adecuado.
[0063] En algunas implementaciones del proceso 300, las regiones de activación se pueden omitir de un entorno de realidad aumentada. Por ejemplo, la FIG. 9 muestra un ejemplo de GUI que incluye una vista de cámara 400 y una región de presentación 910 que presenta una representación gráfica (por ejemplo, una imagen) de una indicación para incitar a los clientes a entrar por una puerta en particular definida por la característica tridimensional 410. Así pues, en esta implementación en particular, la región de presentación 910 puede presentar un elemento de contenido de medios sin referencia a una región de activación asociada. De esta manera, un usuario puede explorar un entorno de realidad aumentada dirigiendo una cámara de un dispositivo móvil hacia objetos reales y observando un contenido gráfico presentado en una capa de información de la GUI. Por ejemplo, la presentación de un elemento de contenido de medios en un segundo dispositivo móvil se puede habilitar o iniciar cuando una vista de cámara del segundo dispositivo móvil está captando la región de presentación conectada a la característica tridimensional.
[0064] En algunas implementaciones, el módulo de gestión de contenido que reside localmente en un dispositivo móvil o remotamente en un sistema de servidor puede recibir actualizaciones de una posición y/u orientación de un dispositivo móvil. En dichas implementaciones, donde se determina que una posición de un dispositivo móvil está dentro de una región de activación para la cual un usuario puede acceder al contenido de medios asociado por medio del dispositivo móvil, se puede iniciar una notificación en el dispositivo móvil. Dicha notificación puede incluir una vibración del dispositivo móvil por medio de un dispositivo de retroalimentación háptica en el dispositivo móvil, un sonido generado por un dispositivo de salida de audio del dispositivo móvil y/o un indicador visual presentado por medio de una pantalla gráfica o un elemento emisor de luz del dispositivo móvil. De esta manera, se puede notificar a un usuario la existencia de un entorno de realidad aumentada cercano que está disponible para la exploración por el usuario por medio del dispositivo móvil.
[0065] En las implementaciones anteriores, a un usuario se le puede presentar una capa de información en una GUI de una pantalla gráfica junto con una vista de cámara (por ejemplo, una vista de cámara en tiempo real) obtenida por medio de una cámara del dispositivo móvil. La capa de información que se presenta para una vista de cámara dada se puede definir mediante regiones de presentación y/o activación que están asociadas con representaciones electrónicas de objetos reales captados en la vista de cámara. Dichas implementaciones se pueden aplicar de forma similar a recorridos guiados que comprenden cualquier número adecuado de regiones de presentación y/o activación definidas por una definición de recorrido asociada. Uno o más usuarios pueden crear dichas definiciones de recorrido, por ejemplo, por medio del mismo dispositivo móvil u otra plataforma informática o por medio de dos o más dispositivos móviles separados y/u otras plataformas informáticas.
[0066] Por ejemplo, un usuario puede crear un recorrido guiado por medio de la herramienta de creación de recorrido 168 asociando uno o más elementos de contenido de medios que se van a desplegar en un entorno de realidad aumentada (por ejemplo, el elemento de contenido de medios 178) con una definición de recorrido (por ejemplo, la definición de recorrido 184). Uno o más de otros usuarios también pueden contribuir a la creación del recorrido guiado usando la herramienta de creación de recorrido 168 para asociar uno o más de otros elementos de contenido de medios con la definición de recorrido (por ejemplo, la definición de recorrido 184). Así pues, dos o más usuarios pueden contribuir a la creación de un recorrido guiado común en algunas implementaciones. Además, en algunas implementaciones, un usuario puede utilizar una herramienta de gestión de derechos 170 para definir una definición de derechos (por ejemplo, la definición de derechos 188) para que un recorrido dado incluya o excluya la colaboración de uno o más usuarios en la creación de un recorrido guiado en particular. Por ejemplo, un usuario puede excluir la colaboración de uno o más usuarios en la creación de un recorrido guiado dado mientras concede permiso a uno o más de otros usuarios.
[0067] El usuario que creó el recorrido u otros usuarios a los que ese usuario les concede acceso a través de una definición de derechos asociada (por ejemplo, la definición de derechos 188) pueden explorar dichos recorridos guiados en un entorno de realidad aumentada por medio de una GUI de un dispositivo móvil. Por ejemplo, a un segundo usuario se le puede presentar uno o más elementos de contenido de medios asociados con un recorrido dado, si el segundo usuario dirige una vista de cámara de un dispositivo móvil a objetos reales a los que un primer usuario ha conectado unas regiones de presentación y/o activación de ese recorrido.
[0068] En al menos algunas implementaciones, una definición de recorrido puede comprender una lista ordenada definida por el usuario de dos o más elementos de contenido de medios asociados. En dichas implementaciones, los elementos de contenido de medios se pueden presentar en el recorrido guiado en el orden definido por la lista ordenada. Por ejemplo, a un usuario que explora un entorno de realidad aumentada a través del uso de un recorrido guiado se le puede solicitar por medio de una GUI del dispositivo móvil que visite cualquier número adecuado de ubicaciones reales donde se van a presentar elementos de contenido de medios en un orden que está definido por la lista ordenada de la definición de recorrido. Además, se apreciará que un usuario puede desplegar al menos algunos de dichos elementos de contenido de medios como identificadores visuales como se describe previamente, por ejemplo, con referencia a la región de presentación 910 de la FIG. 9. Dichos identificadores visuales pueden servir de indicadores u otros identificadores adecuados para dirigir a los usuarios a lo largo de una ruta de recorrido en particular definida por la definición de recorrido. De esta manera, los usuarios de dispositivos móviles pueden explorar su entorno real circundante con ayuda de contenido gráfico que forma una capa de información que complementa una vista de cámara de sus respectivos dispositivos móviles.
[0069] Las técnicas de determinación de posición descritas en el presente documento se pueden implementar junto con diversas redes de comunicación inalámbrica, tales como una red inalámbrica de área amplia (WWAN), una red inalámbrica de área local (WLAN), una red inalámbrica de área personal (WPAN), etc. Los términos "red" y "sistema" se usan a menudo de manera intercambiable. Una WWAN puede ser una red de acceso múltiple por división de código (CDMA), una red de acceso múltiple por división de tiempo (TDMA), una red de acceso múltiple por división de frecuencia (FDMA), una red de acceso múltiple por división ortogonal de frecuencia (OFDMA), una red de acceso múltiple por división de frecuencia de portadora única (SC-FDMA), etc. Una red CDMA puede implementar una o más tecnologías de acceso por radio (RAT), tales como cdma2000, CDMA de banda ancha (W-CDMA), etc. La tecnología cdma2000 incluye las normas IS-95, IS-2000 e IS-856. Una red TDMA puede implementar el sistema global para comunicaciones móviles (GSM), el sistema de telefonía móvil avanzado digital (D-AMPS) o alguna otra RAT. Las tecnologías GSM y W-CDMA se describen en documentos de un consorcio denominado "Proyecto de Colaboración de Tercera Generación" (3GPP). La tecnología cdma2000 se describe en documentos de un consorcio denominado "Proyecto de Colaboración de Tercera Generación 2" (3GPP2). Los documentos del 3GPP y del 3GPP2 están a disposición del público. Una WLAN puede ser una red IEEE 802.11x y una WPAN puede ser una red Bluetooth, una red IEEE 802.15x o algún otro tipo de red. Las técnicas también se pueden implementar junto con cualquier combinación de WWAN, WLAN y/o WPAN.
[0070] Las metodologías descritas en el presente documento se pueden implementar de diferentes maneras y con diferentes configuraciones dependiendo de la aplicación en particular. Por ejemplo, dichas metodologías se pueden implementar en hardware, firmware y/o combinaciones de los mismos, junto con software. En una implementación en hardware, por ejemplo, se puede implementar una unidad de procesamiento dentro de uno o más circuitos integrados específicos de la aplicación (ASIC), procesadores de señales digitales (DSP), dispositivos de procesamiento de señales digitales (DSPD), dispositivos de lógica programable (PLD), matrices de puertas programables in situ (FPGA), procesadores, controladores, microcontroladores, microprocesadores, dispositivos electrónicos, otras unidades de dispositivos diseñadas para realizar las funciones descritas en el presente documento, y/o combinaciones de los mismos.
[0071] Los medios de almacenamiento descritos en el presente documento pueden comprender medios de almacenamiento primarios, secundarios y/o terciarios. Los medios de almacenamiento primarios pueden incluir memoria, tal como memoria de acceso aleatorio y/o memoria de solo lectura, por ejemplo. Los medios de almacenamiento secundarios pueden incluir almacenamiento masivo, tal como un disco duro magnético o de estado sólido. Los medios de almacenamiento terciarios pueden incluir medios de almacenamiento extraíbles, tales como un disco magnético u óptico, una cinta magnética, un dispositivo de almacenamiento de estado sólido, etc. En determinadas implementaciones, los medios de almacenamiento o partes de los mismos pueden ser operativamente receptivos de, o configurables de otro modo para acoplarse a, otros componentes de una plataforma informática, tal como un procesador.
[0072] En al menos algunas implementaciones, una o más partes de los medios de almacenamiento descritos en el presente documento pueden almacenar señales representativas de datos y/o información expresada mediante un estado en particular de los medios de almacenamiento. Por ejemplo, una señal electrónica representativa de datos y/o información se puede "almacenar" en una parte de los medios de almacenamiento (por ejemplo, memoria) influyendo en o cambiando el estado de dichas partes de los medios de almacenamiento para que representen datos y/o información como información binaria (por ejemplo, unos y ceros). Así pues, en una implementación en particular, dicho cambio de estado de la parte de los medios de almacenamiento para que almacenen una señal representativa de datos y/o información constituye una transformación de los medios de almacenamiento a un estado o cosa diferente.
[0073] En la descripción detallada precedente, se han expuesto numerosos detalles específicos para permitir una plena comprensión de la materia objeto reivindicada. Sin embargo, los expertos en la técnica entenderán que la materia objeto reivindicada se puede llevar a la práctica sin estos detalles específicos. En otros casos, los procedimientos y aparatos que serían conocidos por los expertos en la técnica medios no se han descrito en detalle para no ofuscar la materia objeto reivindicada.
[0074] Algunas partes de la descripción detallada precedente se han presentado en términos de algoritmos o representaciones simbólicas de operaciones en señales electrónicas digitales binarias almacenadas dentro de una memoria de un aparato específico o un dispositivo o plataforma informática de propósito especial. En el contexto de esta memoria descriptiva en particular, el término aparato específico, o similar, incluye un ordenador de propósito general una vez que está programado para realizar funciones en particular de acuerdo con unas instrucciones de software de programa. Las descripciones algorítmicas o representaciones simbólicas son ejemplos de técnicas usadas por los expertos medios en el procesamiento de señales o técnicas relacionadas para transmitir la esencia de su trabajo a otros expertos en la técnica. Un algoritmo aquí, y en general, se considera una secuencia autoconsecuente de operaciones o un procesamiento de señales similar que conducen a un resultado deseado. En este contexto, las operaciones o el procesamiento implican la manipulación física de cantidades físicas. Típicamente, aunque no necesariamente, dichas cantidades pueden adoptar la forma de señales eléctricas o magnéticas que se pueden almacenar, transferir, combinar, comparar o manipular de otro modo como señales electrónicas que representan información. Ha resultado conveniente a veces, principalmente por razones de uso común, referirse a dichas señales como bits, datos, valores, elementos, símbolos, caracteres, términos, números, información o similares. Debería entenderse, sin embargo, que todos estos términos o similares se deben asociar con cantidades físicas adecuadas y que son meramente etiquetas convenientes.
[0075] A menos que se indique específicamente lo contrario, como resulta evidente a partir del siguiente análisis, se aprecia que a lo largo de la presente memoria descriptiva los análisis en los que se utilizan términos tales como "procesar", "computar", "calcular", "identificar", "determinar", "establecer", "obtener" y/o similares se refieren a acciones o procesos de un aparato específico, tal como un ordenador de propósito especial o un dispositivo electrónico informático de propósito especial similar. En el contexto de la presente memoria descriptiva, por lo tanto, un ordenador de propósito especial o un dispositivo electrónico informático de propósito especial similar puede manipular o transformar señales, típicamente representadas como cantidades físicas electrónicas o magnéticas dentro de memorias, registros u otros dispositivos de almacenamiento de información, dispositivos de transmisión o dispositivos de visualización del ordenador de propósito especial o el dispositivo electrónico informático de propósito especial similar. En el contexto de la presente solicitud de patente en particular, el término "aparato específico" puede incluir un ordenador de propósito general una vez que está programado para realizar funciones en particular de acuerdo con unas instrucciones de software de programa.
[0076] La referencia a lo largo de la presente memoria descriptiva a "un ejemplo", "determinados ejemplos" o "una implementación ejemplar" significa que una característica, estructura o rasgo característico en particular, descritos en relación con la característica y/o el ejemplo pueden estar incluidos en al menos una característica y/o ejemplo de materia objeto reivindicada. Por tanto, no todas las apariciones de la frase "en un ejemplo", "un ejemplo", "en determinados ejemplos" o "en determinadas implementaciones" u otras frases similares en diversas partes a lo largo de la presente memoria descriptiva se refieren necesariamente a la misma característica, ejemplo y/o limitación. Además, las características, estructuras o rasgos característicos en particular se pueden combinar en uno o más ejemplos y/o características.
[0077] Aunque se ha ilustrado y descrito lo que actualmente se consideran ejemplos de características, los expertos en la técnica entenderán que se pueden realizar otras modificaciones diversas y que se pueden sustituir por equivalentes sin apartarse de la materia objeto reivindicada. Adicionalmente, se pueden llevar a cabo muchas modificaciones para adaptar una situación en particular a las enseñanzas de la materia objeto reivindicada sin apartarse del concepto central descrito en el presente documento. Por lo tanto, se pretende que la materia objeto reivindicada no se limite a los ejemplos en particular divulgados, sino que dicha materia objeto reivindicada también pueda incluir todos los aspectos que están dentro del alcance de las reivindicaciones adjuntas y de los equivalentes de las mismas.

Claims (14)

  1. r e iv in d ic a c io n e s
    i . Un procedimiento implementado por ordenador, que comprende:
    extraer una característica tridimensional de un objeto real captado en una vista de cámara de un dispositivo móvil;
    conectar una región de presentación para un elemento de contenido de medios a al menos una parte de la característica tridimensional como respuesta a una entrada de usuario recibida en el dispositivo móvil, en el que el usuario define la colocación de la región de presentación en relación con la característica tridimensional mediante manipulación, desplazamiento y/o redimensionamiento de la región de presentación usando una interfaz gráfica de usuario; y
    definir una región de activación para el elemento de contenido de medios en relación con la característica tridimensional extraída, en el que una presentación del elemento de contenido de medios en un dispositivo móvil responde a la entrada de ese dispositivo móvil dentro de la región de activación.
  2. 2. El procedimiento de la reivindicación 1, en el que extraer la característica tridimensional comprende aplicar un reconocimiento de objetos a la característica tridimensional para obtener una representación electrónica de la característica tridimensional; y en el que conectar la región de presentación a al menos una parte de la característica tridimensional comprende asociar una superficie de presentación de la región de presentación con la representación electrónica de la característica tridimensional.
  3. 3. El procedimiento de la reivindicación 2, que comprende además: iniciar una presentación del elemento de contenido de medios en la superficie de presentación.
  4. 4. El procedimiento de la reivindicación 1, que comprende además: variar una posición y/o una orientación de la superficie de presentación conectada en relación con la característica tridimensional como respuesta a una o más entradas de usuario adicionales recibidas en el dispositivo móvil.
  5. 5. El procedimiento de la reivindicación 4, que comprende además:
    presentar la vista de la cámara en una pantalla gráfica sensible al tacto del dispositivo móvil; y recibir la una o más entradas de usuario adicionales por medio de la pantalla gráfica sensible al tacto mientras dicha vista de cámara se presenta en la pantalla gráfica sensible al tacto para definir al menos parcialmente una posición y/o una orientación de la superficie de presentación conectada en relación con la característica tridimensional.
  6. 6. El procedimiento de la reivindicación 1, que comprende además: asociar la superficie de presentación conectada con el elemento de contenido de medios.
  7. 7. El procedimiento de la reivindicación 1, que comprende además:
    en el que dicha extracción de la característica tridimensional del objeto real comprende recibir dicha vista de cámara captada en un sistema de servidor desde el dispositivo móvil por medio de una red de comunicación; y
    en el que dicha conexión de la región de presentación para el elemento de contenido de medios a al menos la parte de la característica tridimensional comprende recibir la entrada de usuario en el sistema de servidor desde el dispositivo móvil por medio de la red de comunicación e iniciar dicha conexión como respuesta a una recepción de la entrada de usuario en el sistema de servidor.
  8. 8. El procedimiento de la reivindicación 7, que comprende además:
    recibir una vista de cámara posterior del dispositivo móvil en un sistema de servidor desde el dispositivo móvil por medio de una red de comunicación, captando dicha vista de cámara posterior la región de presentación;
    habilitar una presentación del elemento de contenido de medios en la región de presentación iniciando una transmisión del elemento de contenido de medios desde el sistema del servidor al dispositivo móvil por medio de la red de comunicación para una presentación del elemento de contenido de medios en la región de presentación captada en la vista de cámara posterior del dispositivo móvil.
  9. 9. El procedimiento de la reivindicación 1, que comprende además: habilitar una presentación del elemento de contenido de medios en un segundo dispositivo móvil cuando una vista de cámara del segundo dispositivo móvil está captando la región de presentación conectada a la característica tridimensional.
  10. 10. El procedimiento de la reivindicación 9, en el que dicha habilitación de presentación del elemento de contenido de medios en el segundo dispositivo móvil comprende:
    recibir la vista de cámara del segundo dispositivo móvil en un sistema de servidor desde el segundo dispositivo móvil por medio de una red de comunicación; e
    iniciar una transmisión del elemento de contenido de medios y una definición de región de presentación que define una ubicación de la región de presentación en la vista de cámara del segundo dispositivo móvil desde el sistema de servidor al segundo dispositivo móvil por medio de la red de comunicación para una presentación del elemento de contenido de medios en la región de presentación captada en la vista de cámara del segundo dispositivo móvil.
  11. 11. El procedimiento de la reivindicación 9, en el que la presentación del elemento de contenido de medios se habilita y/o inicia dependiendo de la posición y/u orientación del segundo dispositivo móvil con respecto a la región de activación.
  12. 12. Un aparato, que comprende:
    medios para extraer una característica tridimensional de un objeto real captado en una vista de cámara de un dispositivo móvil;
    medios para conectar una región de presentación para un elemento de contenido de medios a al menos una parte de la característica tridimensional como respuesta a una entrada de usuario recibida en el dispositivo móvil, en el que el usuario define la colocación de la región de presentación en relación con la característica tridimensional manipulando, desplazando y/o redimensionando la región de presentación usando una interfaz gráfica de usuario; y
    medios para definir una región de activación para el elemento de contenido de medios en relación con la característica tridimensional extraída, en el que una presentación del elemento de contenido de medios en un dispositivo móvil responde a una entrada de ese dispositivo móvil dentro de la región de activación.
  13. 13. El aparato de la reivindicación 12, comprendiendo el aparato un dispositivo móvil, que comprende:
    un dispositivo de entrada de usuario para recibir una entrada de usuario;
    una cámara para captar una vista de cámara;
    una pantalla gráfica para presentar al menos la vista de la cámara captada por la cámara; y
    un procesador programado con instrucciones para:
    extraer la característica tridimensional de un objeto real captado en una vista de cámara de la cámara;
    conectar la región de presentación para un elemento de contenido de medios a al menos una parte de la característica tridimensional como respuesta a una entrada de usuario recibida en el dispositivo móvil por medio del dispositivo de entrada de usuario.
  14. 14. Un aparato, que comprende: un medio de almacenamiento que tiene instrucciones almacenadas en el mismo que son ejecutables por una plataforma informática para realizar el procedimiento de acuerdo con una cualquiera de las reivindicaciones 1 a 11.
ES11727622T 2010-06-17 2011-06-17 Correlación de contenido basado en dispositivo móvil para entorno de realidad aumentada Active ES2791823T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/818,014 US20110310227A1 (en) 2010-06-17 2010-06-17 Mobile device based content mapping for augmented reality environment
PCT/US2011/040969 WO2011160076A2 (en) 2010-06-17 2011-06-17 Mobile device based content mapping for augmented reality environment

Publications (1)

Publication Number Publication Date
ES2791823T3 true ES2791823T3 (es) 2020-11-06

Family

ID=44627433

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11727622T Active ES2791823T3 (es) 2010-06-17 2011-06-17 Correlación de contenido basado en dispositivo móvil para entorno de realidad aumentada

Country Status (13)

Country Link
US (1) US20110310227A1 (es)
EP (1) EP2583254B1 (es)
JP (2) JP5766795B2 (es)
KR (1) KR101433305B1 (es)
CN (1) CN103814397A (es)
DK (1) DK2583254T3 (es)
ES (1) ES2791823T3 (es)
HU (1) HUE049025T2 (es)
IN (1) IN2013CN00115A (es)
PL (1) PL2583254T3 (es)
PT (1) PT2583254T (es)
SI (1) SI2583254T1 (es)
WO (1) WO2011160076A2 (es)

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908995B2 (en) * 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US20110310227A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Mobile device based content mapping for augmented reality environment
KR101397712B1 (ko) * 2010-07-27 2014-06-27 주식회사 팬택 증강 현실 객체 인식 가이드 제공 장치 및 방법
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
US8793357B2 (en) * 2011-04-02 2014-07-29 Open Invention Network, Llc System and method for persisting mobile agents within a mobile region of interest
US9600933B2 (en) 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
US20150040074A1 (en) * 2011-08-18 2015-02-05 Layar B.V. Methods and systems for enabling creation of augmented reality content
JP5765256B2 (ja) * 2012-02-01 2015-08-19 コニカミノルタ株式会社 文書管理装置、エアタグ情報管理システムおよびプログラム
WO2013116901A1 (en) * 2012-02-08 2013-08-15 Fairweather Corporation Pty Ltd. Computing device for facilitating discounting and promotions using augmented reality
JP6028351B2 (ja) 2012-03-16 2016-11-16 ソニー株式会社 制御装置、電子機器、制御方法、及びプログラム
US9293118B2 (en) * 2012-03-30 2016-03-22 Sony Corporation Client device
US20130297460A1 (en) 2012-05-01 2013-11-07 Zambala Lllp System and method for facilitating transactions of a physical product or real life service via an augmented reality environment
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US9122321B2 (en) 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US20130326018A1 (en) * 2012-05-31 2013-12-05 Jung Hee Ryu Method for Providing Augmented Reality Service, Server and Computer-Readable Recording Medium
US9135735B2 (en) * 2012-06-26 2015-09-15 Qualcomm Incorporated Transitioning 3D space information to screen aligned information for video see through augmented reality
US9361730B2 (en) 2012-07-26 2016-06-07 Qualcomm Incorporated Interactions of tangible and augmented reality objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
KR101984915B1 (ko) * 2012-12-03 2019-09-03 삼성전자주식회사 증강 현실 컨텐츠 운용 방법 및 이를 지원하는 단말기와 시스템
WO2014100688A2 (en) * 2012-12-20 2014-06-26 Accenture Global Services Limited Context based augmented reality
US20140198130A1 (en) * 2013-01-15 2014-07-17 Immersion Corporation Augmented reality user interface with haptic feedback
US9928652B2 (en) 2013-03-01 2018-03-27 Apple Inc. Registration between actual mobile device position and environmental model
US9679414B2 (en) * 2013-03-01 2017-06-13 Apple Inc. Federated mobile device positioning
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US9361716B1 (en) * 2013-03-15 2016-06-07 Ca, Inc. System and method for increasing the system awareness of IT operations personnel with augmented reality
KR20140129513A (ko) * 2013-04-30 2014-11-07 삼성전자주식회사 전자 문서의 정보 제공 방법 및 이를 지원하는 전자 장치
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
KR102158843B1 (ko) * 2013-08-05 2020-10-23 삼성전자주식회사 모바일 디바이스를 이용한 사용자 입력 방법 및 모바일 디바이스
US20150185825A1 (en) * 2013-12-30 2015-07-02 Daqri, Llc Assigning a virtual user interface to a physical object
US9106887B1 (en) 2014-03-13 2015-08-11 Wowza Media Systems, LLC Adjusting encoding parameters at a mobile device based on a change in available network bandwidth
US9690370B2 (en) 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
US9964409B1 (en) * 2014-05-27 2018-05-08 Apple Inc. Localized map generation
US9723109B2 (en) 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
US9646418B1 (en) * 2014-06-10 2017-05-09 Ripple Inc Biasing a rendering location of an augmented reality object
US10930038B2 (en) 2014-06-10 2021-02-23 Lab Of Misfits Ar, Inc. Dynamic location based digital element
US9619940B1 (en) 2014-06-10 2017-04-11 Ripple Inc Spatial filtering trace location
US12008697B2 (en) 2014-06-10 2024-06-11 Ripple, Inc. Of Delaware Dynamic location based digital element
US10026226B1 (en) 2014-06-10 2018-07-17 Ripple Inc Rendering an augmented reality object
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US10475239B1 (en) * 2015-04-14 2019-11-12 ETAK Systems, LLC Systems and methods for obtaining accurate 3D modeling data with a multiple camera apparatus
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3118576B1 (en) * 2015-07-15 2018-09-12 Hand Held Products, Inc. Mobile dimensioning device with dynamic accuracy compatible with nist standard
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
US10235808B2 (en) 2015-08-20 2019-03-19 Microsoft Technology Licensing, Llc Communication system
US10169917B2 (en) * 2015-08-20 2019-01-01 Microsoft Technology Licensing, Llc Augmented reality
CA2996456A1 (en) * 2015-09-02 2017-03-09 Inventio Ag Maintenance of a transportation facility within a building using a mobile device
TW201710646A (zh) * 2015-09-02 2017-03-16 湯姆生特許公司 描繪大視場內容一部份時,決定導航資訊之方法和裝置,以及大視場內容描繪器
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10120437B2 (en) * 2016-01-29 2018-11-06 Rovi Guides, Inc. Methods and systems for associating input schemes with physical world objects
JP6304305B2 (ja) * 2016-05-25 2018-04-04 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US11468111B2 (en) 2016-06-01 2022-10-11 Microsoft Technology Licensing, Llc Online perspective search for 3D components
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US10110678B2 (en) * 2016-08-19 2018-10-23 Sony Corporation System and method for data communication based on image processing
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
EP3577632A4 (en) 2017-03-09 2020-07-22 Samsung Electronics Co., Ltd. SYSTEM AND METHOD FOR IMPROVING AUGMENTED REALITY (AR) EXPERIENCE ON USER EQUIPMENT (EU) BASED ON CONTENT IN A DEVICE
KR102000960B1 (ko) * 2017-03-20 2019-07-18 ㈜라이커스게임 벡터를 이용한 증강 현실 영상 구현 방법
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
IT201700058961A1 (it) 2017-05-30 2018-11-30 Artglass S R L Metodo e sistema di fruizione di un contenuto editoriale in un sito preferibilmente culturale o artistico o paesaggistico o naturalistico o fieristico o espositivo
US11175516B1 (en) 2018-02-27 2021-11-16 Snap Inc. Object recognition for improving interfaces on an eyewear device and other wearable and mobile devices
JP7209474B2 (ja) * 2018-03-30 2023-01-20 株式会社スクウェア・エニックス 情報処理プログラム、情報処理方法及び情報処理システム
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
US10922895B2 (en) 2018-05-04 2021-02-16 Microsoft Technology Licensing, Llc Projection of content libraries in three-dimensional environment
US10349059B1 (en) 2018-07-17 2019-07-09 Wowza Media Systems, LLC Adjusting encoding frame size based on available network bandwidth
KR102181499B1 (ko) * 2019-03-14 2020-11-23 주식회사 듀코젠 양손 입력을 지원하는 vr 콘텐츠 저작 방법 및 시스템
US10963140B2 (en) * 2019-04-12 2021-03-30 John William Marr Augmented reality experience creation via tapping virtual surfaces in augmented reality
US11430168B2 (en) * 2019-08-16 2022-08-30 Samsung Electronics Co., Ltd. Method and apparatus for rigging 3D scanned human models
JP7760497B2 (ja) 2019-09-25 2025-10-27 ヌードル テクノロジー インコーポレイテッド 無線機を使用して信号をキャプチャすることによって現実を拡張すること
US11195020B1 (en) * 2019-10-29 2021-12-07 Facebook Technologies, Llc Systems and methods for maintaining virtual spaces
EP4592880A3 (en) 2019-12-06 2025-10-08 Magic Leap, Inc. Dynamic browser stage
US11137976B1 (en) 2020-09-11 2021-10-05 Google Llc Immersive audio tours
WO2023034010A1 (en) 2021-09-01 2023-03-09 Snap Inc. Physical action-based augmented reality communication exchanges
WO2023034012A1 (en) 2021-09-01 2023-03-09 Snap Inc. Handcrafted augmented reality effort evidence
WO2023034009A1 (en) * 2021-09-01 2023-03-09 Snap Inc. Handcrafted augmented reality experiences
KR20240050437A (ko) 2021-09-02 2024-04-18 스냅 인코포레이티드 증강 현실 프로프 상호작용
US11880942B2 (en) * 2021-12-07 2024-01-23 Verizon Patent And Licensing Inc. Systems and methods for using a location-based field of view associated with a virtual location marker

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898307B1 (en) * 1999-09-22 2005-05-24 Xerox Corporation Object identification method and system for an augmented-reality display
JP4298407B2 (ja) * 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
JP4253567B2 (ja) * 2003-03-28 2009-04-15 オリンパス株式会社 データオーサリング処理装置
CA2559423C (en) * 2004-02-13 2012-10-16 Envisionit Llc Public service message broadcasting system and method
FR2887057B1 (fr) * 2005-06-08 2007-12-21 Decopole Sa Procede et systeme d'elaboration de caracteristiques geometriques d'une image encodee numeriquement
US7577522B2 (en) * 2005-12-05 2009-08-18 Outland Research, Llc Spatially associated personal reminder system and method
KR100677502B1 (ko) * 2006-01-13 2007-02-02 엘지전자 주식회사 이동통신 단말기에서의 증강현실기반의 메시지 작성 방법및 그 이동통신 단말기
US20080221989A1 (en) * 2007-03-09 2008-09-11 Samsung Electronics Co., Ltd. Method and system for providing sponsored content on an electronic device
US7636574B2 (en) * 2006-05-19 2009-12-22 Alcatel-Lucent Auctioning of message delivery opportunities in a location-based services system
US7784461B2 (en) * 2006-09-26 2010-08-31 Nellcor Puritan Bennett Llc Three-dimensional waveform display for a breathing assistance system
US8130211B2 (en) * 2007-09-24 2012-03-06 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace
US20090161963A1 (en) * 2007-12-20 2009-06-25 Nokia Corporation Method. apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects
WO2009101623A2 (en) * 2008-02-13 2009-08-20 Innovid Inc. Inserting interactive objects into video content
US8314779B2 (en) * 2009-02-23 2012-11-20 Solomon Systech Limited Method and apparatus for operating a touch panel
US9014685B2 (en) * 2009-06-12 2015-04-21 Microsoft Technology Licensing, Llc Mobile device which automatically determines operating mode
US9118428B2 (en) * 2009-11-04 2015-08-25 At&T Intellectual Property I, L.P. Geographic advertising using a scalable wireless geocast protocol
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US8903798B2 (en) * 2010-05-28 2014-12-02 Microsoft Corporation Real-time annotation and enrichment of captured video
US20110310227A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Mobile device based content mapping for augmented reality environment

Also Published As

Publication number Publication date
PL2583254T3 (pl) 2020-07-27
HUE049025T2 (hu) 2020-08-28
JP2015144007A (ja) 2015-08-06
EP2583254A2 (en) 2013-04-24
JP2013538377A (ja) 2013-10-10
JP5766795B2 (ja) 2015-08-19
US20110310227A1 (en) 2011-12-22
WO2011160076A2 (en) 2011-12-22
PT2583254T (pt) 2020-05-15
IN2013CN00115A (es) 2015-07-03
KR20130029800A (ko) 2013-03-25
CN103814397A (zh) 2014-05-21
SI2583254T1 (sl) 2020-07-31
DK2583254T3 (da) 2020-04-14
WO2011160076A3 (en) 2013-06-27
KR101433305B1 (ko) 2014-08-22
EP2583254B1 (en) 2020-02-12

Similar Documents

Publication Publication Date Title
ES2791823T3 (es) Correlación de contenido basado en dispositivo móvil para entorno de realidad aumentada
US11922588B2 (en) Cooperative augmented reality map interface
EP3095092B1 (en) Method and apparatus for visualization of geo-located media contents in 3d rendering applications
US10643373B2 (en) Augmented reality interface for interacting with displayed maps
US8890896B1 (en) Image recognition in an augmented reality application
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
US20160335796A1 (en) Method and apparatus for visualization of geo-located media contents in 3d rendering applications
US10796207B2 (en) Automatic detection of noteworthy locations
CN104380346A (zh) 针对视频透视扩增现实将3d空间信息转变为屏幕对准信息
TWI400467B (zh) Electronic device with object guidance function and its object guidance method
US9870514B2 (en) Hypotheses line mapping and verification for 3D maps
Lue et al. 3D whiteboard: collaborative sketching with 3D-tracked smart phones
Oravec Interaction with 3D Objects in Augmented Reality on Android Platform