ES3038024T3 - Vision strengthening systems - Google Patents
Vision strengthening systemsInfo
- Publication number
- ES3038024T3 ES3038024T3 ES15837049T ES15837049T ES3038024T3 ES 3038024 T3 ES3038024 T3 ES 3038024T3 ES 15837049 T ES15837049 T ES 15837049T ES 15837049 T ES15837049 T ES 15837049T ES 3038024 T3 ES3038024 T3 ES 3038024T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- user
- eye
- content
- incomplete
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting in contact-lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/008—Methods or devices for eye surgery using laser
- A61F9/00825—Methods or devices for eye surgery using laser for photodisruption
- A61F9/00827—Refractive correction, e.g. lenticle
- A61F9/00829—Correction of higher orders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/08—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting in contact-lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/02—Goggles
- A61F9/022—Use of special optical filters, e.g. multiple layers, filters for protection against laser light or light from nuclear explosions, screens with different filter properties on different parts of the screen; Rotating slit-discs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H5/00—Exercisers for the eyes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting in contact-lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/008—Methods or devices for eye surgery using laser
- A61F2009/00844—Feedback systems
- A61F2009/00846—Eyetracking
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting in contact-lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/008—Methods or devices for eye surgery using laser
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/165—Wearable interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5007—Control means thereof computer controlled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5043—Displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5097—Control means thereof wireless
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Optics & Photonics (AREA)
- Vascular Medicine (AREA)
- Epidemiology (AREA)
- Pain & Pain Management (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Processing Or Creating Images (AREA)
- Rehabilitation Tools (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Se ha demostrado que las tareas activas de aprendizaje perceptual dicóptico o el juego dicóptico mejoran significativamente la agudeza visual en niños y adultos con ambliopía. Sin embargo, estas tareas de aprendizaje perceptual dicóptico son intensivas y repetitivas, por lo que el incumplimiento es alto. En cambio, la invención proporciona aprendizaje perceptual dicóptico de forma que el usuario mantiene su uso y aumenta el cumplimiento. Además, el cumplimiento se vuelve automático si el usuario realiza las tareas con normalidad y "olvida" que está recibiendo tratamiento, ya que este se integra con una mínima interrupción en su vida y actividades. Por consiguiente, se presenta una metodología que aprovecha la estimulación dicóptica complementaria. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Sistemas de fortalecimiento de la visión
Campo de la invención
Esta invención se refiere a la visión y, más particularmente, a proporcionar sistemas para reducir el alcance de la disfunción binocular y/o mejorar la función visual.
Antecedentes de la invención
El procesamiento visual humano implica acciones e interacciones complejas de los ojos y el cerebro. Para simplificar esta descripción, podemos pensar que el sistema visual está compuesto por tres áreas de función, en concreto, agudeza, percepción y movimiento ocular. Una cualquiera de estas funciones puede verse afectada sin deterioro de las dos funciones restantes o combinaciones de deterioros pueden surgir de una variedad de factores que incluyen la genética, enfermedades y problemas de salud tales como ataques cardíacos hasta lesiones cerebrales traumáticas leves.
La agudeza visual, comúnmente se refiere a la claridad de la visión y depende de manera similar de una combinación de factores ópticos y neurales, al igual que el sistema visual en general, incluyendo, por ejemplo, la nitidez del foco retiniano dentro del ojo, la salud y el funcionamiento de la retina, y la sensibilidad de la facultad interpretativa del cerebro. Una causa común de baja agudeza visual es el error de refracción (ametropía) que puede surgir de una variedad de factores que conducen a condiciones tales como pseudomiopía, miopía e hipermetropía, mientras que las causas ópticas pueden incluir astigmatismo o irregularidades corneales más complejas. Normalmente, tales problemas se abordan por medios ópticos tales como gafas, lentes de contacto, cirugía láser, etc.
Los factores neurales que limitan la agudeza se localizan en la retina, el cerebro, o la vía que los conecta, el nervio óptico. Ejemplos de lo primero son un desprendimiento de retina y degeneración macular, por nombrar solo dos, mientras que en otros casos, la baja agudeza visual es causada por daño cerebral, tal como por lesión cerebral traumática o accidente cerebrovascular. Un deterioro común es la ambliopía resultante de la función incorrecta de la vía nerviosa que conecta el ojo con el cerebro que da como resultado una disminución de la visión en un ojo que de otra manera parece normal o la disminución está desproporcionada con cualquier problema estructural asociado del ojo. La ambliopía se ha tratado clásicamente parcheando el otro ojo para forzar el uso del ojo ambliópico. Sin embargo, muchas personas, especialmente aquellos que solo tienen una forma leve, ni siquiera son conscientes de que tienen la afección hasta que se prueban a edades más avanzadas, ya que la visión en su ojo más fuerte es normal. Individuos con ambliopía severa, sin embargo, pueden experimentar trastornos visuales relacionados, incluyendo mala percepción de profundidad, mala agudeza visual, mala agudeza espacial, baja sensibilidad al contraste y al movimiento. La ambliopía se caracteriza por varias anomalías funcionales en la visión espacial, incluyendo reducciones en la agudeza visual (VA), la función de sensibilidad al contraste (CSF) y la agudeza de Vernier, así como la distorsión espacial, interacciones espaciales anormales y detección de contorno deteriorada. De forma adicional, los individuos con ambliopía sufren anomalías binoculares tales como estereoagudeza deteriorada (agudeza estereoscópica) y suma binocular anormal.
Dentro de la técnica anterior existe una comprensión creciente del papel de la disfunción binocular (supresión) en la ambliopía que ha motivado una reformulación del tratamiento de la ambliopía. Muchos pacientes ambliópicos tienen un sistema visual binocular estructuralmente intacto que puede revelarse disminuyendo el contraste del otro ojo para reducir la supresión interocular. En consecuencia, se ha demostrado que las tareas de aprendizaje perceptivo dicóptico activo repetido o el juego dicóptico mejoran significativamente la agudeza visual de niños y adultos ambliópicos. Tales tareas y juegos dicópticos proporcionan una visión binocular equilibrada en contraste, con bajo contraste para el otro ojo y alto contraste para el ojo ambliópico. Sin embargo, estas tareas de aprendizaje perceptivo dicóptico son intensivas y repetitivas y los juegos dicópticos usados hasta la fecha tienen un atractivo limitado, lo que da como resultado que aproximadamente el 40 % de los pacientes no supervisados no cumplan incluso con solo 16 horas de actividad asignada durante un período de 4 semanas.
En consecuencia, sería beneficioso proporcionar un sistema que proporcione el aprendizaje perceptivo dicóptico requerido pero de una manera que el usuario mantenga su uso y se incremente el cumplimiento. Sería beneficioso adicionalmente proporcionar este sistema de manera que el usuario realice tareas de una manera normal y "olvide" que realmente se está sometiendo a tratamiento, ya que está integrado con una interrupción mínima de su elevación y actividades. En consecuencia, los inventores han establecido una metodología que aprovecha las propiedades complementarias.
El documento US2006087618 divulga un aparato de visualización ocular que tiene medios de presentación de imágenes adaptados para mostrar una primera imagen a un solo ojo de un sujeto, y una segunda, imagen diferente al otro ojo del sujeto únicamente, presentándose la primera y la segunda imágenes al sujeto para que se perciban como una imagen compuesta, en donde al menos una de la primera o segunda imágenes incluye un objeto en movimiento. La estimulación dicóptica para tratar la ambliopía binocular en entornos normales mediante el uso de dispositivos de visualización en sus actividades diarias. Se conoce a partir de IEEE Transactions On Neural Systems and Rehabilitation Engineering, vol. 19, n.° 3, "A Game Platform for Treatment of Amblyopia". También se conoce a partir del documento US2006087618 un aparato de visualización ocular para la evaluación y medición de y para el tratamiento de trastornos oculares.
Otros aspectos y características de la presente invención se harán evidentes para aquellos expertos en la materia tras revisar la siguiente descripción de las realizaciones específicas de la invención junto con las figuras adjuntas.
Sumario de la invención
La presente invención proporciona un sistema para procesar contenido para su presentación a un usuario de acuerdo con la reivindicación 1 y un sistema para presentar contenido a un usuario de acuerdo con la reivindicación 7.
Sumario de la divulgación
Un objeto de la presente invención mitigar las limitaciones en la técnica anterior en relación con la visión y, más particularmente, proporcionar métodos y sistemas para reducir el alcance de la disfunción binocular y/o mejorar la función visual.
De acuerdo con una realización de la invención, se proporciona un sistema para establecer una primera imagen para su presentación al ojo izquierdo de un usuario y una segunda imagen para su presentación al ojo derecho del usuario, cada una de la primera imagen y la segunda imagen generada por la modificación de una imagen de origen en dependencia de una característica de al menos una de una condición neural y una condición neurológica del usuario, en donde ni el ojo izquierdo ni el ojo derecho del usuario reciben una representación completa de la imagen de origen.
De acuerdo con una realización de la invención, se proporciona un sistema que comprende un módulo, comprendiendo el módulo:
un primer puerto para recibir el primer contenido electrónico para su visualización a un usuario;
un segundo puerto para proporcionar un segundo contenido electrónico a un dispositivo de visualización asociado con el usuario; y
un circuito de procesamiento para modificar el primer contenido electrónico para generar el segundo contenido electrónico; en donde la modificación es tal que un ojo izquierdo de un usuario y un ojo derecho del usuario reciben diferentes imágenes y tal que el contenido modificado para el ojo izquierdo o el ojo derecho del usuario también se modifica de acuerdo con una característica de una condición neurológica del el usuario y ni el ojo izquierdo ni el ojo derecho del usuario reciben una representación completa del contenido electrónico.
Las instrucciones ejecutables para su ejecución por un procesador almacenadas en un medio de almacenamiento no volátil, no transitorio que, cuando se ejecutan, dan como resultado que se realice un proceso, comprendiendo el proceso establecer una primera imagen para su presentación al ojo izquierdo de un usuario y una segunda imagen para su presentación al ojo derecho del usuario, cada una de la primera imagen y la segunda imagen generada por la modificación de una imagen de origen en función de una característica de una condición óptica del usuario, en donde ni el ojo izquierdo ni el ojo derecho del usuario reciben una representación completa de la imagen de origen.
Otros aspectos y características de la presente invención se harán evidentes para aquellos expertos en la materia tras revisar la siguiente descripción de las realizaciones específicas de la invención junto con las figuras adjuntas.
Breve descripción de los dibujos
Se describirán ahora realizaciones de la presente invención, únicamente a modo de ejemplo, haciendo referencia a las figuras adjuntas, en donde:
la Figura 1 representa un entorno de red en el que se pueden emplear realizaciones de la invención;
la Figura 2 representa un dispositivo electrónico portátil inalámbrico que soporta comunicaciones a una red tal como se representa en la Figura 11 y como realizaciones de soporte de la invención;
la Figura 3A representa una imagen segmentada dicópticamente para variación de contenido espacial para presentación a un usuario de acuerdo con una realización de la invención;
la Figura 3B representa una porción de texto segmentado dicópticamente para variación de contenido espacial para presentación a un usuario de acuerdo con una realización de la invención;
la Figura 4 representa porciones de una imagen segmentada dicópticamente para variación de contenido espacial para presentación a un usuario de acuerdo con una realización de la invención junto con gráficos de opacidad; la Figura 5A representa resultados de agudeza visual para ocho niños ambliópicos que ven películas modificadas de acuerdo con realizaciones de la invención durante un período de dos semanas;
la Figura 5B representa mejoras en la agudeza visual y la agudeza estereoscópica para sujetos ambliópicos que emplean una realización de la invención durante una hora diaria durante dos semanas;
la Figura 6 representa un flujo de proceso ilustrativo para un sistema de acuerdo con una realización de la invención que aprovecha porciones de visualización duales con ponderación espacial;
la Figura 7 representa un flujo de proceso ilustrativo para un sistema de acuerdo con una realización de la invención que aprovecha una única pantalla con ponderación cromática; y
la Figura 8 representa ejemplos de pantallas ópticas, gafas ópticas, etc. que soportan las realizaciones de la invención.
Descripción detallada
La presente invención está dirigida a la visión y, más particularmente, a proporcionar métodos y sistemas para reducir el alcance de la disfunción binocular y/o mejorar la función visual.
La siguiente descripción proporciona únicamente una o más realizaciones a modo de ejemplo y no pretende limitar el alcance, aplicabilidad o configuración de la divulgación. En cambio, la siguiente descripción de las una o más realizaciones a modo de ejemplo proporcionará a los expertos en la materia una descripción que permite implementar una realización a modo de ejemplo. Entendiéndose que se pueden realizar diversos cambios en la función y disposición de los elementos sin apartarse del alcance, como se expone en las reivindicaciones adjuntas.
Un "dispositivo electrónico portátil" (PED) como se usa en el presente documento y en toda esta divulgación, se refiere a un dispositivo inalámbrico utilizado para comunicaciones y otras aplicaciones que requiere una batería u otra forma independiente de energía para su alimentación. Este incluye dispositivos, pero sin limitación, tal como un teléfono celular, teléfono inteligente, asistente digital personal (PDA), ordenador portátil, buscapersonas, reproductor multimedia portátil, consola de juegos portátil, laptop, una tableta y un lector electrónico.
Un "dispositivo electrónico fijo" (FED) como se usa en el presente documento y en toda esta divulgación, se refiere a un dispositivo inalámbrico y/o cableado utilizado para comunicaciones y otras aplicaciones que requiere conexión a una interfaz fija para obtener energía. Este incluye, pero sin limitación, un laptop, un ordenador personal, un servidor informático, un kiosko, una consola de juego, un decodificador digital, un decodificador analógico, un aparato habilitado para Internet, una televisión habilitada para Internet y un reproductor multimedia.
Una "aplicación" (comúnmente denominada "aplicación") como se usa en el presente documento puede referirse a, pero sin limitación, una "aplicación de software" y un elemento de un "conjunto de software" como se usa en el presente documento puede referirse a, pero sin limitación, un programa informático diseñado para permitir que un individuo realice una actividad. Por tanto, una aplicación difiere de un sistema operativo (que ejecuta un ordenador), una utilidad (que realiza tareas de mantenimiento o de propósito general) y unas herramientas de programación (con las que se crean programas informáticos). Generalmente, dentro de la siguiente descripción con respecto a las realizaciones de la invención, se presenta generalmente una aplicación con respecto al software instalado de forma permanente y/o temporal en un PED y/o FED con el fin de presentar una microencuesta a un consumidor y/o cliente.
Una "red social" o "servicio de red social" como se usa en el presente documento puede referirse a, pero sin limitación, una plataforma para construir redes sociales o relaciones sociales entre personas que pueden, por ejemplo, compartir intereses, actividades, antecedentes o conexiones de la vida real. Este incluye, pero sin limitación, redes sociales tales como servicios con base en EE. UU. tales como Facebook, Google+, Tumblr y Twitter; así como Nexopia, Badoo, Bebo, VKontakte, Delphi, Hi5, Hyves, iWiW, Nasza-Klasa, Soup, Glocals, Skyrock, The Sphere, StudiVZ, Tagged, Tuenti, XING, Orkut, Mxit, Cyworld, Mixi, renren, weibo y Wretch.
Las "Redes sociales" o "servicios de redes sociales" como se usan en el presente documento pueden referirse a, pero sin limitación, un medio de interacción entre personas en el que crean, comparten y/o intercambian información e ideas en comunidades y redes virtuales. Este incluye, pero sin limitación, servicios de medios sociales relacionados con revistas, foros de Internet, weblogs, blogs sociales, microblogging, wikis, redes sociales, podcasts, fotografías o imágenes, vídeo, sistemas de calificación y marcadores sociales, así como aquellos que aprovechan los blogs, el uso compartido de imágenes, videoblogs, publicaciones en muros, el uso compartido de música, el crowdsourcing y la voz sobre IP, por nombrar algunos. Los servicios de medios sociales pueden clasificarse, por ejemplo, como proyectos colaborativos (por ejemplo, Wikipedia); blogs y microblogs (por ejemplo, Twitter™); comunidades de contenido (por ejemplo, YouTube y DailyMotion); sitios de redes sociales (por ejemplo, Facebook™); mundos de juego virtuales (por ejemplo, World of Warcraft™); y mundos sociales virtuales (por ejemplo, Second Life™).
Una "empresa" como se usa en el presente documento puede referirse a, pero sin limitación, un proveedor de un servicio y/o un producto a un usuario, cliente o consumidor. Este incluye, pero sin limitación, un punto de venta minorista, una tienda, un mercado, un mercado en línea, un fabricante, un minorista en línea, una organización benéfica, una empresa de servicios públicos y un proveedor de servicios. Tales empresas pueden ser propiedad y estar controladas directamente por una empresa o pueden ser propiedad y operarse por un franquiciado bajo la dirección y gestión de un franquiciador.
Un "proveedor de servicios" como se usa en el presente documento puede referirse a, pero sin limitación, un tercero proveedor de un servicio y/o un producto a una empresa. Este incluye, pero sin limitación, un punto de venta minorista, una tienda, un mercado, un mercado en línea, un fabricante, un minorista en línea, una empresa de servicios públicos, un proveedor de marca propia y un proveedor de servicios en donde el servicio y/o producto es al menos uno que es comercializado, vendido, ofrecidos y distribuido por la empresa únicamente o además del proveedor de servicios.
Un 'tercero' o "proveedor externo" como se usa en el presente documento puede referirse a, pero sin limitación, un denominado proveedor "independiente" de un servicio y/o un producto a una empresa y/o proveedor de servicios en donde el consumidor y/o cliente contrata al tercero para el servicio y/o producto real en el que están interesados y / o comprar.
Un "usuario" como se usa en el presente documento puede referirse a, pero sin limitación, una empresa, un proveedor de servicios y un individuo que accede a al menos uno del software de publicación y/o software de publicación de acuerdo con las realizaciones de la invención desde el punto de vista de la publicación de información.
"Información de usuario" como se usa en el presente documento puede referirse a, pero sin limitación, información de comportamiento de usuario y/o información de perfil de usuario. También puede incluir la información biométrica de un usuario, una estimación de la información biométrica del usuario, o una proyección/predicción de la información biométrica de un usuario derivada de la información biométrica actual y/o histórica.
Un "dispositivo ponible" o "sensor ponible" se refiere a dispositivos electrónicos en miniatura que lleva el usuario, incluidos los que están debajo, dentro, con o encima de la ropa y son parte de una clase general más amplia de tecnología ponible que incluye "ordenadores ponibles" que, en contraste, están dirigidos a tecnologías de la información de propósito general o especial y desarrollo de medios. Tales dispositivos ponibles y/o sensores ponibles pueden incluir, pero sin limitación, teléfonos inteligentes, relojes inteligentes, tejidos inteligentes (e-textiles), camisas inteligentes, rastreadores de actividad, gafas inteligentes, sensores ambientales, sensores médicos, sensores biológicos, sensores fisiológicos, sensores químicos, sensores ambientales, sensores de posición, sensores neurológicos, sistemas de administración de fármacos, dispositivos de diagnóstico y pruebas médicas y sensores de movimiento.
La referencia a un "documento" como se usa en el presente documento puede referirse a, pero sin limitación, cualquier producto de trabajo legible por máquina y almacenable por máquina. Un documento puede ser un archivo, una combinación de archivos, uno o más archivos con enlaces incorporados a otros archivos, etc. Los archivos pueden ser de cualquier tipo, como texto, audio, imagen, vídeo, etc. Las partes de un documento a representar a un usuario final pueden considerarse como "contenido" del documento. Un documento puede incluir "datos estructurados" que contengan tanto contenido (palabras, imágenes, etc.) y alguna indicación del significado de ese contenido (por ejemplo, campos de correo electrónico y datos asociados, etiquetas HTML y datos asociados, etc.) Los espacios publicitarios en el documento pueden definirse mediante información o instrucciones incorporadas. En el contexto de la Internet, un documento común es una página web. Las páginas web a menudo incluyen contenido y pueden incluir información incorporada (como metainformación, hipervínculos, etc.) y/o instrucciones integradas (como Javascript, etc.). En muchos casos, un documento tiene una ubicación de almacenamiento única y direccionable, por lo que puede ser identificado de forma exclusiva por esta ubicación direccionable, como un localizador uniforme de recursos (URL), por ejemplo, utilizado como una dirección única para acceder a la información en Internet.
Una "máscara" como se usa en el presente documento puede referirse a, pero sin limitación, un ajuste espacial y/o temporal realizado en una o más regiones de una imagen que se presenta a un usuario. En consecuencia, la máscara puede, dentro de las realizaciones de la invención, eliminar contenido dentro de las una o más regiones de la imagen o, dentro de otras realizaciones de la invención, las una o más regiones de la imagen pueden presentarse como, por ejemplo, una versión borrosa, una versión de bajo contraste, una intensidad más baja, una mayor intensidad, ajustadas espectralmente, y con otro contenido no relacionado con la imagen. En consecuencia, tales máscaras pueden considerarse en términos más generales como que proporcionan regiones de visualización o filtros espaciotemporales. En consecuencia, tales regiones pueden estar desprovistas de estímulos ópticos o incluir estímulos. Sin embargo, independientemente de las una o más modificaciones realizadas, una característica común a las mismas es que tienen límites graduados de tal manera que las una o más modificaciones se introducen/eliminan sobre un límite alrededor de una región de manera que el usuario no percibe límites entre regiones modificadas y no modificadas.
Haciendo referencia a la Figura 1, se representa un entorno de red 200 dentro del cual pueden emplearse realizaciones de la invención que soportan sistemas de publicación y aplicaciones/plataformas de publicación (PSPAP) de acuerdo con las realizaciones de la invención. Tales PSPAP, por ejemplo, soportan múltiples canales y contenido dinámico. Como se muestra, el primer y segundo grupos de usuarios 100A y 100B interactúan respectivamente con una red de telecomunicaciones 200. Dentro de la arquitectura de telecomunicaciones representativa, una central remota 180 se comunica con el resto de una red de proveedores de servicios de telecomunicaciones a través de la red 200 que puede incluir, por ejemplo, elementos de red troncal OC-48/OC de largo alcance, una red de área extensa OC-48 (WAN), una red óptica pasiva y un enlace inalámbrico. La central 180 está conectada a través de la red 200 a conmutadores locales, regionales e internacionales (no mostrados para mayor claridad) y, a través de la red 200, a los primeros y segundos puntos de acceso celular 195A y 195B, respectivamente, que proporcionan celdas Wi-Fi para los primeros y segundos grupos de usuarios 100A y 100B, respectivamente. También están conectados a la red 200 el primer y segundo nodos Wi-Fi 110A y 110B, estando el último acoplado a la red 200 a través del enrutador 105. El segundo nodo Wi-Fi 110B está asociado con la empresa 160, por ejemplo, General Electric™, dentro de la cual hay presentes otro primer y segundo grupos de usuarios 100A y 100B. El segundo grupo de usuarios 100B también puede conectarse a la red 200 a través de interfaces cableadas que incluyen, pero sin limitación, DSL, Dial-Up, DOCSIS, Ethernet, G.hn, ISDN, MoCA, PON y comunicación por línea eléctrica (PLC) que puede encaminarse o no a través de un encaminador tal como el encaminador 105.
Dentro de la célula asociada con el primer AP 110A, el primer grupo de usuarios 100A puede emplear una variedad de PED que incluyen, por ejemplo, laptop 155, consola de juegos portátil 135, tableta 140, teléfono inteligente 150, teléfono celular 145, así como reproductor multimedia portátil 130. Dentro de la célula asociada con el segundo AP 110B está el segundo grupo de usuarios 100B que puede emplear una variedad de FED que incluyen, por ejemplo, la consola de juegos 125, ordenador personal 115 y televisión inalámbrica/habilitada para Internet 120, así como módem por cable 105. El primer y segundo AP celulares 195A y 195B proporcionan respectivamente, por ejemplo, servicios de telefonía celular GSM (Sistema Global para Comunicaciones Móviles) así como servicios evolucionados 3G y 4G con soporte de transporte de datos mejorado. El segundo AP celular 195B proporciona cobertura en la realización ilustrativa al primer y segundo grupos de usuarios 100A y 100B. Como alternativa, el primer y segundo grupos de usuarios 100A y 100b pueden ser geográficamente dispares y acceder a la red 200 a través de múltiples AP, no mostrados para mayor claridad, distribuidos geográficamente por el operador u operadores de red. El primer AP celular 195A como se muestra proporciona cobertura al primer grupo de usuarios 100A y al entorno 170, que comprende el segundo grupo de usuarios 100B, así como el primer grupo de usuarios 100A. En consecuencia, el primer y segundo grupos de usuarios 100A y 100B pueden, de acuerdo con sus interfaces de comunicaciones particulares, comunicarse con la red 200 a través de uno o más estándares de comunicaciones inalámbricas tales como, por ejemplo, IEEE 802.11, IEEE 802.15, IEEE 802.16, IEEE 802.20, UMTS, GSM 850, GSM 900, GSM 1800, GSM 1900, GPRS, ITU-R 5.138, ITU-R 5.150, ITU-R 5.280, e IMT-2000. Sería evidente para un experto en la materia que muchos dispositivos electrónicos portátiles y fijos pueden soportar múltiples protocolos inalámbricos simultáneamente, de manera que, por ejemplo, un usuario puede emplear servicios GSM tales como telefonía y transmisión de datos SMS y Wi-Fi/WiMAX, VOIP y acceso a Internet. Por consiguiente, los dispositivos electrónicos portátiles dentro del primer grupo de usuarios 100A pueden formar asociaciones o bien a través de normas tales como IEEE 802.15 y Bluetooth también de una manera ad-hoc.
A la red 200 también se conectan las redes sociales (SOCNETS) 165, el primer y segundo proveedores de contenido 170A y 170B respectivamente, por ejemplo, YouTube™ y Comcast™, y el primer proveedor así como los externos 175A a 175C, respectivamente, por ejemplo, Medical Monitoring Service, American Paper Optics™ (un proveedor de gafas tridimensionales) y Walgreen's (una empresa farmacéutica), así como el primer y segundo servidores 190A y 190B, junto con otros, no mostrados para mayor claridad. El primer y segundo servidores 190A y 190B pueden alojar de acuerdo con las realizaciones de la invención múltiples servicios asociados con un proveedor de sistemas de publicación y aplicaciones/plataformas de publicación (PSPAP); un proveedor de una SOCNET o medios sociales (SOME) que aprovecha las características de PSPAP; un proveedor de una SOCNET y/o SOME que no aprovecha las características de PSPAP; un proveedor de servicios a PEDS y/o FEDS; un proveedor de uno o más aspectos de comunicaciones alámbricas y/o inalámbricas; una empresa 160 que aprovecha las características de PSPAP; bases de datos de licencias; bases de datos de contenido; bases de datos de imágenes; bibliotecas de contenido; bases de datos de clientes; sitios web; y aplicaciones de software para descargar o acceder por FED y/o PED que aprovechan y/o alojan características de PSPAP. El primer y segundo servidores de contenido primario 190A y 190B también pueden alojar, por ejemplo, otros servicios de Internet tales como un motor de búsqueda, servicios financieros, aplicaciones de terceros y otros servicios basados en Internet.
En consecuencia, un consumidor y/o cliente (CONCUS) puede aprovechar un PED y/o FED dentro de una empresa 160, por ejemplo, y acceder a uno del primer o segundo servidores de contenido primario 190A y 190B respectivamente para realizar una operación tal como acceder/descargar una aplicación que proporciona características de PSPAP de acuerdo con realizaciones de la invención; ejecutar una aplicación ya instalada que proporciona características de PSPAP; ejecutar una aplicación basada en web que proporciona características de p SpAP; o acceder al contenido. De manera similar, un CONCUS puede emprender tales acciones u otras que aprovechan las realizaciones de la invención que aprovechan un PED o FED dentro del primer y segundo grupos de usuarios 100A y 100B respectivamente a través de uno del primer y segundo AP celulares 195A y 195B respectivamente y los primeros nodos Wi-Fi 110A.
Haciendo referencia ahora a la Figura 2, se representa un dispositivo electrónico 204 y un punto de acceso de red 207 que soporta características de PSPAP de acuerdo con las realizaciones de la invención. El dispositivo electrónico 204 puede, por ejemplo, ser un PED y/o FED y puede incluir elementos adicionales por encima y más allá de los descritos y representados. También se representa dentro del dispositivo electrónico 204 la arquitectura de protocolo como parte de un diagrama funcional simplificado de un sistema 200 que incluye un dispositivo electrónico 204, tal como un teléfono inteligente 155, un punto de acceso (AP) 206, tal como el primer AP 110 y uno o más dispositivos de red 207, tales como servidores de comunicación, servidores de medios de transmisión por secuencias y enrutadores, por ejemplo, tales como primer y segundo servidores 190A y 190B respectivamente. Los dispositivos de red 207 pueden acoplarse al AP 206 a través de cualquier combinación de redes, enlaces de comunicación por cable, inalámbricos y/u ópticos tales como los analizados anteriormente con respecto a la Figura 1, así como directamente, como se indica. Los dispositivos de red 207 están acoplados a la red 200 y en las redes sociales (SOCNETS) 165, el primer y segundo proveedores de contenido 170A y 170<b>respectivamente, por ejemplo, YouTube™ y Comcast™, y el primer proveedor así como los externos 175A a 175C, respectivamente, por ejemplo, Medical Monitoring Service, American Paper Optics™ (un proveedor de gafas tridimensionales) y Walgreen's (una empresa farmacéutica).
El dispositivo electrónico 204 incluye uno o más procesadores 210 y una memoria 212 acoplada al procesador o procesadores 210. El AP 206 también incluye uno o más procesadores 211 y una memoria 213 acoplada al procesador o procesadores 210. Una lista no exhaustiva de ejemplos para cualquiera de los procesadores 210 y 211 incluye una unidad central de procesamiento (CPU), un procesador de señal digital (DSP), un ordenador con un conjunto reducido de instrucciones (RISC), un ordenador con un conjunto complejo de instrucciones (CISC) y similares. Asimismo, cualquiera de los procesadores 210 y 211 puede ser parte de circuitos integrados específicos de la aplicación (ASIC) o puede ser parte de productos estándar específicos de la aplicación (ASSP). Una lista no exhaustiva de ejemplos para las memorias 212 y 213 incluye cualquier combinación de los siguientes dispositivos semiconductores, tales como registros, pasadores, ROM, EEPROM, dispositivos de memoria flash, dispositivos de memoria de acceso aleatorio no volátil (NVRAM), SDRAM, DRAM, dispositivos de memoria de doble tasa de datos (DDR), RAM estática, memoria extraíble de bus serie universal (USB) y similares.
El dispositivo electrónico 204 puede incluir un elemento de entrada de audio 214, por ejemplo, un micrófono y un elemento de salida de audio 216, por ejemplo, un altavoz, acoplado a cualquiera de los procesadores 210. El dispositivo electrónico 204 puede incluir un elemento de entrada de vídeo 218, por ejemplo, una cámara o cámara de vídeo y un elemento de salida de vídeo 220, por ejemplo, una pantalla LCD, acoplada a cualquiera de los procesadores 210. El dispositivo electrónico 204 también incluye un teclado 215 y un panel táctil 217 que puede ser, por ejemplo, un teclado físico y un panel táctil que permite al usuario introducir contenido o seleccionar funciones dentro de una o más aplicaciones 222. Como alternativa, el teclado 215 y el panel táctil 217 pueden ser regiones predeterminadas de un elemento táctil que forma parte de la pantalla dentro del dispositivo electrónico 204. La una o más aplicaciones 222 que se almacenan típicamente en la memoria 212 y son ejecutables por cualquier combinación de procesadores 210. El dispositivo electrónico 204 también incluye el acelerómetro 260 que proporciona una entrada de movimiento tridimensional al proceso 210 y el GPS 262 que proporciona información de ubicación geográfica al procesador 210.
El dispositivo electrónico 204 incluye una pila de protocolo 224 y el AP 206 incluye una pila de comunicación 225. Dentro del sistema 200, la pila de protocolos 224 se muestra como la pila de protocolos de IEEE 802.11, pero como alternativa puede aprovechar otras pilas de protocolos tales como una pila de protocolos multimedia del Grupo de Trabajo de Ingeniería de Internet (IET<f>), por ejemplo. Análogamente, la pila de AP 225 aprovecha una pila de protocolo pero no se explica para mayor claridad. Los elementos de la pila de protocolo 224 y la pila de AP 225 pueden implementarse en cualquier combinación de software, firmware y/o hardware. La pila de protocolos 224 incluye un módulo PHY 226 compatible con IEEE 802.11 que está acoplado a uno o más Tx/Rx de extremo frontal y a la antena 228, un módulo de m Ac 230 compatible con iEe E 802.11 acoplado a un módulo de LLC 232 compatible con IEEE 802.2. La pila de protocolos 224 incluye un módulo de IP de capa de red 234, un módulo de protocolo de datagramas de usuario (UDP) de capa de transporte 236 y un módulo de protocolo de control de transmisión (TCP) de capa de transporte 238.
La pila de protocolos 224 también incluye un módulo de protocolo de transporte en tiempo real (RTP) de capa de sesión 240, un módulo de protocolo de anuncio de sesión (SAP) 242, un módulo de protocolo de inicio de sesión (SIP) 244 y un módulo de protocolo de transmisión en tiempo real (RTSP) 246. La pila de protocolos 224 incluye un módulo de negociación de medios de capa de presentación 248, un módulo de control de llamada 250, uno o más códecs de audio 252 y uno o más códecs de vídeo 254. Las aplicaciones 222 pueden ser capaces de crear, mantener y/o terminar sesiones de comunicación con cualquiera de los dispositivos 207 por medio del AP 206. Normalmente, las aplicaciones 222 pueden activar cualquiera del SAP, SIP, RTSP, módulos de negociación de medios y control de llamadas para ese fin. Normalmente, la información puede propagarse desde el SAP, SIP, RTSP, los módulos de negociación de medios y control de llamadas al módulo PHY 226 a través del módulo TCP 238, el módulo de IP 234, el módulo de LLC 232 y el módulo de MAC 230.
Sería evidente para un experto en la materia que los elementos del dispositivo electrónico 204 también pueden implementarse dentro del AP 206, incluidos, entre otros, uno o más elementos de la pila de protocolos 224, incluyendo, por ejemplo, un módulo PHY compatible con IEEE 802.11, un módulo MAC compatible con IEEE 802.11 y un módulo LLC 232 compatible con IEEE 802.12. El AP 206 puede incluir adicionalmente un módulo de IP de capa de red, un módulo de protocolo de datagramas de usuario (UDP) de capa de transporte y un módulo de protocolo de control de transmisión (TCP) de capa de transporte, así como un módulo de protocolo de transporte en tiempo real (RTP) de capa de sesión, un módulo de Protocolo de Anuncio de Sesión (SAP), un módulo de protocolo de inicio de sesión (SIP) y un módulo de protocolo de transmisión en tiempo real (RTSP), un módulo de negociación de medios y un módulo de control de llamadas. Los dispositivos electrónicos portátiles y fijos representados por el dispositivo electrónico 204 pueden incluir una o más interfaces inalámbricas o cableadas adicionales además de la interfaz IEEE 802.11 representada que puede seleccionarse del grupo que comprende IEEE 802.15, IEEE 802.16, IEEE 802.20, UMTS, GSM 850, GSM 900, GSM 1800, GSM 1900, GPRS, ITU-R 5.138, ITU-R 5.150, ITU-R 5.280, IMT-2000, DSL, Dial-Up, DOCSIS, Ethernet, G.hn, ISDN, MoCA, PON y comunicación por línea de alimentación (PLC).
A. METODOLOGÍA DE LA INVENCIÓN
De acuerdo con una realización de la invención, un usuario que sufre un déficit neurológico con una repercusión visual, tal como ambliopía o lesión cerebral traumática (TBI), por ejemplo, se proporciona contenido dicóptico mediante la realización de acciones regulares y/o acciones especializadas que aprovechan pantallas electrónicas tales como su televisión, televisión inteligente, televisión tridimensional, teléfono inteligente, laptop, ordenador personal, etc. Las realizaciones de la invención pueden aprovechar una única pantalla en combinación con filtrado cromático o aprovechar un par de pantallas tales como las presentes en pantallas montadas en la cabeza/visores de realidad virtual, etc.
De acuerdo con las realizaciones de la invención, cada ojo del usuario solo verá o solo se le presentará una imagen incompleta de la escena, que puede ser texto, vídeo, multimedia, juego de ordenador, etc. En consecuencia, los segmentos en ambos ojos deben ensamblarse para comprender la escena completa. Esta segmentación de la escena se consigue aplicando una máscara de imagen con patrón a un ojo, y una segunda máscara de imagen con patrón al otro ojo. En algunas realizaciones, la segunda imagen con patrón se genera usando la inversa de la misma máscara usada para crear la primera imagen con patrón. De esta manera, cada uno de los ojos del usuario ve solo segmentos dispersos de una imagen, siendo las imágenes en los dos ojos complementarias entre sí.
Estas máscaras pueden ser estáticas o dinámicas de acuerdo con realizaciones de la invención. Estas máscaras pueden tener una forma regular o una forma irregular. Estas máscaras pueden bloquear o modificar de otro modo la información visual contenida en las mismas (por ejemplo, filtrar, distorsionar, etc.). Sin embargo, las máscaras para evitar que el usuario establezca límites dentro de una o ambas imágenes pueden emplear enmascaramiento graduado o bordes graduados para bloquear regiones de manera que no haya bordes "agudos" que surjan de la máscara o máscaras.
Haciendo referencia a las Figuras 3A y 3B, se representan imágenes ilustrativas para los ojos izquierdo y derecho de un usuario con sus máscaras asociadas para contenido de imagen y contenido de texto respectivamente. Considerando la Figura 3A, se representan las la primera a cuarta imágenes 310 a 340 correspondientes a:
• La primera imagen 310 es la máscara aplicada al contenido para su presentación al ojo izquierdo del usuario; • La segunda imagen 320 es la máscara aplicada al contenido para su presentación al ojo izquierdo del usuario;
• La tercera imagen 330 que representa la imagen recibida por el ojo izquierdo del usuario;
• La cuarta imagen 340 que representa la imagen recibida por el ojo derecho del usuario.
Como se representa en la Figura 8, la tercera y cuarta imágenes 330 y 340 pueden generarse como imágenes separadas dentro de un entorno de visualización dual o como dos porciones distintas de un único entorno de visualización con barrera física entre la pantalla y los ojos para evitar el "cruce". Como alternativa, como se representa en la Figura 8, pueden generarse con una pantalla y filtrado cromático.
De manera similar, haciendo referencia a la Figura 3B, se representan la primera a cuarta imágenes 350 a 380 con respecto al texto, en donde:
• La primera imagen 350 es la máscara aplicada al contenido para su presentación al ojo izquierdo del usuario; • La segunda imagen 360 es la máscara aplicada al contenido para su presentación al ojo izquierdo del usuario;
• La tercera imagen 370 que representa la imagen de texto recibida por el ojo izquierdo del usuario;
• La cuarta imagen 380 que representa la imagen de texto recibida por el ojo derecho del usuario.
De nuevo, como se representa en la Figura 8, la tercera y cuarta imágenes 370 y 380 pueden generarse como imágenes separadas dentro de un entorno de visualización dual o como dos porciones distintas de un único entorno de visualización con barrera física entre la pantalla y los ojos para evitar el "cruce". Como alternativa, como se representa en la Figura 8, pueden generarse con una pantalla y filtrado cromático.
En consecuencia, para pacientes con ambliopía, las imágenes enmascaradas vistas por el otro ojo de fijación se ajustan para que no supriman la imagen en el ojo ambliópico. Sobre la base del tratamiento prolongado durante un período de tiempo, las realizaciones de la invención conducen a mejoras en las capacidades de fusión binocular para estos pacientes. Por ende, una vez que se alcanza un punto donde las características de la imagen son las mismas en cada ojo, entonces hay una fusión binocular normal y, por ende, podemos reducir gradualmente el tamaño de los elementos de enmascaramiento para que, con el tiempo, el sistema alcance la posición en la que ambos ojos están viendo la misma escena sin supresión. De acuerdo con la implementación del sistema, los usuarios pueden emplear diferentes contenidos que incluyen, pero sin limitación, películas, videojuegos comerciales, libros electrónicos descargados (libros electrónicos), etc. En algunas realizaciones de la invención, el contenido pregrabado, por ejemplo, una película de Hollywood, puede preprocesarse para permitir el método de presentación dicóptica de acuerdo con las realizaciones de la invención. Como alternativa, el procesamiento en tiempo real del contenido puede tener lugar en una CPU de ordenador, una unidad de procesamiento gráfico (GPU) de ordenador o una matriz de puertas programables en campo dedicada (FPGA). Dichos procesadores pueden implementarse en algunas realizaciones de la invención dentro del productor de pantalla, por ejemplo, reproductor Blu-ray™ o consola de juegos, a través de hardware y/o software y/o firmware dedicado. En otras realizaciones de la invención, están dentro de un módulo especializado dispuesto entre, por ejemplo, una consola de juego y las una o más pantallas y producen un nivel controlable de segmentación y filtrado de pantalla.
Los inventores han verificado que las personas con visión binocular normal pueden ver contenido que se ha modificado con máscaras espaciales aleatorias dicópticas complementarias y que esto también se puede hacer para ambliopes una vez que las características de la imagen, más notablemente el contraste, se han reducido en el ojo de fijación. El resultado terapéutico surge directamente de la metodología, ya que los inventores han demostrado que, con el tiempo, este procedimiento fortalece la combinación binocular y puede, en algunos pacientes, restaurar la visión. La metodología novedosa de los inventores proporciona a cada ojo solo una imagen incompleta de la escena, de modo que los segmentos en ambos ojos deben unirse para comprender la escena completa. Las imágenes son puramente dicópticas, la segmentación de la escena se logra mediante la aplicación dinámica en línea de máscaras de imagen con patrón complementarias dicópticamente a cada ojo.
Las máscaras de imagen con patrón, como es evidente a partir de las Figuras 3A a 4, se componen de manchas de forma irregular producidas por texturas de ruido aleatorio de baja frecuencia. Haciendo referencia a la Figura 4 se representan los gráficos de opacidad primero y segundo 400A y 400B para las secciones X-X e Y-Y en la primera y segunda imágenes 400C y 400D, respectivamente. Como es evidente, los contornos son suaves, mostrando un gradiente de contraste. En cada cuadro, la máscara se multiplica por la imagen vista por un ojo, y la máscara de patrón inverso se multiplica por las imágenes vistas por el otro ojo. Al evitar perfiles afilados, se reduce o suprime el procesamiento natural del cerebro para definir bordes y objetos asociados a formas.
Las máscaras, también denominadas máscaras de ruido, pueden variar dinámicamente y su transparencia puede manipularse, de totalmente opaca a invisible. Aunque para facilitar la representación visual, la descripción con respecto a las Figuras 3A a 4 y estas propias realizaciones se realizan con respecto a la intensidad variable, es decir, las regiones bloqueadas o que tienen una alta opacidad son de baja intensidad, por ejemplo Opacidad=1 esa región es oscura (sin contenido mostrado), sería evidente que otros aspectos de las imágenes de un ojo en relación con el otro pueden variarse usando este enfoque para lograr el procesamiento mental deseado por el cerebro del usuario y, con el tiempo, un efecto terapéutico. Opcionalmente, los contrastes de las imágenes vistas por cada ojo pueden manipularse independientemente en lugar de como complementarios entre sí. Se pueden aplicar otras manipulaciones dinámicas complementarias o no complementarias a otros parámetros de imagen, tales como la luminancia media, frecuencia temporal, frecuencia espacial, profundidad, movimiento, orientación, etc. En todos estos casos, es necesario unir las vistas de los dos ojos para apreciar el contenido que se está viendo. También es posible la extensión a cualquier parámetro de imagen para proporcionar el contenido manipulado.
B. ESTUDIO CLÍNICO
B.1 Materiales y métodos
B.1.1 Participantes
Se obtuvo el consentimiento informado por escrito de todos los participantes/padres. Ocho niños ambliópicos (4-10 años) fueron derivados por dos oftalmólogos pediátricos. Los niños elegibles tenían una agudeza visual mejor corregida (AVMC) en el ojo ambliópico > 0,5 log del ángulo de resolución mínimo (logMAR), una agudeza visual mejor corregida (AVMC) en el otro ojo < 0,2 logMAR y una diferencia interocular > 0,2 logMAR. Los niños estrábicos solo eran elegibles para participar si la desalineación de los ejes visuales se había tratado con éxito con gafas y/o cirugía (definida como estrabismo residual < 0,5p.d.). De forma adicional, para ser elegible, los niños tenían que haber estado usando corrección de gafas durante al menos 3 meses antes de la visita de referencia y su oftalmólogo de referencia tenía que estar dispuesto a renunciar a otros tratamientos de ambliopía durante el período de estudio de 2 semanas. Los criterios de exclusión fueron prematuridad > 8 semanas, retraso en el desarrollo y enfermedades oculares o sistémicas coexistentes. Se obtuvieron registros médicos de los oftalmólogos remitentes para extraer el diagnóstico, refracción ciclopléjica y plan de tratamiento (si lo hubiera).
B.1.2 Contenido dicóptico
Durante el período de estudio de 2 semanas, los niños usaban gafas con lentes polarizadas para ver 6 películas dicópticas mostradas en una pantalla 3D pasiva en el laboratorio de los inventores. Se crearon versiones dicópticas de 18 largometrajes animados populares. En la Figura 4 se muestra una captura de pantalla de una de las películas con la primera y segunda imágenes 400A y 400B. La imagen de alto contraste, primera imagen 400A, se presentó al ojo ambliópico y la imagen de bajo contraste, segunda imagen 400B, al otro ojo. Una máscara de imagen con patrón compuesta de manchas de forma irregular se multiplicó con las imágenes vistas por el ojo ambliópico, y la máscara con patrón inverso se multiplicó con las imágenes vistas por el otro ojo. Como resultado, algunas partes de la imagen solo fueron vistas por un ojo, algunas partes solo fueron vistas por el otro ojo, y algunas partes fueron vistas por ambos ojos. Fue necesario juntar las vistas de los dos ojos para apreciar las películas. La forma y ubicación de las manchas se variaron dinámicamente cada 10 segundos.
B.1.3 Protocolo de estudio
El contraste del otro ojo se ajustó inicialmente individualmente para cada niño ambliópico a un nivel reducido que permitía la visión binocular, basándose en el umbral de coherencia de movimiento dicóptico del niño. Específicamente, el contraste inicial del otro ojo se ajustó al umbral de coherencia de movimiento dicóptico menos 0,10, con un ajuste mínimo de 0,20 y un ajuste máximo de 0,60. Los niños viajaron al laboratorio de los inventores 3 días a la semana y vieron una película por día. El contraste del otro ojo se incrementó en un 10 % para cada película posterior (por ejemplo, con un ajuste de contraste inicial del otro ojo de 0,30, las películas posteriores tendrían contrastes del otro ojo de 0,33, 0,36, 0,40, 0,44 y 0,48). Cada niño estuvo acompañado por al menos un padre/tutor durante las sesiones de cine para garantizar el cumplimiento (uso de gafas polarizadas y atención a la película). Su cumplimiento también fue comprobado por el personal del estudio a intervalos de 15-30 min.
En las visitas de referencia y de resultado a las 2 semanas, se midió la BCVA, la estereoagudeza con puntos aleatorios y la supresión interocular.
Agudeza visual:La BCVA se obtuvo para cada ojo con los métodos del estudio de tratamiento de ambliopía (ATS) HOTV (ATS-HOTV) (< 7 años) o el estudio electrónico de tratamiento temprano de la retinopatía diabética (E-ETDRS) (> 7 años).
Estereoagudeza:La estereoagudeza con puntos aleatorios se evaluó utilizando la prueba de estereoagudeza Randot® Preschool, la prueba Stereo Butterfly y Lang-Stereotest I.
Supresión interocular:La gravedad de la supresión interocular se cuantificó utilizando una prueba de coherencia de movimiento dicóptica. Los niños llevaban gafas con lentes polarizadas para ver cinematogramas con puntos aleatorios dicópticos presentados en una abertura de 22° de diámetro en una pantalla 3D pasiva. El ojo ambliópico veía puntos que se movían en una dirección coherente (señal) y el otro ojo veía puntos que se movían en direcciones aleatorias (ruido). La tarea consistía en indicar la dirección del movimiento coherente. El contraste del ojo ambliópico se fijó en 1,0. El contraste del otro ojo se ajustó inicialmente a 0,0 y se incrementó en una escala 2-abajo-1-arriba para determinar el contraste máximo tolerado del otro ojo antes de que se suprimiera el ojo ambliópico y el niño ya no pudiera informar la dirección del movimiento coherente. El contraste de otro ojo máximo tolerado proporcionó una medición cuantitativa de la gravedad de la supresión; cuanto más alto sea el nivel, menor será la gravedad de la supresión.
Cuestionario:Con el fin de evaluar informalmente el efecto de ver películas y televisión estándar sobre la BCVA en la ambliopía, los inventores administraron un cuestionario a los padres de los participantes. El cuestionario recopiló datos retrospectivos sobre cuántas horas los niños vieron películas o programas de televisión por día en casa antes de la visita de referencia, con o sin parcheo. Los inventores identificaron las dos visitas consecutivas al oftalmólogo pediátrico de cada participante que se produjeron antes del inicio y extrajeron la BCVA de los registros médicos de las dos visitas para evaluar los efectos del visionado de televisión/películas en la agudeza visual.
Análisis de datos:La eficacia de ver las películas dicópticas se evaluó usando pruebas t pareadas para el resultado de BCVA de ojo ambliópico primario y el resultado de supresión secundaria.
B.2 Resultados
Se inscribieron ocho niños ambliópicos (4-10 años). Las características iniciales se resumen en las Tablas 1A y 1B. La cohorte incluyó a tres niños con ambliopía anisometrópica, uno con ambliopía estrábica y cuatro con ambliopía de mecanismo combinado. La agudeza visual del ojo ambliópico varió de 0,50 a 1,20 logMAR al inicio y todos tenían una estereoagudeza nula. Ninguno de los niños en el estudio presentó tropia manifiesta tras el tratamiento con gafas y/o cirugía. Antes del inicio, todos los niños habían usado gafas durante > 9 meses con excelente cumplimiento. A dos participantes no se les prescribió ningún tratamiento de ambliopía aparte de la corrección de gafas antes de la visita inicial. Seis niños recibieron tratamiento con parches durante > 8 meses antes del inicio; 2 habían interrumpido el parche > 1 año antes de la visita inicial debido a la falta de mejora continua de la agudeza visual a pesar del buen cumplimiento informado y 4 dejaron de aplicar el parche para participar en el estudio (estos niños también informaron un buen cumplimiento con el parche).
^
T l 1B: D i n inf nil m li i
Durante el período de estudio de 2 semanas, cada niño ambliópico vio 6 películas dicópticas, para una media (±DE)tiempo total de 9,4 ± 0,9 horas. Todos los niños completaron el estudio. La BCVA media (±DE)del ojo con ambliopía mejoró de 0,72 ± 0,08 logMAR al inicio a 0,52 ± 0,09 logMAR en la visita a las 2 semanas(t7= 4,38;p= 0,003;N= 8); es decir, 2,0 líneas de mejora. Como se muestra en la Figura 5A, los ocho niños habían mejorado la BCVA del ojo ambliópico en la visita del resultado a las 2 semanas; 3 niños con una BCVA inicial de 0,5 logMAR mejoraron 0,1 logMAR (1 línea), 4 niños con una BCVA inicial de 0,7-0,8 logMAR mejoraron 0,2-0,4 logMAR (2-4 líneas), y 1 niño con una BCVA inicial de 1,2 logMAR mejoró 0,1 logMAR (1 línea). La BCVA del otro ojo no cambió significativamente durante el estudio de 2 semanas (cambio medio ± SE = 0,04 ± 0,03 logMAR; es decir, 2 letras peor;t7= 1,45;p =0,19;N= 8).
La supresión interocular se midió en 7 de los 8 niños al inicio y en la visita de resultado a las 2 semanas. En este breve estudio de 2 semanas, no se encontró una reducción significativa en la supresión (t6 = 0,77;p =0,47;N =7).
Los padres de 6 de cada 8 niños respondieron al cuestionario sobre el tiempo de visualización de películas y televisión antes del inicio. Todos informaron que el niño miraba televisión regularmente 1-2 horas/día durante los meses anteriores a la visita de referencia. Mientras miraban televisión o películas, 3 de los niños estaban parcheados y 3 no. Sin embargo, esta visualización regular de televisión monocular o binocular en casa no dio como resultado una mejora significativa en la BCVA del ojo ambliópico. Con un intervalo medio (±SD)de 7,8 ± 3,8 meses entre la primera y la segunda visita al consultorio de oftalmología, la BCVA media (± SE) fue de 0,54 ± 0,11 logMAR en la visita inicial y de 0,50 ± 0,07 logMAR en la segunda visita, justo antes del inicio(t¡= 2,57,p= 0,74). En comparación, ver películas dicópticas sin tratamiento de ambliopía concurrente dio como resultado una mejora significativa de 2 líneas en la BCVA del ojo ambliópico después de solo 2 semanas (aproximadamente 9,4 horas) de estimulación dicóptica.
B.3 Análisis
En resumen, el estudio de prueba de concepto y sus resultados demuestran que la visualización pasiva de largometrajes dicópticos proporciona una metodología para abordar la ambliopía infantil. Aunque no se incorporó un grupo de control separado en el estudio, nuestros datos retrospectivos mostraron que la visualización regular de televisión/películas (ya sea monocular o binocular) durante los meses anteriores a nuestro estudio no dio como resultado una mejora de la BCVA del ojo ambliópico. No se encontró ningún cambio significativo en la gravedad de la supresión después de ver películas dicópticas en el estudio actual. Durante el breve estudio de prueba de concepto, los niños lograron 1-4 líneas de mejora de la agudeza visual. Este nuevo método mejora la BCVA rápidamente, en comparación con el parcheado, que se ha demostrado que requiere 120 horas para lograr una línea de mejora en niños ambliópicos que ya han sido tratados con gafas durante 12-16 semanas.
Dentro del estudio, los sujetos estaban viendo las películas en una pantalla 3D pasiva. Para demostrar la independencia de la plataforma, los inventores adaptaron sus programas de enmascaramiento para mostrar las películas de forma dicóptica utilizando un visor de realidad virtual, Oculus Rift, y obtuvo los resultados representados en la Figura 5B para mejoras en la agudeza visual y la agudeza estéreo en 5 sujetos ambliópicos que siguieron un entrenamiento diario de una hora durante dos semanas. En consecuencia, en un período tan corto con sesiones de entrenamiento cortas, las mejoras en la agudeza y el umbral de disparidad fueron claramente evidentes. Sin embargo, sería evidente que la invención puede usarse en diferentes implementaciones durante períodos extendidos de tiempo por día y duración extendida en general a medida que se convierte en parte de la visualización de rutina del usuario.
C. IMPLEMENTACIÓN
Haciendo referencia a la Figura 6, se representa un flujo de proceso ilustrativo para generar un contenido dicóptico de visualización para un usuario que aprovecha elementos de "visualización" duales, por ejemplo, un visor de realidad virtual o una única pantalla con barrera como se representa y describe a continuación en la Figura 8. El proceso comienza en la etapa 605 en donde el usuario selecciona contenido que va a ver. En la etapa 610 se realiza una determinación con respecto al procesamiento en cuanto a si el contenido se procesará o no, en donde si el contenido no va a procesarse, el proceso continúa a la etapa 615 y se detiene. Por ejemplo, la imagen puede ser espacialmente uniforme, tener bajo contraste, ser altamente dinámica, etc. Si el contenido ha de procesarse, el proceso continúa a la etapa 620 y extrae información de imagen adicional que se usa posteriormente para establecer las máscaras. A continuación, en la etapa 625, el proceso establece la identidad del usuario, accede a una base de datos de perfil de usuario 630, y en la etapa 635 recupera un perfil de usuario 635 que establece aspectos del proceso. Tal información puede revisarse periódicamente a medida que un usuario aprovecha el proceso y periódicamente se comprueba su vista. Opcionalmente, un usuario puede recibir periódicamente una prueba ocular generada electrónicamente en casa en la que se ejecuta una rutina de prueba con las respuestas del usuario recibidas a través del teclado, control remoto, voz, etc.
Basándose en la información de usuario recuperada y la información de imagen extraída, el proceso continúa en las etapas 645A y 645B respectivamente para generar las máscaras izquierda y derecha 6100/6200 que luego se fusionan con el contenido de imagen izquierdo y derecho 6300/6400 en las etapas 650A y 650B para formar la imágenes a presentar al usuario en las etapas 655A y 655B representadas como las imágenes 6500/660. Estos se presentan a continuación y, en la etapa 660, el proceso determina si se van a generar nuevas máscaras, en donde el proceso pasa a la etapa 640, si se va a presentar contenido nuevo, en donde el proceso vuelve a las etapas 650A y 650B o si el proceso está completo, en cuyo caso el proceso continúa a la etapa 665 y termina.
Haciendo referencia ahora a la Figura 7, se representa un flujo de proceso ilustrativo para generar un contenido dicóptico de visualización para un usuario que aprovecha una única pantalla, por ejemplo, un televisor, teléfono inteligente, tableta, laptop, etc., como se representa y describe a continuación en la Figura 8. En consecuencia, el filtrado, por ejemplo cromático, se establece y aplica. Como se representa, el flujo de proceso es con el subflujo 700 que incorpora las etapas 605 a 635 como se describe y representa en la Figura 6. Desde el subflujo 700, el proceso continúa a la etapa 710 en donde se generan las máscaras izquierda y derecha 7100/7200, por ejemplo los que se modifican en rojo / verde respectivamente. Por simplicidad, se presentan cuadrantes, pero pueden emplearse patrones irregulares tales como los de las máscaras 6100/6200 con desplazamiento graduado. Posteriormente, en la etapa 720 se adquiere el contenido 7300 y se genera el contenido 7400 modificado en la etapa 730 como se presenta al usuario. El siguiente proceso en la etapa determina si se van a generar nuevas máscaras, en donde el proceso pasa a la etapa 710, si se va a presentar contenido nuevo, en donde el proceso vuelve a la etapa 720 o si el proceso está completo, en cuyo caso el proceso continúa a la etapa 750 y termina.
Haciendo referencia a la Figura 8, se representan ejemplos de visualizadores y dispositivos auxiliares que soportan realizaciones de la invención. La primera y segunda imágenes 810 y 820 representan respectivamente visores comerciales de realidad virtual de Sony™ 810 y Oculus Rift 820, junto con un visor de bajo coste para hacer uno mismo (DIY) a base de cartón 830. Los visores de realidad virtual comerciales pueden aprovechar una pantalla que está particionada o dos pantallas. Como es evidente en el visor DIY 830, una barrera física separa las imágenes para los ojos izquierdo y derecho de una pantalla o pantallas que proporcionan imágenes izquierda y derecha. También se representan primer y segundo conjuntos de gafas tridimensionales (3D) basadas en obturador 840 y 850 para su uso con televisión 3D 860 y primer y segundo conjuntos de gafas cromáticas 3D 870 y 890 para su uso con tableta 880 y otros dispositivos de visualización. Las tecnologías de visualización 3D alternativas incluyen el uso de gafas polarizadoras con polarizaciones ortogonales para cada ojo y tecnologías de lentillas que no tienen gafas, por ejemplo. Esencialmente, las tecnologías de visualización se dividen en aquellas que aprovechan imágenes proporcionadas discretamente a cada ojo a través de la separación física y aquellas a través de la separación óptica (por ejemplo, polarización, tiempo (obturador) y longitud de onda).
Haciendo referencia al flujo 8000, el contenido 8100 se procesa por un procesador 8200 para su visualización en un dispositivo 8300. Dentro de las realizaciones de la invención, el procesador 8200 puede ser software en una tableta, laptop, teléfono inteligente, etc., que procesa el contenido 8100 y lo visualiza como una única aplicación. Como alternativa, el procesador 8200 puede ser un complemento, interfaz de programa de aplicación (API) etc. a una aplicación de visualización de contenido tal como el reproductor multimedia de Windows™, Internet Explorer, etc. En otras realizaciones de la invención, el procesador 8200 puede embeberse como parte del firmware/software/hardware del dispositivo de visualización 8300 o puede descargarse al mismo.
D. EXTENSIONES
Si bien las descripciones presentadas anteriormente con respecto a las figuras 3 a 8 se describen y presentan con respecto al tratamiento de la ambliopía, las realizaciones de la invención también pueden abordar problemas para individuos que son insensibles a las escenas estéreo 3D, o que son estéreociegos. Hasta el 30 % de la población puede ser estereociega, y con la creciente disponibilidad de televisores 3D y películas 3D, el mercado para mejorar la percepción de profundidad crece en consecuencia además de ayudar a estas personas en su vida cotidiana. Este método de presentación dicóptica no requiere ninguna percepción de profundidad, pero sí requiere una fusión binocular que también se requiere para la percepción de profundidad estéreo. En consecuencia, los inventores esperan que mejorar la fusión binocular también mejore la profundidad estereoscópica.
Sería evidente que los métodos descritos y presentados anteriormente pueden aplicarse para abordar la disfunción visual en usuarios que surgen de otras enfermedades que incluyen, por ejemplo, aquellos que pueden causar molestias binoculares o escotomas. Los ejemplos incluyen lesión cerebral traumática, ataque al corazón, derrame cerebral, enfermedades desmielinizantes tales como esclerosis múltiple (neuritis retrobulbar), daño a la capa de fibra nerviosa en la retina debido a hipertensión o sustancias tóxicas, deficiencias nutricionales, bloqueos vasculares y degeneración macular.
También sería evidente que los métodos descritos y presentados anteriormente pueden aplicarse a cualquier enfermedad o afección en la que se altera la visión cooperativa del par de ojos del usuario. También sería evidente que se puede aplicar en general para mejorar la visión incluso en individuos "normales", ya que incluso tal "individuo normal" representa una distribución de funcionalidad visual y rendimiento en donde estas pequeñas desviaciones podrían corregirse adicionalmente con las metodologías inventivas con una visión mejorada o mejora específica en la función binocular para un subconjunto de los individuos "normales".
Dentro de las descripcionessupracon respecto a la memoria descriptiva y las figuras, las imágenes para su visualización por un usuario se modifican antes de su visualización al usuario en una pantalla que forma parte de un dispositivo electrónico o modificando la vista que puede ver el ojo del usuario, por ejemplo mediante sistemas ópticos programables dispuestos frente a los ojos del usuario, o ajustando la vista que puede ver mediante sistemas ópticos programables. En cada caso, las modificaciones realizadas en la imagen, ya sea electrónicamente u ópticamente antes de que la retina del usuario la reciba, se realizan dependiendo de una o más características de su disfunción visual o función visual. Sería evidente que, en muchos casos, se probará la agudeza visual del usuario dentro de un entorno controlado, tal como el departamento de oftalmología de un hospital, centro médico, etc., así como en otros entornos oftálmicos. En estos casos, se generarán parámetros relacionados con los ajustes/modificaciones de imagen que requieren asociación con el sistema o sistemas que empleará el usuario. En las realizaciones de la invención, esto puede hacerse directamente en el entorno controlado, aunque en otras realizaciones de la invención, los ajustes pueden almacenarse electrónicamente dentro de un servidor y accederse/descargarse/transferirse de forma remota al uno o más sistemas del usuario a través de una red tal como la Internet a través de uno o más dispositivos y/o sistemas tales como los descritos anteriormente con respecto a las Figuras 1 y 2.
También sería evidente que el uso de la metodología por parte del usuario puede rastrearse y cargarse para revisión médica, así como retroalimentación, etc. en relación con la experiencia del usuario a través de uno o más dispositivos y/o sistemas y/o redes tales como los descritos anteriormente con respecto a las Figuras 1 y 2. En otras realizaciones de la invención, los ajustes pueden variarse periódicamente en función del uso del usuario, realimentación, etc. a través de uno o más dispositivos y/o sistemas y/o redes tales como los descritos anteriormente con respecto a las Figuras 1 y 2. Por ejemplo, cada 25 horas (por ejemplo), el sistema realiza un par de ajustes y solicita la retroalimentación del usuario en cuanto a si estos son mejores/peores que la configuración actual y, basándose en las respuestas del usuario, se establece una variación de la configuración. También sería evidente que a través de uno o más dispositivos y/o sistemas y/o redes tales como los descritos anteriormente con respecto a las Figuras 1 y 2, el usuario puede emplear las metodologías de acuerdo con las realizaciones de la invención dentro de una diversidad de ubicaciones junto con una única pantalla o múltiples pantallas. Por ejemplo, un usuario puede emplear un visor de juego de realidad virtual en casa y gafas con filtro en el trabajo.
También sería evidente que los usuarios pueden interactuar periódicamente con pruebas oculares, tablas optométricas, etc. para la monitorización del progreso en donde estos pueden administrarse de forma remota o dentro de los entornos controlados. Dentro de otras realizaciones de la invención, un usuario puede acceder a una descarga de software que proporciona funcionalidad a su dispositivo electrónico para realizar metodologías de acuerdo con realizaciones de la invención. Tales descargas pueden ser, por ejemplo, a través de aplicaciones de software, fuentes de redes sociales, etc. mientras que los usuarios que emplean las metodologías pueden ser miembros de redes sociales y grupos de redes sociales que relacionan diferentes afecciones médicas, etc., mientras rastrean su progreso, etc. dentro de un grupo privado que proporciona apoyo, comentarios, ánimos, etc.
En la descripción anterior se dan detalles específicos para proporcionar una comprensión completa de las realizaciones. Sin embargo, se entiende que las realizaciones pueden implementarse sin estos detalles específicos. Por ejemplo, los circuitos pueden mostrarse en diagramas de bloques para no ocultar las realizaciones con detalles innecesarios. En otros casos, los circuitos, procesos, algoritmos, estructuras y técnicas bien conocidos pueden mostrarse sin detalles innecesarios para evitar oscurecer las realizaciones.
La implementación de las técnicas, bloques, etapas y medios descritos anteriormente se puede realizar de diversas maneras. Por ejemplo, estas técnicas, bloques, etapas y medios pueden implementarse en hardware, software o una combinación de los mismos. Para una implementación de hardware, las unidades de procesamiento pueden implementarse dentro de uno o más circuitos integrados para aplicaciones específicas (ASIC), procesadores digitales de señal (DSP), dispositivos de procesamiento digital de señales (DSPD), dispositivos lógicos programables (PLD), matrices de puertas programables en campo (FPGA), procesadores, controladores, microcontroladores, microprocesadores, otras unidades electrónicas diseñadas para realizar las funciones descritas anteriormente, y/o una combinación de los mismos.
También, se hace observar que las realizaciones pueden describirse como un proceso que se dibuja como un gráfico de movimiento, un diagrama de flujo, un diagrama de flujo de datos, un diagrama de estructuras o un diagrama de bloques. Aunque un gráfico de movimiento pueda describir las operaciones como un proceso secuencial, muchas de las operaciones se pueden realizar en paralelo o simultáneamente. De forma adicional, el orden de las operaciones puede reorganizarse. Un proceso se termina cuando se completan sus operaciones, pero podría tener etapas adicionales no incluidas en la figura. Un proceso puede corresponder a un método, una función, un procedimiento, una subrutina, un subprograma, etc. Cuando un proceso corresponde a una función, su terminación corresponde a un retorno de la función a la función de llamada o la función principal.
Asimismo, las realizaciones pueden implementarse por hardware, software, lenguajes de secuencias de comandos, firmware, software intermedio, microcódigo, lenguajes de descripción de hardware, y/o combinaciones de los mismos. Cuando se implementan en software, firmware, software intermedio, lenguaje de secuencias de comandos y/o microcódigo, el código de programa o los segmentos de código para efectuar las tareas necesarias pueden estar almacenados en un medio legible por máquina, tal como un medio de almacenamiento. Un segmento de código o una instrucción ejecutable por máquina pueden representar un procedimiento, una función, un subprograma, un programa, una rutina, una subrutina, un módulo, un paquete de software, una secuencia de comandos, una clase, o cualquier combinación de instrucciones, estructuras de datos y/o sentencias de programas. Un segmento de código puede acoplarse a otro segmento de código o un circuito de hardware pasando y/o recibiendo información, datos, argumentos, parámetros y/o contenidos de memoria. La información, argumentos, parámetros, datos, etc. pueden pasarse, reenviarse o transmitirse a través de cualquier medio adecuado, incluido el uso compartido de memoria, paso de mensajes, paso de tokens, transmisión de red, etc.
Para una implementación de firmware y/o software, las metodologías pueden implementarse con módulos (por ejemplo, procedimientos, funciones y demás) que efectúen las funciones descritas en el presente documento. Cualquier medio legible por máquina que incorpore tangiblemente instrucciones puede usarse para implementar las metodologías descritas en el presente documento. Por ejemplo, los códigos de software pueden estar almacenados en una memoria. La memoria puede implementarse dentro del procesador o externa al procesador y puede variar en la implementación donde la memoria se emplea en el almacenamiento de códigos de software para su posterior ejecución a cuando la memoria se emplea en la ejecución de los códigos de software. Tal y como se utiliza en el presente documento, el término "memoria" hace referencia a cualquier tipo de medio de almacenamiento a largo plazo, a corto plazo, volátil, no volátil o de otro tipo, y no se limita a ningún tipo concreto de memoria, número de memorias o tipo de medio en el que se almacena la memoria.
Es más, tal como se divulga en el presente documento, la expresión "medio de almacenamiento" puede representar uno o más dispositivos para almacenar datos, incluyendo memoria de solo lectura (ROM), memoria de acceso aleatorio (RAM), RAM magnética, memoria central, medios de almacenamiento por disco magnético, medios de almacenamiento ópticos, dispositivos de memoria flash y/u otros medios legibles por máquina para almacenar información. La expresión "medio legible por máquina" incluye, pero no se limita, a dispositivos de almacenamiento portátiles o fijos, dispositivos de almacenamiento óptico, canales inalámbricos y/u otros diversos medios capaces de almacenar, que contienen o transportan una o más instrucciones y/o datos.
Las metodologías descritas en el presente documento son, en una o más realizaciones, realizables por una máquina que incluye uno o más procesadores que aceptan segmentos de código que contienen instrucciones. Para cualquiera de los métodos descritos en el presente documento, cuando las instrucciones son ejecutadas por la máquina, la máquina realiza el método. Se incluye cualquier máquina capaz de ejecutar un conjunto de instrucciones (secuenciales o de otro tipo) que especifican acciones a realizar por esa máquina. Por tanto, una máquina típica puede ejemplificarse mediante un sistema de procesamiento típico que incluye uno o más procesadores. Cada procesador puede incluir uno o más de un CPU, una unidad de procesamiento de gráficos y una unidad de DSP programable. El sistema de procesamiento puede incluir adicionalmente un subsistema de memoria que incluye RAM principal y/o una RAM estática y/o ROM. Puede incluirse un subsistema de bus para comunicación entre los componentes. Si el sistema de procesamiento requiere una pantalla, se puede incluir una pantalla de este tipo, por ejemplo, una pantalla de cristal líquido (LCD). Si se requiere la entrada manual de datos, el sistema de procesamiento también incluye un dispositivo de entrada, tal como una o más de una unidad de entrada alfanumérica, tal como un teclado, un dispositivo de control de puntero tal como un ratón, etc.
La memoria incluye segmentos de código legibles por máquina (por ejemplo, software o código de software) que incluyen instrucciones para realizar, cuando se ejecuta mediante el sistema de procesamiento, uno o más de los métodos descritos en el presente documento. El software puede residir completamente en la memoria, o también puede residir, total o al menos parcialmente, dentro de la rAm y/o dentro del procesador durante su ejecución por el sistema informático. Por tanto, la memoria y el procesador también constituyen un sistema que comprende código legible por máquina.
En realizaciones alternativas, la máquina funciona como un dispositivo independiente o puede estar conectada, por ejemplo, en red a otras máquinas, en un despliegue en red, la máquina puede funcionar como servidor o cliente en un entorno de red servidor-cliente, o como máquina par en un entorno de red distribuida o entre pares. La máquina puede ser, por ejemplo, un ordenador, un servidor, un grupo de servidores, un grupo de ordenadores, un aparato web, un entorno informático distribuido, un entorno de computación en la nube, o cualquier máquina capaz de ejecutar un conjunto de instrucciones (secuenciales o de otro tipo) que especifican acciones a realizar por esa máquina. El término "máquina" también puede entenderse que incluye cualquier conjunto de máquinas que, de forma individual o conjunta, ejecutan un conjunto (o múltiples conjuntos) de instrucciones para realizar una o más de las metodologías discutidas en este documento.
La divulgación anterior de las realizaciones a modo de ejemplo de la presente invención se ha presentado con fines de ilustración y descripción. No se pretende ser exhaustivo ni limitar la invención a las formas precisas divulgadas. Muchas variaciones y modificaciones de las realizaciones descritas en el presente documento serán evidentes para un experto en la materia en vista de la divulgación anterior. El alcance de la invención debe definirse únicamente mediante las reivindicaciones adjuntas.
Además, al describir las realizaciones representativas de la invención, la memoria descriptiva puede haber presentado el proceso de la presente invención como una secuencia particular de etapas. Sin embargo, en la medida en que el proceso no se base en el orden particular de las etapas establecidas en el presente documento, el proceso no debe limitarse a la secuencia particular de etapas descritas. Como apreciaría un experto ordinario en la materia, pueden ser posibles otras secuencias de etapas. Por lo tanto, el orden particular de las etapas establecidas en la memoria descriptiva no debe interpretarse como una limitación de las reivindicaciones. De forma adicional, las reivindicaciones dirigidas al proceso de la presente invención no deberían limitarse a la realización de sus etapas en el orden escrito, y un experto en la materia puede apreciar fácilmente que las secuencias se pueden variar y aún permanecer dentro del alcance de la presente invención.
Claims (8)
1. Un sistema para procesar contenido para su presentación a un usuario, que comprende:
un módulo que comprende:
un primer puerto para recibir el primer contenido electrónico para su visualización a un usuario;
un segundo puerto para proporcionar un segundo contenido electrónico a un dispositivo de visualización asociado con el usuario; y
un procesador para modificar el primer contenido electrónico para generar el segundo contenido electrónico; en donde el procesador está configurado para
segmentar una imagen de una escena en una primera imagen incompleta de la escena que se presentará a un primer ojo del usuario y una segunda imagen incompleta de la escena que se presentará a un segundo ojo del usuario, aplicar una máscara de imagen con patrón a la imagen de la escena para generar la primera imagen incompleta, y aplicar una inversa de la máscara de imagen con patrón a la imagen de la escena para generar la segunda imagen incompleta, siendo la primera imagen incompleta y la segunda imagen incompleta complementarias entre sí, siendo graduales cada una de las máscaras de imagen y las transiciones de regiones enmascaradas a regiones desenmascaradas, y
ajustar la primera imagen incompleta reduciendo las características de la imagen en la primera imagen incompleta.
2. El sistema de acuerdo con la reivindicación 1, en donde el procesador está configurado para reducir el contraste en la primera imagen incompleta.
3. El sistema de acuerdo con la reivindicación 1, en donde las máscaras de imagen son máscaras espaciales aleatorias dicópticas complementarias.
4. El sistema de acuerdo con la reivindicación 1, en donde las máscaras de imagen son estáticas o dinámicas.
5. El sistema de acuerdo con una cualquiera de las reivindicaciones 1 a 4, en donde las máscaras de imagen bloquean o modifican la información visual contenida dentro de la imagen, por ejemplo, filtrando o aleatorizando la información visual.
6. El sistema de acuerdo con una cualquiera de las reivindicaciones 1 a 5, en donde el procesador es un complemento, una interfaz de programa de aplicación para una aplicación de visualización de contenido.
7. Un sistema para presentar contenido a un usuario, que comprende
- una memoria para almacenar contenido grabado, obteniéndose el contenido grabado al
segmentar una imagen de una escena en una primera imagen incompleta de la escena que se presentará a un primer ojo del usuario y una segunda imagen incompleta de la escena que se presentará a un segundo ojo del usuario, aplicar una máscara de imagen con patrón a la imagen de la escena para generar la primera imagen incompleta, y aplicar una inversa de la máscara de imagen con patrón a la imagen de la escena para generar la segunda imagen incompleta, siendo la primera imagen incompleta y la segunda imagen incompleta complementarias entre sí, siendo graduales cada una de las máscaras de imagen y las transiciones de regiones enmascaradas a regiones desenmascaradas, y
ajustar la primera imagen incompleta reduciendo las características de la imagen en la primera imagen incompleta, en donde el sistema comprende, además
- una pantalla, y
- un procesador configurado para presentar el contenido grabado en el visualizador de una manera dicóptica.
8. El sistema de la reivindicación 7, en donde la pantalla está adaptada para la presentación dicóptica del contenido grabado.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201462042293P | 2014-08-27 | 2014-08-27 | |
| PCT/CA2015/000479 WO2016029295A1 (en) | 2014-08-27 | 2015-08-27 | Vision strengthening methods and systems |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES3038024T3 true ES3038024T3 (en) | 2025-10-09 |
Family
ID=55398529
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES15837049T Active ES3038024T3 (en) | 2014-08-27 | 2015-08-27 | Vision strengthening systems |
Country Status (7)
| Country | Link |
|---|---|
| US (3) | US10716707B2 (es) |
| EP (1) | EP3185746B1 (es) |
| JP (2) | JP6979352B2 (es) |
| AU (1) | AU2015309632B2 (es) |
| CA (1) | CA2996647C (es) |
| ES (1) | ES3038024T3 (es) |
| WO (1) | WO2016029295A1 (es) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| ES3038024T3 (en) | 2014-08-27 | 2025-10-09 | The Royal Institution For The Advancement Of Learning / Mcgill Univ | Vision strengthening systems |
| CN106361549B (zh) * | 2016-09-07 | 2018-09-07 | 中国科学院心理研究所 | 双眼平衡矫正装置及互补图像处理系统和方法 |
| US10685492B2 (en) * | 2016-12-22 | 2020-06-16 | Choi Enterprise, LLC | Switchable virtual reality and augmented/mixed reality display device, and light field methods |
| CN107260504A (zh) * | 2017-06-09 | 2017-10-20 | 于凤香 | 一种治疗弱视和/或近视的仪器 |
| US20190159956A1 (en) * | 2017-11-24 | 2019-05-30 | Amblyotech Inc. | Method and apparatus for treating diplopia and convergence insufficiency disorder |
| US12076495B2 (en) * | 2018-05-23 | 2024-09-03 | Luminopia, Inc. | Visual disorder treatment |
| CN110652431A (zh) * | 2019-10-23 | 2020-01-07 | 重庆康萃医药科技有限公司 | 一种基于分视控制的弱视训练阅读器及其调设方法 |
| TWI726604B (zh) * | 2020-02-06 | 2021-05-01 | 國立中正大學 | 用來產生訓練視力調節能力的三維影像之方法 |
| RU2764834C1 (ru) * | 2021-03-16 | 2022-01-21 | федеральное государственное автономное учреждение "Национальный медицинский исследовательский центр "Межотраслевой научно-технический комплекс "Микрохирургия глаза" имени академика С.Н. Федорова" Министерства здравоохранения Российской Федерации | Способ лечения амблиопии у детей |
| US11779203B1 (en) * | 2021-07-19 | 2023-10-10 | Albert John Hofeldt | Animated stereoscopic illusionary therapy and entertainment |
| WO2024105178A1 (en) | 2022-11-16 | 2024-05-23 | CATERNA VISION GmbH | System and methods for improving conditions of the visual system |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB0210288D0 (en) * | 2002-05-04 | 2002-06-12 | Univ Nottingham | Ocular display apparatus for assessment and measurement of and for treatment of ocular disorders, and methods therefor |
| US8454166B2 (en) * | 2006-12-04 | 2013-06-04 | Atheer, Inc. | Methods and systems for amblyopia therapy using modified digital content |
| US8066372B2 (en) | 2007-10-23 | 2011-11-29 | Mcgill University | Binocular vision assessment and/or therapy |
| EP3329838B1 (en) * | 2007-10-23 | 2020-08-19 | McGill University | Binocular vision assessment and therapy |
| US20120179076A1 (en) | 2010-09-16 | 2012-07-12 | Daphne Bavelier | Method and system for treating amblyopia |
| US8328354B2 (en) | 2010-09-20 | 2012-12-11 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Systems and methods for binocular vision diagnosis and treatment |
| US9370460B2 (en) | 2012-09-14 | 2016-06-21 | Visior Technologies, Ltd | Systems and methods for treating amblyopia by visual stimulation of the brain |
| US9706910B1 (en) | 2014-05-29 | 2017-07-18 | Vivid Vision, Inc. | Interactive system for vision assessment and correction |
| ES3038024T3 (en) * | 2014-08-27 | 2025-10-09 | The Royal Institution For The Advancement Of Learning / Mcgill Univ | Vision strengthening systems |
-
2015
- 2015-08-27 ES ES15837049T patent/ES3038024T3/es active Active
- 2015-08-27 WO PCT/CA2015/000479 patent/WO2016029295A1/en not_active Ceased
- 2015-08-27 CA CA2996647A patent/CA2996647C/en active Active
- 2015-08-27 US US15/507,041 patent/US10716707B2/en active Active
- 2015-08-27 JP JP2017511636A patent/JP6979352B2/ja active Active
- 2015-08-27 AU AU2015309632A patent/AU2015309632B2/en active Active
- 2015-08-27 EP EP15837049.4A patent/EP3185746B1/en active Active
-
2020
- 2020-01-14 US US16/742,652 patent/US11116665B2/en active Active
-
2021
- 2021-08-23 JP JP2021135651A patent/JP7382370B2/ja active Active
- 2021-09-08 US US17/469,782 patent/US11679032B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| US20170281412A1 (en) | 2017-10-05 |
| WO2016029295A1 (en) | 2016-03-03 |
| EP3185746A1 (en) | 2017-07-05 |
| US20200146888A1 (en) | 2020-05-14 |
| AU2015309632B2 (en) | 2020-05-21 |
| JP2021180957A (ja) | 2021-11-25 |
| US11679032B2 (en) | 2023-06-20 |
| US11116665B2 (en) | 2021-09-14 |
| CA2996647A1 (en) | 2016-03-03 |
| EP3185746C0 (en) | 2025-05-21 |
| AU2015309632A1 (en) | 2017-03-23 |
| JP7382370B2 (ja) | 2023-11-16 |
| US20220062048A1 (en) | 2022-03-03 |
| US10716707B2 (en) | 2020-07-21 |
| JP2017530750A (ja) | 2017-10-19 |
| CA2996647C (en) | 2023-11-21 |
| JP6979352B2 (ja) | 2021-12-15 |
| EP3185746B1 (en) | 2025-05-21 |
| EP3185746A4 (en) | 2018-04-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES3038024T3 (en) | Vision strengthening systems | |
| Jones et al. | Seeing other perspectives: evaluating the use of virtual and augmented reality to simulate visual impairments (OpenVisSim) | |
| Yoon et al. | Effects of prolonged use of virtual reality smartphone-based head-mounted display on visual parameters: a randomised controlled trial | |
| Turnbull et al. | Ocular effects of virtual reality headset wear in young adults | |
| JP6868043B2 (ja) | デバイスの使用を監視する装置及び方法 | |
| Phillips | Monovision slows juvenile myopia progression unilaterally | |
| Mathur et al. | Pupil shape as viewed along the horizontal visual field | |
| Crossland et al. | Benefit of an electronic head‐mounted low vision aid | |
| de Gracia et al. | Experimental simulation of simultaneous vision | |
| Nilagiri et al. | LogMAR and stereoacuity in keratoconus corrected with spectacles and rigid gas-permeable contact lenses | |
| CN111447868A (zh) | 用于治疗复视和会聚不足障碍的方法和设备 | |
| Pujari et al. | Smartphone-based evaluation of the optic nerve head | |
| CN107595563A (zh) | 一种基于云存储的vr视力矫正方法和装置 | |
| Leung et al. | Changes in corneal astigmatism and near heterophoria after smartphone use while walking and sitting | |
| Gao et al. | Impact of myopia control spectacle lenses with highly aspherical lenslets on peripheral visual acuity and central visual acuity with peripheral gaze | |
| Li et al. | Playing stereoscopic video games enhances the precision but not the accuracy of depth perception | |
| Rodriguez-Lopez et al. | Decreases in overall light level increase the severity of the reverse Pulfrich effect | |
| Chun et al. | Comparative effectiveness between two types of head-mounted magnification modes using a smartphone-based virtual display | |
| Jethani et al. | Efficacy of supplemental Occlu-pad therapy with partial occlusion in children with refractive anisometropic amblyopia | |
| Devi et al. | Depth-related visuomotor performance in keratoconus and its relationship to stereopsis | |
| Haun et al. | Binocular rivalry with peripheral prisms used for hemianopia rehabilitation | |
| Sathyan et al. | Convergence insufficiency | |
| Sayah et al. | Myopes show greater visually induced postural responses than emmetropes | |
| Mirmohammadsadeghi et al. | Anaglyphic three-dimensional movie: A simple binocular method to treat anisometropic or strabismic amblyopia in adults | |
| Congdon et al. | Promoting eye health in low-resource areas by “doing more with less” |