ES2994226T3 - Method for controlling display, storage medium, and electronic device - Google Patents
Method for controlling display, storage medium, and electronic device Download PDFInfo
- Publication number
- ES2994226T3 ES2994226T3 ES22166971T ES22166971T ES2994226T3 ES 2994226 T3 ES2994226 T3 ES 2994226T3 ES 22166971 T ES22166971 T ES 22166971T ES 22166971 T ES22166971 T ES 22166971T ES 2994226 T3 ES2994226 T3 ES 2994226T3
- Authority
- ES
- Spain
- Prior art keywords
- electronic device
- display
- area
- input
- user input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1647—Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1652—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1675—Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
- G06F1/1677—Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3215—Monitoring of peripheral devices
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3265—Power saving in display device
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3278—Power saving in modem or I/O interface
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/3287—Power saving characterised by the action undertaken by switching off individual functional units in the computer system
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/0206—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
- H04M1/0208—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
- H04M1/0214—Foldable telephones, i.e. with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
- H04M1/0216—Foldable in one direction, i.e. using a one degree of freedom hinge
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/026—Details of the structure or mounting of specific components
- H04M1/0266—Details of the structure or mounting of specific components for a display module assembly
- H04M1/0268—Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04102—Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
Abstract
Se describe en la presente memoria un dispositivo electrónico que comprende una pantalla flexible y un método para ello. El dispositivo electrónico comprende además un procesador configurado para: controlar, en respuesta a la detección de una entrada de usuario, la pantalla flexible para dividir un área de visualización en una primera área y una segunda área, controlar la pantalla flexible para mostrar un primer elemento gráfico relacionado con una primera aplicación en la primera área, y un segundo elemento gráfico relacionado con el control de la primera aplicación en la segunda área, y controlar la primera aplicación en respuesta a la detección de una entrada al segundo elemento gráfico. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Método de control de visualizador, soporte de almacenamiento y dispositivo electrónico
Campo de la invención
La presente divulgación se refiere a un dispositivo electrónico, un método y un soporte de grabación legible por computadora no transitorio para controlar una aplicación de cámara.
Antecedentes de la invención
Con el continuo progreso de la tecnología electrónica, se han desarrollado dispositivos electrónicos flexibles de diversos tipos. En particular, los dispositivos electrónicos, como un televisor (TV), una computadora personal (PC), una computadora portátil, una tableta PC, un teléfono móvil, un reproductor de audio MPEG-1 capa 3 (MP3) y similares, tienen una penetración en el mercado lo suficientemente alta como para ser casi omnipresentes en la mayoría de los hogares.
Para satisfacer las necesidades de los usuarios que desean funciones más nuevas y variadas, se han realizado esfuerzos para desarrollar dispositivos electrónicos en formas más nuevas.
Un dispositivo electrónico flexible puede referirse a un dispositivo electrónico en el que la forma o figura del dispositivo se puede alterar, de manera similar a la manera en que se puede alterar el papel. El dispositivo electrónico flexible se puede deformar o alterar de otra manera mediante la fuerza aplicada por un usuario, adoptando un formato de plegado.
El documento US 2014/055429 A1 se refiere a un aparato de visualización flexible y a un método de control del mismo. Se proporciona un aparato de visualización flexible. El aparato de visualización flexible incluye una unidad de visualización, un sensor configurado para captar un doblado del aparato de visualización flexible y un controlador configurado para mostrar un primer contenido en una primera pantalla de la unidad de visualización y para reconfigurar y visualizar el primer contenido en una segunda pantalla generada en un área de la unidad de visualización en función del doblado.
El documento WO 2015/093665 A1 se refiere a un dispositivo electrónico y a un método para controlar el dispositivo electrónico. Un dispositivo electrónico, según una realización, comprende: un visualizador para visualizar una primera pantalla; una unidad captadora de dirección de fuerza para captar la dirección de la fuerza aplicada en un contacto en un punto por un objeto externo; y una unidad de control para detectar la ocurrencia de un evento predeterminado para dividir lógicamente el visualizador en al menos dos áreas que incluyen una primera área y una segunda área, obtener de la unidad captadora de dirección de fuerza la dirección de la fuerza de un primer contacto que está relacionada con el evento predeterminado, determinar un área de entre las al menos dos áreas para visualizar una primera pantalla, dependiendo de la dirección de la fuerza del primer contacto, y visualizar la primera pantalla en el área determinada.
El documento US 2016/198100 A1 se refiere a un dispositivo de visualización y a un método de operación del mismo. Se proporciona un dispositivo de visualización para visualizar una imagen y un método mediante el cual el dispositivo de visualización opera para visualizar una imagen. El dispositivo de visualización puede incluir un visualizador configurado para emitir una imagen de pantalla, un sensor de imagen configurado para adquirir una señal de imagen, un sensor de detección de doblado configurado para detectar un movimiento de doblado o un estado doblado del dispositivo de visualización, y una unidad de control configurada para controlar el visualizador para visualizar una imagen, que se genera en función de la señal de imagen, en una región de acuerdo con una posición en la que el visualizador está doblado sobre la imagen de pantalla si el sensor de detección de doblado detecta el movimiento de doblado o un estado doblado.
El documento US 2015/338888 A1 se refiere a un dispositivo plegable y a un método para controlarlo. El dispositivo plegable incluye: un visualizador flexible configurado para visualizar una pantalla de ejecución de una aplicación; y un controlador configurado para controlar el visualizador flexible para visualizar una pantalla de ejecución de al menos una primera aplicación en una primera superficie del visualizador flexible que se utiliza como visualizador del dispositivo plegable cuando el visualizador flexible está plegado, y controlar, en respuesta a que el visualizador flexible se despliegue, el visualizador flexible para visualizar la pantalla de ejecución de la al menos una primera aplicación y una pantalla de ejecución de al menos una segunda aplicación relacionada con la al menos una primera aplicación que se va a visualizar en una segunda superficie del visualizador flexible que se utiliza como visualizador del dispositivo plegable cuando el visualizador flexible está desplegado.
El documento WO 2016/052814 A1 se refiere a un terminal móvil y a un método para controlarlo. El terminal móvil, que tiene una unidad de visualización flexible que es doblable, plegable y enrollable en al menos una parte de la misma, incluye una unidad de visualización flexible configurada para visualizar una primera información de pantalla, una unidad captadora configurada para captar una operación de doblado de la unidad de visualización flexible y una unidad de control configurada para controlar la unidad de visualización flexible para visualizar una segunda información de pantalla diferente de la primera información de pantalla junto con la primera información de pantalla, en función de una operación de doblado de la unidad de visualización flexible, en donde la unidad de control divide la unidad de visualización flexible en al menos dos regiones y visualiza la primera información de pantalla y la segunda información de pantalla en las regiones, por separado.
Resumen de la invención
El alcance de la protección conferida se determina a partir de las reivindicaciones.
Breve descripción de los dibujos
Los aspectos y características anteriores y otros de la presente divulgación serán más evidentes a partir de la siguiente descripción detallada tomada conjuntamente con los dibujos adjuntos, en los que:
las FIGS. 1A, 1B y 1C son vistas que ilustran un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 2A y 2B son vistas que ilustran cada una un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 3A y 3B son vistas que ilustran un dispositivo electrónico según diversas realizaciones de la presente divulgación;
la FIG. 4A es una vista que ilustra dispositivos electrónicos en un entorno de red según diversas realizaciones de la presente divulgación;
la FIG. 4B es un diagrama de bloques que ilustra una configuración de un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 5A, 5B, 5C, 5D, 5E, 5F y 5G son vistas que ilustran un módulo de programa según diversas realizaciones de la presente divulgación;
la FIG. 6A es una vista que ilustra una relación según la división de pantalla en un dispositivo electrónico según diversas realizaciones de la presente divulgación;
la FIG. 6B es una vista que ilustra diversos estados de un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 7A, 7B, 7C, 7D y 7E son vistas que ilustran un método de operación de un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 8A, 8B, 8C y 8D son vistas que ilustran un método para proporcionar una relación de pantalla mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 9A, 9B y 9C son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 10A, 10B, 10C, 10D y 10E son vistas que explican cada una un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación; las FIGS. 11A, 11B, 11C, 11D y 11E son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 12A, 12B, 13A y 13B son vistas que ilustran métodos de captura de imágenes según diversos estados de un dispositivo electrónico según diversas realizaciones de la presente divulgación;
la FIG. 14 es un diagrama de flujo que ilustra un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación;
la FIG. 15 es un diagrama de flujo que ilustra un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 16A, 16B, 16C y 16D son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación;
la FIG. 17 es un diagrama de flujo que ilustra un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 18A, 18B, 18C, 18D, 18E y 18F son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación;
las FIGS. 19A, 19B, 19C, 19D, 19E, 19F y 19G son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación; las FIGS. 20A, 20B, 20C y 20D son vistas que ilustran un gesto de plegado según diversas realizaciones de la presente divulgación;
las FIGS. 21A y 21B son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación; y
las FIGS. 22A, 22B, 22C, 22D, 22E, 22F, 22G y 22H son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Descripción de realizaciones de la invención
A continuación, se describirán diversas realizaciones de la presente divulgación con referencia a los dibujos adjuntos. Debe entenderse que las realizaciones y los términos utilizados en el presente documento no tienen por objeto limitar la presente divulgación a las formas particulares divulgadas y la presente divulgación tiene por objeto cubrir diversas modificaciones y/o alternativas de las realizaciones correspondientes. Al describir los dibujos, se pueden utilizar números de referencia similares para designar elementos similares. Tal como se utilizan en el presente documento, las formas singulares pueden incluir también las formas plurales, a menos que el contexto indique claramente lo contrario. En la presente divulgación, la expresión "A o B", "A/B" o "al menos uno de A y/o B" puede incluir todas las combinaciones posibles de los elementos enumerados. La expresión "un primer", "un segundo", "el primer" o "el segundo" puede modificar elementos correspondientes independientemente del orden o la importancia, y se utiliza únicamente para distinguir un elemento de otro elemento, pero no limita los elementos correspondientes. Cuando se hace referencia a un elemento (por ejemplo, primer elemento) como estando (operativamente o comunicativamente) "conectado" o "acoplado" a otro elemento (por ejemplo, segundo elemento), puede estar directamente conectado o directamente acoplado al otro elemento o puede interponerse entre ellos cualquier otro elemento (por ejemplo, tercer elemento).
En la presente divulgación, la expresión "configurado para" puede intercambiarse con, por ejemplo, "adecuado para", "que tiene la capacidad de", "adaptado para", "hecho para", "capaz de", o "diseñado para" en términos de hardware o software, según las circunstancias. En algunas situaciones, la expresión "dispositivo configurado para" puede significar que el dispositivo, junto con otros dispositivos o componentes, "es capaz de". Por ejemplo, la frase "procesador adaptado (o configurado) para realizar A, B y C" puede significar un procesador dedicado (por ejemplo, procesador incorporado) para realizar las operaciones correspondientes o un procesador de propósito general (por ejemplo, unidad central de procesamiento (UCP) o procesador de aplicaciones (AP)) que puede realizar las operaciones correspondientes ejecutando uno o más programas de software almacenados en un dispositivo de memoria.
Un dispositivo electrónico según diversas realizaciones de la presente divulgación puede incluir al menos uno de, por ejemplo, un teléfono inteligente, una tableta electrónica personal (PC), un teléfono móvil, un videoteléfono, un lector de libros electrónicos, una PC de escritorio, una PC portátil, una computadora subportátil, una estación de trabajo, un servidor, un asistente digital personal (PDA), un reproductor multimedia portátil (PMP), un reproductor de audio MPEG-1 capa 3 (MP3), un dispositivo médico, una cámara y un dispositivo personal conectado. Según diversas realizaciones de la presente divulgación, el dispositivo personal conectado puede incluir al menos uno de un tipo de accesorio (por ejemplo, un reloj, un anillo, una pulsera, una tobillera, un collar, gafas, una lente de contacto o un dispositivo montado en la cabeza (HMD)), un tipo integrado en tela o ropa (por ejemplo, una ropa electrónica), un tipo montado en el cuerpo (por ejemplo, una almohadilla cutánea o un tatuaje) y un tipo bioimplantable (por ejemplo, un circuito implantable). Según algunas realizaciones de la presente divulgación, el dispositivo electrónico puede incluir al menos uno de, por ejemplo, un televisor, un reproductor de videodiscos digitales (DVD), un equipo de audio, un frigorífico, un aire acondicionado, una aspiradora, un horno, un horno microondas, una lavadora, un purificador de aire, un decodificador, un panel de control de automatización del hogar, un panel de control de seguridad, un decodificador multimedia (por ejemplo, Samsung HomeSync™, Apple TV™ o Google TV™), una consola de juegos (por ejemplo, Xbox™ y PlayStation™), un diccionario electrónico, una llave electrónica, una videocámara y un marco de fotos electrónico.
Según otra realización de la presente divulgación, el dispositivo electrónico puede incluir al menos uno de diversos dispositivos médicos (por ejemplo, diversos dispositivos de medición médicos portátiles (un dispositivo de monitorización de glucosa en sangre, un dispositivo de monitorización de frecuencia cardíaca, un dispositivo de medición de presión arterial, un dispositivo de medición de temperatura corporal y/o similares), una angiografía por resonancia magnética (MRA), una imagen por resonancia magnética (MRI), una máquina de tomografía computarizada (CT) y una máquina ultrasónica), un dispositivo de navegación, un sistema global de navegación por satélite (GNSS), un registrador de datos de eventos (EDR), un registrador de datos de vuelo (FDR), un dispositivo de infoentretenimiento del vehículo, dispositivos electrónicos para un barco (por ejemplo, un dispositivo de navegación para un barco, una brújula giroscópica y/o similares), aviónica, dispositivos de seguridad, una unidad principal de automóvil, un robot para el hogar o la industria, un dron, un cajero automático (ATM) en bancos, un punto de venta (POS) en una tienda y un dispositivo de Internet de las cosas (por ejemplo, una bombilla, diversos sensores, un dispositivo aspersor, una alarma contra incendios, un termostato, un farol, una tostadora, artículos de deporte, un depósito de agua caliente, un calentador, una caldera y/o similares). Según algunas realizaciones de la presente divulgación, el dispositivo electrónico puede incluir al menos uno de una parte de un mueble, un edificio/estructura o un vehículo de motor, una placa electrónica, un dispositivo receptor de firma electrónica, un proyector y varios tipos de instrumentos de medición (por ejemplo, un contador de agua, un medidor de electricidad, un medidor de gas, un medidor de ondas de radio y/o similares). En diversas realizaciones de la presente divulgación, el dispositivo electrónico puede ser flexible o puede ser una combinación de dos o más de los diversos dispositivos mencionados anteriormente. El dispositivo electrónico según una realización de la presente divulgación no se limita a los dispositivos mencionados anteriormente. En la presente divulgación, el término "usuario" puede indicar una persona que usa un dispositivo electrónico o un dispositivo (por ejemplo, un dispositivo electrónico de inteligencia artificial) que usa un dispositivo electrónico. Las FIGS. 1A a 1C son vistas que ilustran un dispositivo electrónico según diversas realizaciones de la presente divulgación.
La FIG. 1A es una vista que ilustra una parte frontal parcialmente desplegada del dispositivo electrónico, la FIG.
1B es una vista que ilustra una parte trasera desplegada del dispositivo electrónico, y la FIG. 1C es una vista que ilustra una parte trasera plegada del dispositivo electrónico.
Un visualizador 160 puede estar dispuesto en una superficie frontal 102 del dispositivo electrónico 101. El visualizador 160 puede estar formado de modo que ocupe la mayor parte de la superficie frontal 102 del dispositivo electrónico 101. Por ejemplo, una pantalla principal de inicio puede visualizarse en el visualizador 160. La pantalla principal de inicio puede ser una primera pantalla o una interfaz gráfica de usuario (GUI) que se visualiza en el visualizador 160 y facilita la interacción del usuario cuando se enciende el dispositivo electrónico 101. Al menos uno de los iconos de acceso directo para ejecutar aplicaciones de uso frecuente, una tecla de cambio de menú principal, la hora y el tiempo pueden visualizarse en la pantalla principal de inicio. Cuando un usuario selecciona la tecla de cambio de menú principal, una pantalla de menú puede visualizarse en el visualizador 160.
Además, se puede mostrar una barra de estado que incluya al menos un estado del dispositivo electrónico 101, como el estado de carga de la batería, la intensidad de una señal recibida, una hora actual y/o similares. La barra de estado se puede mostrar en una parte del extremo superior del visualizador 160.
Se puede formar un botón de inicio, un botón de menú y/o un botón de retroceso en el borde (por ejemplo, un "bisel" o una "parte de la caja alrededor del visualizador 160") de la superficie frontal 102 del dispositivo electrónico 101, que está dispuesto al lado/debajo del visualizador 160.
El botón de inicio puede activarse para visualizar la pantalla principal de inicio en el visualizador 160. Además, el botón de inicio puede activarse para hacer que el visualizador 160 visualice aplicaciones utilizadas recientemente o un administrador de tareas. El botón de menú puede utilizarse para proporcionar un menú de conexión que pueda visualizarse en el visualizador 160. El menú de conexión puede incluir al menos uno de un menú de adición de widgets, un menú de cambio de fondo de pantalla, un menú de búsqueda, un menú de edición y un menú de configuración del entorno. El botón de retroceso puede activarse para visualizar una pantalla ejecutada justo antes de una pantalla que se está ejecutando actualmente, o puede utilizarse para finalizar la aplicación utilizada más recientemente.
Una primera cámara 190 y/o al menos un sensor pueden estar dispuestos en la superficie frontal del dispositivo electrónico 101. El al menos un sensor puede incluir uno o más de un sensor de distancia, un sensor de iluminancia, un sensor de proximidad y/o similares. El al menos un sensor puede estar dispuesto en el borde de la superficie frontal 102 del dispositivo electrónico 101, que está dispuesto al lado/encima del visualizador 160. Un subvisualizador 162, una segunda cámara 192, un flash, un altavoz y/o al menos un sensor tal como un sensor de distancia y/o similares pueden estar dispuestos en una superficie trasera 103 del dispositivo electrónico 101.
Cuando se encuentra en una configuración plegada (por ejemplo, en un estado de plegado), el dispositivo electrónico 101 puede estar configurado para visualizar elementos gráficos, una o unas interfaces de usuario y/o información de una condición o tipo preestablecido (por ejemplo, información de recepción/transmisión de mensajes, información de estado del dispositivo electrónico y/o similares) en el subvisualizador 162. El subvisualizador 162 puede estar configurado para detectar presión (por ejemplo, indicando una entrada de toque y/o golpeteo de un usuario). Por ejemplo, cuando el usuario "golpetea" (por ejemplo, golpeteando dos veces o dando toques) en el subvisualizador 162, el dispositivo electrónico 101 puede estar configurado para visualizar elementos gráficos, una o unas interfaces de usuario y/u otra información designada en el subvisualizador 162. El subvisualizador 162 puede estar configurado para detectar información de huellas dactilares.
Además, en algunas realizaciones de ejemplo, una o más características pueden estar dispuestas en una superficie lateral 104, incluyendo un botón de encendido/bloqueo, un botón de volumen que tiene un botón de aumento de volumen y un botón de reducción de volumen, una antena de radiodifusión multimedia terrestre (DMB) para recibir una señal de radiodifusión, al menos un micrófono y/o similares.
Las FIGS. 2A y 2B son vistas que ilustran cada una un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Con referencia a la FIG. 2A, el dispositivo electrónico 201a puede incluir una segunda cámara 292a y puede estar configurado de manera que un visualizador 260a no esté expuesto a un exterior del dispositivo (por ejemplo, "exterior") con respecto a una parte de extremo longitudinal del dispositivo electrónico 201 cuando el dispositivo electrónico 201a está plegado. Como se ve en la FIG. 2A, un estado plegado del dispositivo puede caracterizarse por las partes de extremo longitudinal del dispositivo electrónico 201 que entran en contacto entre sí, o que de otro modo se acercan físicamente lo más posible entre sí.
Con referencia a la FIG. 2B, el dispositivo electrónico 201b puede incluir una segunda cámara 292b y puede configurarse alternativamente de manera que una parte 262b de un visualizador 260b esté expuesta a un exterior del dispositivo para funcionar como un subvisualizador, incluso cuando el dispositivo electrónico 201b esté plegado.
Las FIGS. 3A y 3B son vistas que ilustran un dispositivo electrónico según diversas realizaciones de la presente divulgación.
La FIG. 3A es una vista que ilustra una parte frontal desplegada del dispositivo electrónico, y la FIG. 3B es una vista que ilustra una sección transversal a lo largo de una dirección longitudinal del dispositivo electrónico. El dispositivo electrónico 301 puede incluir un sensor de deformación 342 (por ejemplo, una galga extensométrica), un primer sensor 345, un segundo sensor 346, un visualizador 360, una bisagra 386, una placa de circuito impreso (PCB) superior 382, una PCB inferior 384 y una batería 395.
El sensor de deformación 342 puede estar dispuesto en una posición plegada 380 del dispositivo electrónico 301, y puede generar un "valor de deformación" utilizado para medir indirectamente un ángulo de plegado del dispositivo electrónico 301.
Se puede disponer un sensor de ángulo en la posición plegada 380 del dispositivo electrónico 301, y puede medir directamente el ángulo de plegado del dispositivo electrónico 301 o de la bisagra 386.
El primer sensor 345 puede estar dispuesto en el borde de una superficie frontal del dispositivo electrónico 301, que está ubicado al lado/encima del visualizador 360, y el segundo sensor 346 puede estar dispuesto en el borde de una superficie frontal del dispositivo electrónico 301, que está ubicado al lado/debajo del visualizador 360. Los sensores primero y segundo 345 y 346 pueden proporcionar información para calcular el ángulo de plegado del dispositivo electrónico 301. Por ejemplo, cada uno de los sensores primero y segundo 345 y 346 puede incluir al menos uno de un sensor de distancia y un sensor de giroscopio.
El visualizador 360 puede incluir un panel flexible 361 para visualizar una imagen y un tercer sensor 362 para detectar al menos uno de presión, huella dactilar y/o similares.
La PCB superior 382 y la PCB inferior 384 pueden estar separadas entre sí con la bisagra 386 interpuesta entre ellas, y pueden estar conectadas eléctricamente entre sí a través de un conector flexible.
La bisagra 386 (por ejemplo, una bisagra de tope libre) puede mantener un estado plegado del dispositivo electrónico 301 en varios ángulos.
Con referencia a la FIG. 4A, se realizará una descripción de un dispositivo electrónico 401 en un entorno de red según diversas realizaciones de la presente divulgación. El dispositivo electrónico 401 (por ejemplo, el dispositivo electrónico 101) puede incluir un bus 410, un procesador 420, una memoria 430, un módulo sensor 440, una interfaz de entrada/salida 450, un visualizador 460 (por ejemplo, el visualizador 160) y una interfaz de comunicación 470. En algunas realizaciones de la presente divulgación, al menos uno de los elementos anteriores del dispositivo electrónico 401 puede omitirse del dispositivo electrónico 401, o el dispositivo electrónico 401 puede incluir adicionalmente otros elementos. Por ejemplo, el dispositivo electrónico 401 puede incluir además al menos uno de un búfer de trama 463, una unidad de procesamiento de gráficos (GPU) 464 y un panel de pantalla táctil (TSP) 466 (o también denominado "panel táctil").
El bus 410 puede incluir un circuito que interconecta los elementos 410 a 470 y entrega una comunicación (por ejemplo, un mensaje de control o datos) entre los elementos 410 a 470. El procesador 420 puede incluir uno o más de una UCP, un AP y un procesador de comunicación (CP). El procesador 420 puede realizar, por ejemplo, cálculos o procesamiento de datos relacionados con el control sobre y/o la comunicación por al menos uno de los otros elementos del dispositivo electrónico 401.
La memoria 430 puede incluir una memoria volátil y/o una memoria no volátil. La memoria 430 puede almacenar, por ejemplo, comandos o datos relacionados con al menos uno de los otros elementos del dispositivo electrónico 401. Según una realización de la presente divulgación, la memoria 430 puede almacenar software y/o un programa. El programa puede incluir, por ejemplo, un núcleo, middleware, una interfaz de programación de aplicaciones (API) y/o un programa de aplicación (o una aplicación). Al menos algunos del núcleo, el middleware y la API pueden denominarse "sistema operativo (SO)". Por ejemplo, el núcleo puede controlar o gestionar recursos del sistema (por ejemplo, el bus 410, el procesador 420, la memoria 430 y/o similares) utilizados para ejecutar operaciones o funciones implementadas por los otros programas (por ejemplo, el middleware, la API y el programa de aplicación). Además, el núcleo puede proporcionar una interfaz capaz de controlar o gestionar los recursos del sistema accediendo a los elementos individuales del dispositivo electrónico 401 mediante el uso del middleware, la API o el programa de aplicación.
Por ejemplo, el middleware puede servir como intermediario que permite que la API o el programa de aplicación se comuniquen con el núcleo e intercambien datos con él. Además, el middleware puede procesar una o más solicitudes de tareas recibidas del programa de aplicación según una prioridad. Por ejemplo, el middleware puede asignar una prioridad, que permite el uso de recursos del sistema (por ejemplo, el bus 410, el procesador 420, la memoria 430 y/o similares) del dispositivo electrónico 401, a al menos uno de los programas de aplicación, y puede procesar las una o más solicitudes de tareas según la prioridad asignada. La API es una interfaz a través de la cual la aplicación controla una función proporcionada por el núcleo o el middleware, y puede incluir, por ejemplo, al menos una interfaz o función (por ejemplo, comando) para el control de archivos, control de ventanas, procesamiento de imágenes, control de caracteres o similares.
Por ejemplo, el módulo sensor 440 puede medir una magnitud física, o puede detectar un estado de funcionamiento del dispositivo electrónico 401, y puede convertir la magnitud física medida o el estado de funcionamiento detectado en una señal eléctrica. El módulo sensor 440 puede incluir al menos uno de, por ejemplo, un sensor de ángulo 442, un sensor de distancia 444 y un sensor de giroscopio 446. El módulo sensor 440 puede incluir al menos uno de un sensor de GNSS, un sensor de sistema de posicionamiento global (GPS), un sensor de gestos, un sensor de presión atmosférica, un sensor magnético, un sensor de aceleración, un sensor de agarre, un sensor de proximidad, un sensor de color (por ejemplo, un sensor de rojo-verde-azul (RGB)), un sensor biométrico, un sensor de temperatura/humedad, un sensor de iluminancia y un sensor de ultravioleta (UV). Adicionalmente o alternativamente, el módulo sensor 440 puede incluir, por ejemplo, un sensor de nariz electrónica, un sensor de electromiografía (EMG), un sensor de electroencefalograma (EEG), un sensor de electrocardiograma (ECG), un sensor de infrarrojos (IR), un sensor de iris y/o un sensor de huellas dactilares. El módulo sensor 440 puede incluir además un circuito de control para controlar uno o más sensores incluidos en el mismo. En algunas realizaciones de la presente divulgación, el dispositivo electrónico 401 puede incluir además un procesador configurado para controlar el módulo sensor 440 como parte del procesador 420 o por separado de este, y puede controlar el módulo sensor 440 mientras el procesador 420 está en un estado de suspensión.
Por ejemplo, la interfaz de entrada/salida 450 puede entregar un comando o datos, que se ingresan desde un usuario u otro dispositivo externo, al o los elementos distintos de la interfaz de entrada/salida 450 dentro del dispositivo electrónico 401, o puede emitir, al usuario u otro dispositivo externo, comandos o datos recibidos desde el o los elementos distintos de la interfaz de entrada/salida 450 dentro del dispositivo electrónico 401. La interfaz de entrada/salida 450 puede incluir al menos uno de, por ejemplo, un altavoz, un receptor, un auricular y un micrófono.
El visualizador 460 puede incluir al menos uno de un visualizador de cristal líquido (LCD), un visualizador de diodos emisores de luz (LED), un visualizador de diodos orgánicos emisores de luz (OLED), un visualizador de sistemas microelectromecánicos (MEMS), un visualizador de papel electrónico y un proyector. Por ejemplo, el visualizador 460 puede visualizar diversos elementos de contenido (por ejemplo, texto, imágenes, vídeos, iconos, símbolos y/o similares) para el usuario.
El búfer de trama 463 puede almacenar valores de píxeles o valores de color de píxeles que se enviarán al visualizador 460, y puede implementarse mediante una memoria, la GPU 464, una memoria dentro del visualizador 460 o un controlador de visualización, o un aparato virtual tal como un aparato de búfer de trama que emplee Linux.
La GPU 464 puede generar una pantalla que incluye varios objetos, como un elemento, una imagen, texto y/o similares. La GPU 464 puede calcular al menos un valor de atributo de entre un valor de coordenadas, una forma, un tamaño, un color y/o similares, mediante cuyo uso se habrá de visualizar cada objeto según el diseño de una pantalla, y puede generar una pantalla que tenga diversos diseños e incluya los objetos, basándose en el valor de atributo calculado. En adelante, una pantalla o una pantalla de aplicación puede referirse a la totalidad o parte de una imagen mostrada en una superficie (o un área de visualización) del visualizador 460. Por ejemplo, la pantalla de aplicación puede denominarse "interfaz gráfica", "GUI", "ventana de aplicación", "área de aplicación" y/o similares.
El TSP 466 (también denominado "panel táctil") puede recibir una entrada táctil, una entrada gestual, una entrada de proximidad o una entrada flotante proporcionada por un lápiz electrónico o una parte del cuerpo del usuario. Por ejemplo, el TSP 466 puede estar incluido en el visualizador 460. El TSP 466 puede detectar una entrada táctil/flotante utilizando al menos uno de, por ejemplo, un esquema capacitivo, un esquema resistivo, un esquema infrarrojo y un esquema de onda acústica de superficie. Además, el TSP 466 puede incluir además un circuito de control. El TSP 466 puede incluir además una capa táctil y puede proporcionar una reacción táctil al usuario.
La interfaz de comunicación 470 puede establecer, por ejemplo, una comunicación entre el dispositivo electrónico 401 y un dispositivo externo (por ejemplo, un dispositivo electrónico externo 404 o un servidor 406). Por ejemplo, la interfaz de comunicación 470 puede estar conectada a una red 402 a través de una comunicación inalámbrica o por cable y puede comunicarse con el dispositivo externo (por ejemplo, el segundo dispositivo electrónico externo 404 o el servidor 406).
Los tipos de comunicación inalámbrica pueden incluir, por ejemplo, comunicación celular que utiliza al menos uno de evolución a largo plazo (LTE), LTE avanzada (LTE-A), acceso múltiple por división de código (CDMA), CDMA de banda ancha (WCDMA), sistema universal de telecomunicaciones móviles (UMTS), WiBro (banda ancha inalámbrica) y sistema global de comunicaciones móviles (GSM). Según una realización de la presente divulgación, los tipos de comunicación inalámbrica pueden incluir al menos uno de, por ejemplo, WiFi, Bluetooth, Bluetooth de baja energía (BLE), Zigbee, comunicación de campo cercano (NFC), transmisión segura magnética, radiofrecuencia (RF) y red de área corporal (BAN). Según una realización de la presente divulgación, los tipos de comunicación inalámbrica pueden incluir un GNSS. El GNSS puede ser, por ejemplo, un sistema de posicionamiento global (GPS), un sistema global de navegación por satélite (Glonass), un sistema de navegación por satélite Beidou (en adelante, "Beidou") o un sistema global de navegación por satélite europeo (Galileo). En adelante, en la presente divulgación, el término "GPS" puede usarse indistintamente con el término "GNSS". Los tipos de comunicación por cable pueden incluir al menos uno de, por ejemplo, un bus serie universal (USB), una interfaz multimedia de alta definición (HDMI), el estándar recomendado 232 (RS-232), la comunicación por línea eléctrica (PLC) y un servicio telefónico tradicional (POTS). Los ejemplos de la red 402 pueden incluir al menos una de las redes de telecomunicaciones, como una red informática (por ejemplo, una red de área local (LAN) o una red de área extendida (WAN)), Internet y una red telefónica.
El dispositivo electrónico externo 404 puede ser de un tipo idéntico o diferente al del dispositivo electrónico 401. Según diversas realizaciones de la presente divulgación, todas o algunas de las operaciones realizadas por el dispositivo electrónico 401 pueden ser realizadas por otro dispositivo electrónico o múltiples dispositivos electrónicos (por ejemplo, el dispositivo electrónico externo 404 o el servidor 406). Según una realización de la presente divulgación, cuando el dispositivo electrónico 401 necesita realizar algunas funciones o servicios automáticamente o mediante una solicitud, el dispositivo electrónico 401 puede enviar, a otro dispositivo (por ejemplo, el dispositivo electrónico externo 404 o el servidor 406), una solicitud para realizar al menos algunas funciones relacionadas con las funciones o servicios, en lugar de realizar las funciones o servicios por sí mismo, o adicionalmente. Otro dispositivo electrónico (por ejemplo, el dispositivo electrónico externo 404 o el servidor 406) puede ejecutar las funciones solicitadas o las funciones adicionales, y puede entregar un resultado de la ejecución al dispositivo electrónico 401. El dispositivo electrónico 401 puede procesar el resultado recibido sin ningún cambio o adicionalmente y puede proporcionar las funciones o servicios solicitados. Para este fin, se puede hacer uso, por ejemplo, de tecnología de computación en la nube, tecnología de computación distribuida o tecnología de computación cliente-servidor.
La FIG. 4B es un diagrama de bloques que ilustra una configuración de un dispositivo electrónico 201 según diversas realizaciones de la presente divulgación. El dispositivo electrónico 201 puede incluir, por ejemplo, la totalidad o parte del dispositivo electrónico 401 ilustrado en la FIG. 4A. El dispositivo electrónico 201 puede incluir al menos un procesador (por ejemplo, un AP) 210, un módulo de comunicación 220, un módulo de identificación de abonado 224, una memoria 230, un módulo sensor 240, un aparato de entrada 250, un visualizador 260, una interfaz 270, un módulo de audio 280, un módulo de cámara 291, un módulo de gestión de energía 295, una batería 296, un indicador 297 y un motor 298. El procesador 210 puede controlar múltiples elementos de hardware o software conectados al procesador 210 y puede realizar el procesamiento y las operaciones aritméticas sobre diversos datos, ejecutando, por ejemplo, un SO o un programa de aplicación. El procesador 210 puede implementarse, por ejemplo, mediante un sistema en un chip (SoC). Según una realización de la presente divulgación, el procesador 210 puede incluir además una unidad de procesamiento de gráficos (GPU) y/o un procesador de señales de imagen. El procesador 210 puede incluir al menos algunos (por ejemplo, un módulo celular 221) de los elementos ilustrados en la FIG. 4B. El procesador 210 puede cargar, en una memoria volátil, instrucciones o datos recibidos de al menos uno (por ejemplo, una memoria no volátil) de los otros elementos y puede procesar las instrucciones o datos cargados, y puede almacenar los datos resultantes en una memoria no volátil.
El módulo de comunicación 220 (por ejemplo, la interfaz de comunicación 470) puede incluir, por ejemplo, el módulo celular 221, un módulo de WiFi 223, un módulo de Bluetooth (BT) 225, un módulo de GNSS 227, un módulo de NFC 228 y un módulo de RF 229. Por ejemplo, el módulo celular 221 puede proporcionar una llamada de voz, una llamada de vídeo, un servicio de mensajes de texto, un servicio de Internet y/o similares a través de una red de comunicación. Según una realización de la presente divulgación, el módulo celular 221 puede identificar o autenticar el dispositivo electrónico 201 en la red de comunicación mediante el uso del módulo de identificación de abonado (por ejemplo, una tarjeta de módulo de identidad de abonado (SIM)) 224. Según una realización de la presente divulgación, el módulo celular 221 puede realizar al menos algunas de las funciones que puede proporcionar el procesador 210. Según una realización de la presente divulgación, el módulo celular 221 puede incluir un CP. Según algunas realizaciones de la presente divulgación, al menos algunos (por ejemplo, dos o más) del módulo celular 221, el módulo de WiFi 223, el módulo de BT 225, el módulo de<g>N<s>S 227 y el módulo de NFC 228 pueden estar incluidos en un chip integrado (IC) o caja de IC. El módulo de RF 229 puede transmitir y recibir, por ejemplo, señales de comunicación (por ejemplo, señales de RF). El módulo de RF 229 puede incluir, por ejemplo, un transceptor, un módulo amplificador de potencia (PAM), un filtro de frecuencia, un amplificador de bajo ruido (LNA) y una antena. Según otra realización de la presente divulgación, al menos uno del módulo celular 221, el módulo de WiFi 223, el módulo de BT 225, el módulo de GNSS 227 y el módulo de NFC 228 puede transmitir y recibir señales de RF a través de un módulo de RF separado. El módulo de identificación de abonado 224 puede incluir, por ejemplo, una tarjeta que incluye un módulo de identidad de abonado o un SIM incorporado, y puede contener información de identificación única (por ejemplo, un identificador de tarjeta de circuito integrado (ICCID)) o información de abonado (por ejemplo, una identidad internacional de abonado móvil (IMSI)).
La memoria 230 (por ejemplo, la memoria 430) puede incluir, por ejemplo, una memoria interna 232 o una memoria externa 234. La memoria interna 232 puede incluir al menos uno de, por ejemplo, una memoria volátil (por ejemplo, una memoria dinámica de acceso aleatorio (DRAM), una RAM estática (SRAM), una DRAM síncrona (SDRAM) y/o similares); y una memoria no volátil (por ejemplo, una memoria de solo lectura programable una sola vez (OTPROM), una ROM programable (PROM), una ROM borrable y programable (EPROM), una ROM eléctricamente borrable y programable (EEPROM), una ROM por máscara, una ROM flash, una memoria flash, un disco duro y una unidad de estado sólido (SSD)). La memoria externa 234 puede incluir una unidad flash, por ejemplo, una Compact Flash (CF), una Secure Digital (SD), una Micro-Secure Digital (Micro-SD), una Mini-Secure Digital (Mini-SD), una extreme Digital (xD), una Multi-Media Card (MMC), una memory stick o similares. La memoria externa 234 puede estar conectada funcional o físicamente al dispositivo electrónico 201 a través de diversas interfaces.
Por ejemplo, el módulo sensor 240 puede medir una magnitud física o puede detectar un estado de funcionamiento del dispositivo electrónico 201, y puede convertir la magnitud física medida o el estado de funcionamiento detectado en una señal eléctrica. El módulo sensor 240 puede incluir al menos uno de, por ejemplo, un sensor de gestos 240A, un sensor de giroscopio 240B, un sensor de presión atmosférica 240C, un sensor magnético 240D, un sensor de aceleración 240E, un sensor de agarre 240F, un sensor de proximidad 240G, un sensor de color 240H (por ejemplo, un sensor de rojo-verde-azul (RGB)), un sensor biométrico 240I, un sensor de temperatura/humedad 240J, un sensor de iluminancia 240K y un sensor de ultravioleta (UV) 240M. Adicionalmente o alternativamente, el módulo sensor 240 puede incluir, por ejemplo, un sensor de nariz electrónica, un sensor de electromiografía (EMG), un sensor de electroencefalograma (EEG), un sensor de electrocardiograma (ECG), un sensor de infrarrojos (IR), un sensor de iris y/o un sensor de huellas dactilares. El módulo sensor 240 puede incluir además un circuito de control para controlar uno o más sensores incluidos en el mismo. En algunas realizaciones de la presente divulgación, el dispositivo electrónico 201 puede incluir además un procesador configurado para controlar el módulo sensor 240 como parte del procesador 210 o por separado de este, y puede controlar el módulo sensor 240 mientras el procesador 210 está en un estado de suspensión.
El aparato de entrada 250 puede incluir, por ejemplo, un panel táctil 252, un sensor de lápiz (digital) 254, una tecla 256 y una unidad de entrada ultrasónica 258. El panel táctil 252 puede utilizar al menos uno de, por ejemplo, un esquema capacitivo, un esquema resistivo, un esquema infrarrojo y un esquema de onda acústica de superficie. Además, el panel táctil 252 puede incluir además un circuito de control. El panel táctil 252 puede incluir además una capa táctil y puede proporcionar una reacción táctil al usuario. El sensor de lápiz (digital) 254 puede incluir, por ejemplo, una hoja de reconocimiento que forma parte del panel táctil o está separada del panel táctil. La tecla 256 puede ser, por ejemplo, un botón físico, una tecla óptica y un teclado. La unidad de entrada ultrasónica 258 puede captar una onda ultrasónica generada por una entrada a través de un micrófono (por ejemplo, un micrófono 288) y puede confirmar datos correspondientes a la onda ultrasónica captada.
El visualizador 260 (por ejemplo, el visualizador 460) puede incluir un panel 262, una unidad holográfica 264, un proyector 266 y/o un circuito de control para controlarlos. El panel 262 puede implementarse para que sea, por ejemplo, flexible, transparente o ponible. El panel 262 junto con el panel táctil 252 pueden implementarse como uno o más módulos. Según una realización de la presente divulgación, el panel 262 puede incluir un sensor de presión (o un sensor de fuerza) capaz de medir la fuerza de la presión del tacto de un usuario. El sensor de presión y el panel táctil 252 pueden estar integrados en una unidad, o el sensor de presión puede implementarse mediante uno o más sensores separados del panel táctil 252. La unidad holográfica 264 puede visualizar una imagen tridimensional en el aire utilizando la interferencia de la luz. El proyector 266 puede visualizar una imagen proyectando luz sobre una pantalla. La pantalla puede estar ubicada, por ejemplo, dentro o fuera del dispositivo electrónico 201. La interfaz 270 puede incluir, por ejemplo, una interfaz multimedia de alta definición (HDMI) 272, un bus serie universal (USB) 274, una interfaz óptica 276 y un conector SubD (SubD) 278. La interfaz 270 puede estar incluida, por ejemplo, en la interfaz de comunicación 470 ilustrada en la FIG. 4A. Adicionalmente o alternativamente, la interfaz 270 puede incluir, por ejemplo, una interfaz de enlace de alta definición móvil (MHL), una interfaz de tarjeta Secure Digital (SD)/Multi-media Card (MMC) o una interfaz estándar de asociación de datos en infrarrojo (IrDA).
Por ejemplo, el módulo de audio 280 puede convertir bidireccionalmente entre un sonido y una señal eléctrica. Al menos algunos elementos del módulo de audio 280 pueden estar incluidos, por ejemplo, en la interfaz de entrada/salida 450 ilustrada en la FIG. 4A. El módulo de audio 280 puede procesar información de sonido que se introduce o emite a través de, por ejemplo, un altavoz 282, un receptor 284, un auricular 286, el micrófono 288 o similares. El módulo de cámara 291 es, por ejemplo, un dispositivo capaz de capturar una imagen fija y una imagen en movimiento. Según una realización de la presente divulgación, el módulo de cámara 291 puede incluir uno o más sensores de imagen (por ejemplo, un sensor frontal o un sensor posterior), una lente, un procesador de señal de imagen (ISP) y un flash (por ejemplo, un LED, una lámpara de xenón o similares). El módulo de gestión de energía 295 puede gestionar, por ejemplo, la energía del dispositivo electrónico 201. Según una realización de la presente divulgación, el módulo de gestión de energía 295 puede incluir un circuito integrado de gestión de energía (PMIC), un IC de cargador o un indicador de batería o de combustible. El PMIC puede utilizar un método de carga por cable y/o inalámbrico. Los ejemplos del método de carga inalámbrico pueden incluir, por ejemplo, un método de resonancia magnética, un método de inducción magnética, un método electromagnético y/o similares. El PMIC puede incluir además circuitos adicionales (por ejemplo, un bucle de bobina, un circuito de resonancia, un rectificador y/o similares) para la carga inalámbrica. El indicador de batería puede medir, por ejemplo, una cantidad remanente de la batería 296 y un voltaje, una corriente o una temperatura durante la carga. La batería 296 puede incluir, por ejemplo, una batería recargable y/o una batería solar.
El indicador 297 puede visualizar un estado particular (por ejemplo, un estado de arranque, un estado de mensaje, un estado de carga o similares) del dispositivo electrónico 201 o de una parte (por ejemplo, el procesador 210) del dispositivo electrónico 201. El motor 298 puede convertir una señal eléctrica en una vibración mecánica, y puede generar una vibración, un efecto háptico o similares. El dispositivo electrónico 201 puede incluir, por ejemplo, una unidad de soporte de televisión (TV) móvil (por ejemplo, una GPU) que puede procesar datos multimedia de acuerdo con un estándar, como radiodifusión digital multimedia (DMB), radiodifusión de vídeo digital (DVB) o mediaFLO™. Cada uno de los elementos de hardware descritos anteriormente según la presente divulgación puede incluir uno o más componentes, y los nombres de los elementos correspondientes pueden variar en función del tipo de dispositivo electrónico. En diversas realizaciones de la presente divulgación, el dispositivo electrónico (por ejemplo, el dispositivo electrónico 201) puede omitir algunos elementos o puede incluir además elementos adicionales, o algunos de los elementos del dispositivo electrónico pueden combinarse en una entidad, que puede realizar funciones idénticas a las de los elementos relevantes antes de la combinación. Las FIGS. 5A a 5G son vistas que ilustran un módulo de programa según diversas realizaciones de la presente divulgación.
La FIG. 5A es un diagrama de bloques que ilustra una configuración de un módulo de programa según diversas realizaciones de la presente divulgación. Según una realización de la presente divulgación, el módulo de programa puede incluir un SO para controlar recursos relacionados con el dispositivo electrónico (por ejemplo, el dispositivo electrónico 101, 201 o 401) y/o diversas aplicaciones ejecutadas en el SO. El SO puede ser, por ejemplo, Android™, iOS™, Windows™', Symbian™, Tizen™, Bada™ y/o similares. Al menos parte del módulo de programa puede estar precargada en el dispositivo electrónico, o puede descargarse desde un dispositivo electrónico externo (por ejemplo, el dispositivo electrónico 404, el servidor 406 y/o similares).
Un convertidor de eventos de plegado 520 (o denominado "convertidor de eventos") puede analizar datos en bruto recibidos de un sensor 510 (por ejemplo, un sensor de deformación 512, un sensor de distancia 513, un sensor de giroscopio 514 y/o similares) y puede calcular un estado de plegado. En adelante, el término "plegado" puede referirse a "doblado", y el término "evento de plegado" puede referirse a un "gesto de plegado".
Un distribuidor/manipulador de eventos de plegado 528 (o denominado "manipulador de eventos") puede entregar un estado/evento de plegado a un sistema 565 o una aplicación 560.
Un administrador de estado de plegado 522 puede entregar un estado/evento de plegado a un módulo relevante. Un módulo de memoria de estado 524 puede almacenar un estado/evento de plegado.
Un administrador de notificaciones/mensajes 541 puede proporcionar a un usuario un evento, como un mensaje de llegada, una cita, una notificación de proximidad y/o similares.
Un registrador de eventos 542 puede registrar eventos y puede visualizar los eventos en orden cronológico. Un módulo de telefonía 543 puede gestionar una función de llamada de voz/vídeo del dispositivo electrónico. Un temporizador 544 puede proporcionar una función de temporizador.
Un administrador de ubicación 545 puede gestionar, por ejemplo, información de ubicación del dispositivo electrónico.
Un administrador de energía 546 puede funcionar junto con, por ejemplo, un controlador de energía 548 y puede gestionar la capacidad de una batería o energía, y puede proporcionar información de energía utilizada para una operación del dispositivo electrónico.
Un receptor de eventos del sistema 532 puede recibir un evento del administrador de notificaciones/mensajes 541, del registrador de eventos 542, del módulo de telefonía 543, del temporizador 544 o del administrador de energía 546, y puede entregar el evento recibido a un administrador de contexto 534.
Un manipulador de entrada 530 puede recibir una entrada de un TSP 515, un ratón 516 o una tecla 517, y puede entregar la entrada recibida al administrador de contexto 534.
El administrador de contexto 534 puede gestionar un servicio del sistema basándose en una entrada, un evento del sistema, un estado de plegado y/o similares.
Un controlador de visualización 574 puede controlar el encendido/apagado de una pantalla.
Un búfer de trama 572 puede almacenar valores de píxeles o valores de color de píxeles que se emitirán al visualizador.
Un compositor gráfico 570 puede generar una pantalla que incluya diversos objetos, como un elemento, una imagen, texto y/o similares.
Un administrador de ventanas 550 puede gestionar recursos de la GUI utilizados para una pantalla.
La aplicación 560 puede incluir aplicaciones que proporcionan, por ejemplo, una página de inicio, un marcador, un SMS/MMS, un mensaje instantáneo (IM), un navegador, una cámara, una alarma, un contacto, un marcado por voz, un correo electrónico, un calendario, un reproductor multimedia, un álbum, un reloj, atención médica (por ejemplo, que mide una cantidad de ejercicio, un nivel de azúcar en sangre o similares) e información ambiental (por ejemplo, información sobre la presión atmosférica, la humedad o la temperatura).
Al menos parte del módulo de programa puede implementarse (por ejemplo, ejecutarse) en software, firmware, hardware (por ejemplo, un procesador), o al menos dos combinaciones de los mismos, y puede incluir un módulo, un programa, una rutina, un conjunto de instrucciones o un proceso para realizar una o más funciones.
Con referencia a las FIGS. 3A y 5B, el convertidor de eventos de plegado 520 puede analizar datos en bruto del sensor 510 y puede calcular un estado de plegado. Por ejemplo, el convertidor de eventos de plegado 520 puede calcular un ángulo de plegado del dispositivo electrónico 301 comparando un ángulo formado entre el eje del primer sensor 345 y el suelo, que ha sido medido por el primer sensor 345 que incluye un sensor de giroscopio, con un ángulo formado entre el eje del segundo sensor 346 y el suelo que ha sido medido por el segundo sensor 346 que incluye un sensor de giroscopio.
Por ejemplo, cuando una distancia medida por el primer sensor 345 que incluye un sensor de distancia es idéntica a una distancia medida por el segundo sensor 346 que incluye un sensor de distancia, el convertidor de eventos de plegado 520 puede saber que el dispositivo electrónico 301 está plegado y el primer sensor 345 y el segundo sensor 346 están en un estado enfrentado entre sí, y puede calcular un ángulo de plegado del dispositivo electrónico 301, ya que una distancia entre el primer sensor 345 y el segundo sensor 346 corresponde a (o es proporcional a) el ángulo de plegado.
Un estado de plegado puede medirse directamente mediante un sensor de ángulo 511, o puede determinarse a través de un cálculo realizado por el convertidor de eventos de plegado 520. El estado de plegado puede expresarse mediante un ángulo en sí mismo, puede expresarse mediante un estado correspondiente a un rango de ángulos predeterminado, o puede expresarse mediante la tendencia de aumento/reducción del ángulo. El gestor de estado de plegado 522 puede entregar un estado/evento de plegado al manipulador de eventos 528, y el estado/evento de plegado puede ser procesado por el manipulador de eventos registrado 528. El manipulador de eventos 528 puede ser registrado por diversos módulos, como el sistema 565, la aplicación 560, un servicio en segundo plano y/o similares, y el manipulador de eventos registrado 528 puede procesar un estado/evento de plegado según una prioridad. Por ejemplo, una prioridad puede determinarse en orden del sistema 565, una aplicación visible (o activada), una aplicación que se está ejecutando, pero no es directamente visible para el usuario y un servicio en segundo plano que no tiene una UI visible. Por ejemplo, cuando un estado/evento de plegado no es procesado por un manipulador de eventos que tiene una prioridad alta, el estado/evento de plegado puede ser procesado por un manipulador de eventos que tiene la siguiente prioridad.
El procesamiento secuencial de un estado/evento de plegado puede tener un efecto que se describe a continuación.
Cuando el dispositivo electrónico está plegado, el sistema 565 puede visualizar una pantalla alfa o un dispositivo. Por ejemplo, la pantalla alfa puede estar implementada por una ventana que sea capaz de moverse libremente y visualice al menos un elemento de contenido/información de entre contenido multimedia, información personalizada por el usuario e información en tiempo real. Cuando se da una situación particular, como un modo horizontal, el sistema 565 puede no procesar un evento de plegado, y cuando el manipulador de eventos 528 que tiene la siguiente prioridad está registrado en una aplicación de vídeo, la aplicación de vídeo puede detener o iniciar la reproducción de un vídeo según un evento de plegado/desplegado.
Con referencia a la FIG. 5C, el administrador de estado de plegado 522 puede entregar directamente un estado/evento de plegado al sistema 565 o a la aplicación 560 sin pasar por el manipulador de eventos. Por ejemplo, el administrador de estado de plegado 522 puede determinar si se debe entregar un estado/evento de plegado y/o un sujeto al que se debe entregar el estado/evento de plegado, basándose en información de contexto del dispositivo electrónico que se ha adquirido del administrador de contexto 534.
Con referencia a las FIGS. 5D y 5E, una pantalla de un visualizador 580 puede dividirse en múltiples áreas, en particular sin utilizar un esquema para dividir virtualmente el visualizador 580 entre esquemas de división de pantalla. En dichas realizaciones, las coordenadas en el visualizador 580 que corresponden a un punto idéntico (por ejemplo, en una misma posición relativa en ambas particiones del visualizador) en las ventanas de aplicación 583 y 584 son diferentes, según las ubicaciones de las ventanas de aplicación 583 y 584. Por lo tanto, el administrador de ventanas 550 puede ajustar las ventanas de aplicación 583 y 584 de modo que correspondan a las áreas divididas.
Con referencia a las FIGS. 5F y 5G, cuando se ejecuta el esquema que divide el visualizador 580 en visualizadores virtuales 581 y 582, debido a que los múltiples visualizadores virtuales 581 y 582 corresponden uno por uno a múltiples ventanas de aplicación 583 y 584, y las coordenadas en los respectivos visualizadores de un punto idéntico en las ventanas de aplicación 583 y 584 son idénticas incluso cuando las ubicaciones de las ventanas de aplicación 583 y 584 son diferentes, el administrador de ventanas 550 puede ajustar los visualizadores virtuales 581 y 582 para que correspondan con las áreas divididas.
La FIG. 6A es una vista ilustrativa que explica la utilización de una relación para la división de pantalla en un dispositivo electrónico, según diversas realizaciones de la presente divulgación.
Con referencia a la FIG. 6A, en una realización de la presente divulgación, cuando el dispositivo electrónico es desplegado (por ejemplo, en un estado desplegado) (por ejemplo, el dispositivo electrónico 101, 201 o 401), una pantalla predeterminada (o una pantalla completa) 600 de un visualizador (por ejemplo, el visualizador 460) puede tener una relación de pantalla de 24:9. Se entiende que la relación descrita en el presente documento es a modo de ejemplo, y una relación de la pantalla predeterminada 600 puede cambiarse con o sin alteraciones en las dimensiones físicas de la pantalla. Además, se puede entender que una primera ventana 605 que ocupa toda el área del visualizador utiliza la relación de 24:9.
La pantalla predeterminada 600 se ilustra actualmente como una pantalla desplegada del visualizador, y puede cambiarse a la visualización de las pantallas 610, 620 y 630 que tienen varias relaciones de división en respuesta a un evento de división de pantalla.
Según una realización de la presente divulgación, en un estado de visualización de la pantalla predeterminada 600, la pantalla predeterminada 600 puede cambiarse a una primera pantalla 610 en la que se visualiza una segunda ventana 607 que tiene una relación de 8:9 en forma de superposición en la primera ventana 605 que tiene una relación de 24:9 en respuesta al tipo de evento relacionado con la división de pantalla. En este momento, en el caso de un modo partido que no es la forma de superposición, el tamaño de la primera ventana 615 puede reducirse a una relación de 16:9 y puede visualizarse la segunda pantalla 620 en la que la segunda ventana 617 que tiene una relación de 8:9 comparte una línea de límite común con la primera ventana 615. Por ejemplo, en el estado de visualización de la pantalla predeterminada 600, la segunda ventana (por ejemplo, una pantalla alfa) 607 visualizada en forma de superposición puede ser invocada en respuesta a una interacción de plegado, y la segunda ventana (por ejemplo, una pantalla alfa) 607 puede ocultarse en respuesta a una interacción de desplegado. Asimismo, en un estado en el que la segunda ventana (por ejemplo, una pantalla alfa) 607 se visualiza en forma de superposición, la segunda ventana fija (por ejemplo, una pantalla alfa) 617 puede visualizarse en respuesta a una entrada de alineación, que recorre una pantalla, como en el caso de la segunda pantalla 620. Por el contrario, la segunda ventana (por ejemplo, una pantalla alfa) 617 puede cancelarse en respuesta a una entrada de retorno, por ejemplo, una entrada de alineación que recorre una pantalla en una dirección opuesta, y el estado actual puede cambiarse al estado de visualización de la pantalla predeterminada 600.
Según una realización de la presente divulgación, en el estado de visualización de la pantalla predeterminada 600, la tercera pantalla en la que están dispuestas al menos dos ventanas 625 y 627, todas con una relación de 4:3, con una parte plegada del visualizador como referencia, se puede visualizar en respuesta al tipo de evento relacionado con la división de pantalla.
Según una realización de la presente divulgación, la conmutación de la pantalla predeterminada descrita anteriormente 600 a la primera pantalla 610 o la segunda pantalla 620, y la conmutación de la pantalla predeterminada descrita anteriormente 600 a la tercera pantalla 630 se puede lograr con un evento para división de pantalla como referencia. Los ejemplos del evento para la división de pantalla pueden incluir un cambio de un estado de plegado, una entrada (o una entrada táctil/flotante/de deslizamiento) que recorre al menos una parte en una dirección en el visualizador 460, una entrada que se mueve desde un primer extremo a lo largo de una dirección a lo ancho del visualizador 460 o una posición cercana al primer extremo hasta un segundo extremo ubicado en el lado opuesto del primer extremo o una posición cercana al segundo extremo, una entrada táctil en el caso en que una posición en la que se ha producido la entrada táctil sigue siendo tocada durante un período de tiempo predeterminado, un cambio en la fuerza del contacto táctil, una entrada de plegado/doblado/movimiento para plegar o doblar el dispositivo electrónico, una entrada de voz, la selección de un botón de software (o un botón de alternancia) que se visualiza en el visualizador 460, y/o similares.
Según una realización de la presente divulgación, cuando se detecta el evento descrito anteriormente, se pueden establecer al menos dos relaciones de pantalla que configuran el visualizador 460 en respuesta a la detección del evento. Por ejemplo, siempre que se selecciona un botón de alternancia que se visualiza en el visualizador 460, se pueden cambiar al menos dos relaciones de pantalla que configuran el visualizador 460.
Según una realización de la presente divulgación, cuando se detecta el evento descrito anteriormente, se puede lograr una conmutación entre la primera pantalla 610 o la segunda pantalla 620 y la tercera pantalla 630 en respuesta a la detección del evento.
Además, se puede lograr el retorno desde una de la primera pantalla 610 a la tercera pantalla 630 a la pantalla predeterminada 600 en respuesta a un evento para el retorno de pantalla. Aquí, los ejemplos del evento para el retorno de pantalla pueden incluir una entrada (o una entrada táctil/flotante/de deslizamiento) que recorre al menos una parte en una dirección opuesta a una dirección en el visualizador 460, una entrada que se mueve desde un segundo extremo ubicado en el lado opuesto de un primer extremo a lo largo de una dirección a lo ancho del visualizador 460 hasta el primer extremo o una posición cercana al primer extremo, una entrada de despliegue/movimiento para desplegar el dispositivo electrónico, una entrada de voz, la selección de un botón de software (o un botón de alternancia) que se visualiza en el visualizador 460, y/o similares.
La FIG. 6B es una vista que ilustra diversos estados de un dispositivo electrónico según diversas realizaciones de la presente divulgación.
El dispositivo electrónico flexible (por ejemplo, el dispositivo electrónico 101, 201 o 401) puede facilitar la implementación de diversos estados de plegado o despliegue, como se ilustra en la FIG. 6B. El dispositivo electrónico flexible puede implementar una disposición diversa de estados plegados y desplegados, como se ilustra en la misma. El estado plegado 600a ilustra el dispositivo electrónico que está completamente plegado, de modo que ambas partes extremas del dispositivo electrónico entran en contacto entre sí o se acercan lo más posible entre sí. Un estado desplegado 600b ilustra el dispositivo electrónico que está completamente desplegado. Un estado 600c ilustra un estado particular que incluye la visualización de una ventana para un esquema de superposición, cuando el dispositivo electrónico está doblado en un ángulo preestablecido o más con un eje como referencia. Además, un estado de reposo compacto se ilustra en 600d, en el que el dispositivo electrónico se encuentra parcialmente en posición vertical, por ejemplo, cuando está parcialmente plegado hacia adentro hacia el visualizador, aproximadamente en porciones de una mitad. Finalmente, en 600e se muestra un estado de reposo en arco en el que el dispositivo electrónico puede estar de pie, cuando está plegado de modo que se facilite la presentación de una orientación horizontal del visualizador. En el estado ilustrado en 600c, en el que se visualiza la ventana del esquema de superposición, y en el estado de reposo compacto ilustrado en 600d, en el que el dispositivo electrónico está vertical mientras está parcialmente plegado hacia adentro, se puede implementar una relación de plegado que se correlacione con el hecho de que el dispositivo electrónico está plegado por la mitad, con el eje medio del dispositivo electrónico utilizado como punto de referencia. Sin embargo, se entiende que las relaciones de plegado se pueden implementar de manera diferente, en las que otras partes del visualizador pueden servir como eje cuando el visualizador está plegado.
Como se ha descrito anteriormente, el dispositivo electrónico flexible puede plegarse o doblarse con un eje como referencia. En este caso, un eje puede ser preestablecido u "opcional" (por ejemplo, designado por el usuario). El eje preestablecido puede indicar o correlacionarse con un dispositivo en el que se implementa un área particular (por ejemplo, un área parcial que incluye el eje) del visualizador del dispositivo electrónico flexible con la capacidad de plegarse o doblarse de otro modo. Por el contrario, el eje "opcional" puede indicar que toda el área (o longitud) del visualizador del dispositivo electrónico flexible tiene la capacidad de plegarse o doblarse. En la FIG. 6B, el dispositivo electrónico se ilustra como plegado a lo largo de un eje que pasa por el centro del dispositivo electrónico como referencia. Dicho esto, debe entenderse que la ubicación de este eje de plegado no está limitada a las realizaciones de ejemplo que se muestran en la FIG. 6B.
Las FIGS. 7A a 7E son vistas que ilustran un método de operación de un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Con referencia a la FIG. 7C, el dispositivo electrónico (por ejemplo, el dispositivo electrónico 101, 201 o 401) puede detectar una entrada de usuario preestablecida mientras está plegado (por ejemplo, en un estado plegado). Por ejemplo, la entrada de usuario puede incluir detectar golpes (o toques) en el subvisualizador 162 una vez o un número preestablecido de golpes o toques, hacer clic en el botón de encendido/bloqueo una vez o un número preestablecido de clics y/o un comando de voz.
En un estado en el que el dispositivo electrónico está desplegado inmediatamente antes de plegarse, el dispositivo electrónico detecta una entrada del usuario que selecciona una aplicación de cámara o inicia la captura de un vídeo. Por lo tanto, haciendo referencia a la FIG. 7A, el dispositivo electrónico detecta una entrada del usuario que selecciona una aplicación de cámara o la captura de un vídeo. Haciendo referencia a la FIG. 7B, el dispositivo electrónico inicia la captura de un vídeo en respuesta a una entrada del usuario.
Cuando el dispositivo electrónico se pliega mientras se ejecuta la aplicación de la cámara o la captura del vídeo, el dispositivo electrónico puede esperar (por ejemplo, escuchar) una entrada de usuario preestablecida mientras simultáneamente apaga una pantalla y/o detiene la captura de un vídeo.
Como se ilustra en la FIG. 7C, cuando se detecta la entrada de usuario predeterminada mientras el dispositivo está plegado, el dispositivo electrónico inicia la captura de un vídeo mientras está plegado. Por ejemplo, en respuesta a la entrada de usuario, el dispositivo electrónico puede ejecutar la aplicación de cámara para capturar el vídeo, o puede reanudar la captura de vídeo que se había pausado previamente o detenido de otra manera. Por lo tanto, un usuario puede capturar un vídeo cuando el dispositivo está plegado, utilizando el dispositivo electrónico en una forma "sujeta", como en la FIG. 7D. Como se ilustra en la misma, esto permite sujetar el dispositivo al usuario (por ejemplo, mediante un bolsillo o una correa, y/o similar), lo que permite que el dispositivo funcione como una "cámara de acción", como se ilustra en la FIG. 7D.
Haciendo referencia a la FIG. 7E, cuando el dispositivo electrónico detecta la entrada de usuario preestablecida o una entrada de usuario de otro tipo, el dispositivo electrónico puede detener la captura del vídeo.
La FIG. 8 es una vista que ilustra un método para proporcionar una relación de pantalla mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Con referencia a la FIG. 8A, el dispositivo electrónico (por ejemplo, el dispositivo electrónico 101, 201 o 401) puede visualizar una imagen original con una relación de pantalla predeterminada de 4:3 en el visualizador (por ejemplo, el visualizador 460). Con referencia a la FIG. 8B, el dispositivo electrónico puede visualizar una imagen, que se implementa recortando la imagen original con una relación de pantalla de 21:9 en el visualizador. Con referencia a la FIG. 8C, el dispositivo electrónico puede visualizar una imagen, que se implementa recortando la imagen original, con una relación de pantalla de 24:9 en el visualizador. Con referencia a la FIG. 8D, el dispositivo electrónico puede visualizar una imagen con la relación de pantalla predeterminada y puede facilitar que el usuario sostenga el dispositivo electrónico proporcionando un espacio dejado en los lados izquierdo y derecho de la imagen, en el que no se visualiza ninguna imagen.
Las FIGS. 9A a 9C son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Con referencia a la FIG. 9A, una división de pantalla puede facilitar la edición de imágenes. Como se ilustra en la misma, un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico 901 (por ejemplo, el dispositivo electrónico 101, 201 o 401) configura automáticamente una primera área 912 y una segunda área 914 en al menos un área parcial (o una pantalla completa) del visualizador 906 del dispositivo electrónico 901, en respuesta a una entrada (por ejemplo, una entrada de deslizamiento que recorre al menos parcialmente una pantalla) que solicita la ejecución de la división de pantalla. El procesador visualiza un primer elemento gráfico 920 (por ejemplo, una pantalla/interfaz gráfica de una aplicación de cámara), que incluye una imagen de vista previa, en la primera área 912, y puede visualizar un segundo elemento gráfico 930, que incluye al menos una imagen de vista previa a la que se aplica un efecto especial (por ejemplo, un efecto de brillo, un efecto de un solo color, un efecto de tono, un efecto de saturación y/o similares), en la segunda área 914.
Con referencia a la FIG. 9B, el procesador visualiza automáticamente el primer elemento gráfico 920 en la primera área 912 en respuesta a una entrada (por ejemplo, una entrada de deslizamiento que recorre al menos parcialmente una pantalla) que solicita la división de la pantalla, y puede visualizar un segundo elemento gráfico 940, que incluye imágenes capturadas (o iconos) almacenadas en la memoria del dispositivo en la segunda área 914.
Con referencia a la FIG. 9C, la división de pantalla puede facilitar las opciones de captura de imágenes o vídeos. Por ejemplo, el procesador visualiza automáticamente el primer elemento gráfico 920 (por ejemplo, una vista previa para la captura de imágenes) en la primera área 912 en respuesta a una entrada (por ejemplo, una entrada de deslizamiento que recorre al menos parcialmente una pantalla) que solicita la división de pantalla, y puede visualizar un segundo elemento gráfico 950, que incluye múltiples objetos seleccionables para establecer varios atributos configurables de la aplicación de cámara, en la segunda área 914, y recibir entradas a estos atributos que alteran la forma en que se capturará una imagen o un vídeo.
Las FIGS. 10A a 10E son vistas que explican cada una un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Con referencia a la FIG. 10A, un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico 1001 (por ejemplo, el dispositivo electrónico 101, 201 o 401) puede visualizar un primer elemento gráfico 1020 (por ejemplo, una pantalla/interfaz gráfica de una aplicación de mensajes/servicio de redes sociales (SNS)), que está relacionado con una primera aplicación (por ejemplo, la aplicación de mensajes/SNS), en al menos un área parcial (o una pantalla completa) de un visualizador 1006 del dispositivo electrónico 1001.
Con referencia a las FIGS. 10B y 10C, el procesador puede configurar una primera área 1012 y una segunda área 1014 en al menos un área parcial en respuesta a una entrada táctil 1050 que recorre el visualizador 1006 al menos parcialmente en una primera dirección (por ejemplo, un movimiento " de deslizamiento" o "deslizante"). En respuesta, el procesador puede reducir y visualizar el primer elemento gráfico 1020 en la primera área 1012. Mediante la reducción del primer elemento gráfico 1020, el procesador puede visualizar un segundo elemento gráfico 1030 (por ejemplo, una pantalla/interfaz gráfica de una aplicación de cámara), que puede estar relacionado con una segunda aplicación (por ejemplo, la aplicación de cámara), en la segunda área 1014. Con referencia a la FIG. 10D, el procesador puede visualizar un elemento gráfico 1032, que incluye las imágenes capturadas (o iconos) almacenadas en una memoria en la segunda área 1014 en respuesta a una entrada (por ejemplo, la selección de un botón de captura de imágenes de una aplicación de cámara) que selecciona la captura de imágenes. En respuesta a una segunda entrada que selecciona al menos un objeto 1034 (por ejemplo, un icono, una imagen y/o similares) del elemento gráfico 1032 (o lo arrastra, como se muestra en la FIG. 10D), el procesador puede transmitir al menos un archivo, imagen o documento correspondiente a o representado de otro modo por el al menos un objeto 1034, a un dispositivo electrónico externo a través de una interfaz de comunicación (por ejemplo, la interfaz de comunicación 470) que está conectada funcionalmente al dispositivo electrónico 1001.
Con referencia a la FIG. 10E, el procesador puede visualizar el al menos un objeto 1034 en el primer elemento gráfico 1020 como se ve en la misma. Por ejemplo, el procesador puede visualizar un icono (por ejemplo, una miniatura o una imagen reducida), que corresponde a la imagen transmitida, en una ventana de chat de una aplicación de mensajes/SNS.
Las FIGS. 11A a 11E son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación, particularmente para recomendar diversa información relacionada con una ubicación detectada actualmente.
Con referencia a la FIG. 11A, un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico 1101 (por ejemplo, el dispositivo electrónico 101, 201 o 401) puede visualizar un primer elemento gráfico 1120 (por ejemplo, una pantalla/interfaz gráfica de una aplicación de cámara), que está relacionado con una primera aplicación (por ejemplo, la aplicación de cámara), en al menos un área parcial (o una pantalla completa) de un visualizador 1106 del dispositivo electrónico 1101.
El procesador puede buscar en una memoria (por ejemplo, la memoria 430) o en un servidor (por ejemplo, el servidor 406) información de recomendación relacionada con una ubicación actual, y puede visualizar un indicador 1115, que indica la existencia de una recomendación basada en la ubicación, de acuerdo con un resultado de la búsqueda.
Con referencia a la FIG. 11B, el procesador puede configurar una primera área 1111 y una segunda área 1114 en el área al menos parcial (o una pantalla completa) en respuesta a una entrada que selecciona el indicador 1115. El procesador puede reducir y visualizar el primer elemento gráfico 1120 en la primera área 1111. El procesador puede visualizar un segundo elemento gráfico 1130 (por ejemplo, una lista de imágenes/iconos), que incluye múltiples objetos 1132 recomendados en relación con la ubicación actual, en la segunda área 1114. Por ejemplo, el procesador puede visualizar imágenes (o iconos de las imágenes) que se han obtenido mediante la captura de imágenes de un sujeto 1122 que se va a capturar en una imagen de vista previa incluida en el primer elemento gráfico 1120, en la segunda área 1114. El procesador puede realizar una búsqueda basándose en al menos un elemento de información de entre la información de la ubicación actual y la información de la imagen de vista previa. El procesador puede determinar imágenes que se van a recomendar o prioridades de las imágenes basándose en al menos uno de la captura de imágenes cerca de la ubicación actual, el número de referencias/recomendaciones, la precisión de la coincidencia con el sujeto 1122 que se va a capturar y la existencia de un valor de ajuste de captura de imágenes.
Con referencia a la FIG. 11C, el procesador puede visualizar un elemento gráfico 1134 (por ejemplo, al menos un valor de ajuste de captura de imágenes de una imagen relevante, y/o similares), correspondiente a un objeto 1132 (por ejemplo, una imagen o un icono) del segundo elemento gráfico 1130, en la segunda área 1114 en respuesta a una entrada que selecciona el objeto 1132. Por ejemplo, el elemento gráfico 1134 puede incluir al menos un valor de ajuste de captura de imágenes de entre la Organización Internacional de Normalización (ISO), un número de F, una velocidad de obturación, información de balance de blancos (WB) y una distancia focal. Con referencia a la FIG. 11D, el procesador puede aplicar al menos un valor de ajuste del elemento gráfico 1134 a la primera aplicación en respuesta a una entrada 1162 (por ejemplo, una entrada de deslizamiento dirigida al primer elemento gráfico 1120 desde el elemento gráfico 1134) relacionada con el elemento gráfico 1134. Por ejemplo, el procesador puede controlar una aplicación de cámara para cambiar al menos un valor de ajuste de la aplicación de cámara a al menos un valor de ajuste del elemento gráfico seleccionado 1134 o la imagen seleccionada.
Según una realización de la presente divulgación, el procesador puede emitir información para guiar a un lugar de captura de imagen de la imagen relevante (por ejemplo, el elemento gráfico seleccionado 1134 o la imagen seleccionada), o puede emitir una alarma/notificación cuando la ubicación actual coincide con o está cerca del lugar de captura de imagen.
Con referencia a la FIG. 11E, en respuesta a una entrada que selecciona el objeto 1132 (por ejemplo, una imagen o un icono) del segundo elemento gráfico 1130, el procesador puede visualizar un elemento gráfico 1136, que incluye un lugar de captura de imagen 1172 del objeto seleccionado 1132 o la imagen relevante, una ubicación actual 1174 y una ruta 1176 para desplazarse al lugar de captura de imagen, en la segunda área 1114. El elemento gráfico 1136 puede incluir un mapa 1170 o una pantalla/interfaz gráfica de una aplicación de mapas. Por ejemplo, cuando la ubicación actual coincide con el lugar de captura de la imagen o está cerca del lugar de captura de imagen dentro de un rango de distancia preestablecido, el procesador puede emitir una alarma/notificación, o puede controlar una primera aplicación para activar la primera aplicación.
Las FIGS. 12A, 12B, 13A y 13B son vistas que ilustran métodos de captura de imágenes según diversos estados de un dispositivo electrónico según diversas realizaciones de la presente divulgación.
En el caso de la captura de una autoimagen (por ejemplo, la captura de un "selfi"), el dispositivo electrónico (por ejemplo, el dispositivo electrónico 101, 201 o 401) puede conmutarse de un estado en el que el dispositivo electrónico está completamente desplegado, como se ilustra en la FIG. 12A, a un estado de reposo compacto en el que el dispositivo electrónico está plegado hacia dentro por la mitad (por ejemplo, plegado de modo que las pantallas se acerquen entre sí), como se ilustra en la FIG. 12B, lo que puede facilitar que un usuario capture una imagen de "selfi" en un estado de manos libres. Es decir, el dispositivo puede colocarse sobre una superficie alejada del usuario, pero de frente al usuario y a cualquier otro sujeto de la imagen. Por ejemplo, el usuario puede ejecutar la captura de imágenes utilizando una función de captura de imágenes con temporizador (por ejemplo, mediante la selección de un menú o elemento visualizado) y/o una entrada de usuario utilizable a distancia (por ejemplo, un comando de voz detectado por un micrófono, la visualización de un gesto preestablecido detectado por una cámara y/o similares).
En el caso de captura de imágenes "we-fie" (por ejemplo, un selfi pero que incluye una pluralidad de personas), el dispositivo electrónico (por ejemplo, el dispositivo electrónico 101, 201 o 401) se conmuta de un estado en el que el dispositivo electrónico está completamente desplegado como se ilustra en la FIG. 13A a un estado de reposo "en arco", en el que el dispositivo electrónico está plegado en un modo horizontal como se ilustra en la FIG. 13B y, por lo tanto, puede permitir capturar imágenes de más personas.
La FIG. 14 es un diagrama de flujo que ilustra un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación. El método de provisión de imágenes puede incluir las operaciones 1410 a 1440. En adelante, aunque el método de control de visualizador se describe como realizado por el dispositivo electrónico (por ejemplo, el dispositivo electrónico 101, 201 o 401), el método de control de visualizador puede ser realizado por un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico o por un controlador del dispositivo electrónico.
En la operación 1410, el dispositivo electrónico puede configurar una primera área y una segunda área en un visualizador (por ejemplo, el visualizador 460) que está conectado funcionalmente al dispositivo electrónico. Por ejemplo, el dispositivo electrónico puede dividir al menos parte de un área de visualización completa (o una pantalla completa) del visualizador en múltiples áreas (por ejemplo, una primera área y una segunda área). En una realización de la presente divulgación, el dispositivo electrónico puede detectar al menos una de una entrada (o una entrada táctil/flotante/de deslizamiento) que recorre al menos parcialmente el visualizador, una entrada que se mueve desde un primer extremo a lo largo de una dirección a lo ancho del visualizador o una posición cercana al primer extremo hasta un segundo extremo ubicado en el lado opuesto del primer extremo o una posición cercana al segundo extremo, una entrada de plegado/doblado/movimiento para plegar o doblar el dispositivo electrónico, y una entrada de voz. El dispositivo electrónico puede configurar una primera área y una segunda área en el visualizador en respuesta a la entrada. Por ejemplo, al menos parte de un área de visualización completa (o una pantalla completa) del visualizador puede dividirse en múltiples áreas (por ejemplo, una primera área y una segunda área) en una dirección longitudinal. Por ejemplo, el dispositivo electrónico puede dividir toda el área de visualización (o la pantalla completa) del visualizador en una primera área y una segunda área en la dirección longitudinal en respuesta a la entrada.
En la operación 1420, el dispositivo electrónico puede visualizar un primer elemento gráfico, que está relacionado con una primera aplicación, en la primera área del visualizador. Por ejemplo, el dispositivo electrónico puede visualizar una pantalla generada por la primera aplicación o por la ejecución de la primera aplicación, una pantalla/interfaz gráfica de la primera aplicación, o una imagen/documento/texto/imagen en movimiento reproducida/visualizada por la primera aplicación, como el primer elemento gráfico en la primera área.
En la operación 1430, el dispositivo electrónico puede visualizar un segundo elemento gráfico, que está relacionado con el control sobre la primera aplicación, en la segunda área del visualizador. Por ejemplo, el dispositivo electrónico puede visualizar una pantalla generada por la primera aplicación o una segunda aplicación o por la ejecución de la misma, una pantalla/interfaz gráfica de la primera o segunda aplicación, o una imagen/documento/texto/imagen en movimiento reproducida/visualizada por la primera o segunda aplicación, como el segundo elemento gráfico en la segunda área. Por ejemplo, los elementos gráficos primero y segundo pueden ser idénticos o diferentes.
En una realización de la presente divulgación, el dispositivo electrónico puede visualizar una interfaz gráfica, que incluye múltiples objetos correspondientes a múltiples imágenes, como el segundo elemento gráfico en la segunda área. Por ejemplo, la interfaz gráfica puede corresponder a una lista de iconos.
En una realización de la presente divulgación, el dispositivo electrónico puede visualizar una interfaz gráfica, que incluye al menos un objeto seleccionable para establecer al menos un atributo del primer elemento gráfico, como el segundo elemento gráfico en la segunda área. Por ejemplo, el atributo puede incluir al menos uno del color, tamaño y figura/forma/fuente del texto/imagen.
En la operación 1440, el dispositivo electrónico puede controlar la primera aplicación en respuesta a una entrada relacionada con el segundo elemento gráfico.
En una realización de la presente divulgación, el dispositivo electrónico puede detectar una entrada que selecciona uno de múltiples objetos que corresponden a múltiples imágenes y están incluidos en una interfaz gráfica correspondiente al segundo elemento gráfico. El dispositivo electrónico puede controlar la primera aplicación para visualizar una imagen o una página web, que corresponde al objeto seleccionado, en la primera área en respuesta a la entrada.
En una realización de la presente divulgación, el dispositivo electrónico puede detectar una entrada que selecciona uno de múltiples objetos seleccionables para establecer múltiples atributos del primer elemento gráfico o primera aplicación que están incluidos en una interfaz gráfica correspondiente al segundo elemento gráfico. El dispositivo electrónico puede controlar la primera aplicación para cambiar el atributo del primer elemento gráfico o primera aplicación, que corresponde al objeto seleccionado, en respuesta a la entrada. En una realización de la presente divulgación, el dispositivo electrónico puede detectar una entrada para cambiar una parte de un documento correspondiente al segundo elemento gráfico. El dispositivo electrónico puede controlar la primera aplicación para visualizar la parte modificada del documento en cada una de las áreas primera y segunda en respuesta a la entrada.
En una realización de la presente divulgación, el dispositivo electrónico puede detectar una entrada que selecciona uno de los múltiples objetos incluidos en el segundo elemento gráfico. El dispositivo electrónico puede controlar la primera aplicación para transmitir un archivo o una imagen correspondiente al objeto seleccionado a un dispositivo externo a través de una interfaz de comunicación (por ejemplo, la interfaz de comunicación 470), que está conectada funcionalmente al dispositivo electrónico, en respuesta a la entrada.
En una realización de la presente divulgación, el dispositivo electrónico puede detectar una entrada relacionada con una interfaz gráfica de la segunda aplicación correspondiente al segundo elemento gráfico. El dispositivo electrónico puede controlar la primera aplicación para transmitir al menos parte de la interfaz gráfica de la segunda aplicación o la entrada (por ejemplo, una entrada de escritura manual) (o al menos parte de la interfaz gráfica de la segunda aplicación que incluye la entrada de escritura manual) a un dispositivo externo a través de la interfaz de comunicación en respuesta a la entrada.
En una realización de la presente divulgación, el dispositivo electrónico puede recibir una entrada (por ejemplo, una entrada de escritura manual) relacionada con la interfaz gráfica de la segunda aplicación desde un dispositivo externo a través de la primera aplicación. El dispositivo electrónico puede visualizar la entrada en la interfaz gráfica de la segunda aplicación en respuesta a la entrada.
En una realización de la presente divulgación, el dispositivo electrónico puede detectar una entrada que selecciona una imagen que está relacionada con una ubicación actual y está incluida en la interfaz gráfica correspondiente al segundo elemento gráfico. El dispositivo electrónico puede controlar la primera aplicación para cambiar al menos un valor de ajuste de la primera aplicación a al menos un valor de ajuste de la imagen seleccionada en respuesta a la entrada. Alternativamente, el dispositivo electrónico puede controlar la primera aplicación para emitir información, que está relacionada con un lugar de captura de imagen de la imagen seleccionada, a través de una interfaz de entrada/salida (por ejemplo, la interfaz de entrada/salida 450) o el visualizador en respuesta a la entrada.
La FIG. 15 es un diagrama de flujo que ilustra un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación. El método de provisión de imágenes puede incluir las operaciones 1510 a 1550. En adelante, aunque el método de control de visualizador se describe como realizado por el dispositivo electrónico (por ejemplo, el dispositivo electrónico 101, 201 o 401), el método de control de visualizador puede ser realizado por un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico o por un controlador del dispositivo electrónico. Las operaciones 1520 a 1550 son similares a las operaciones 1410 a 1440 ilustradas en la FIG. 14, respectivamente y, por lo tanto, se omitirá una descripción repetida de las mismas.
En la operación 1510, el dispositivo electrónico puede visualizar uno de un primer elemento gráfico relacionado con una primera aplicación y un segundo elemento gráfico relacionado con el control sobre la primera aplicación, en al menos un área parcial (o una pantalla completa) de un visualizador (por ejemplo, el visualizador 160 o 460) que está conectado funcionalmente al dispositivo electrónico.
En la operación 1520, el dispositivo electrónico puede configurar una primera área y una segunda área en al menos un área parcial del visualizador en respuesta a una primera entrada. Por ejemplo, el dispositivo electrónico puede dividir la al menos un área parcial en una primera área y una segunda área. Por ejemplo, la primera entrada puede ser al menos una de una entrada táctil, una entrada (o una entrada táctil/flotante/de deslizamiento) que recorre al menos parcialmente el visualizador, una entrada de plegado/doblado/movimiento para plegar o doblar el dispositivo electrónico y una entrada de voz.
En la operación 1530, el dispositivo electrónico puede visualizar el primer elemento gráfico en la primera área. En la operación 1540, el dispositivo electrónico puede visualizar el segundo elemento gráfico en la segunda área. En la operación 1550, el dispositivo electrónico puede controlar la primera aplicación en respuesta a una segunda entrada relacionada con el segundo elemento gráfico. Por ejemplo, la segunda entrada puede ser una entrada táctil que selecciona un objeto incluido en el segundo elemento gráfico. Por ejemplo, el dispositivo electrónico puede controlar la primera aplicación para visualizar un elemento gráfico/imagen/documento/página, que corresponde a la segunda entrada, en la primera área. Por ejemplo, el dispositivo electrónico puede controlar la primera aplicación para cambiar un atributo del primer elemento gráfico de acuerdo con la segunda entrada. Las FIGS. 16A a 16D son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Cuando un usuario comparte un documento, una fotografía, una imagen en movimiento y/o similar con otra persona, el usuario puede visualizar una pantalla 1606 para distinguir un área compartida con otra persona de un área (es decir, un área no compartida) para controlar el área compartida, a través de una operación de plegado del dispositivo electrónico 1601 (por ejemplo, el dispositivo electrónico 101, 201 o 401).
Con referencia a la FIG. 16A, un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico 1601 puede visualizar un segundo elemento gráfico 1630 (por ejemplo, un archivo, un documento o una ventana de búsqueda de páginas dentro del documento, una lista de imágenes/iconos y/o similares) relacionado con el control de una primera aplicación (por ejemplo, una aplicación de procesamiento de textos o una aplicación de presentación), en al menos un área parcial (o una pantalla completa) del visualizador 1606 del dispositivo electrónico 1601.
Con referencia a la FIG. 16B, el procesador puede configurar una primera área 1612 y una segunda área 1614 en al menos el área parcial en respuesta a una entrada correspondiente a o que incluye plegar el dispositivo electrónico 1601. El procesador puede visualizar, en la primera área 1612, un primer elemento gráfico 1620 (por ejemplo, un primer documento o una primera página dentro del primer documento), que corresponde a un primer objeto 1632 (por ejemplo, un primer icono) incluido en el segundo elemento gráfico 1630, de acuerdo con una selección de usuario o una configuración automática/predeterminada que está relacionada con la primera aplicación. El procesador puede reducir y visualizar el segundo elemento gráfico 1630 en la segunda área 1614. Con referencia a la FIG. 16C, el procesador puede visualizar un elemento gráfico 1622 (por ejemplo, un segundo documento o una segunda página dentro del segundo documento), que corresponde a un segundo objeto 1634 (por ejemplo, un segundo icono) del segundo elemento gráfico 1630, en la primera área 1612 en respuesta a una segunda entrada que selecciona el segundo objeto 1634. Por ejemplo, el procesador puede visualizar, en la segunda área 1614, una interfaz gráfica 1640 que incluye al menos un objeto seleccionable para establecer al menos un atributo del elemento gráfico 1622 o al menos un objeto 1624 incluido en el elemento gráfico 1622. Por ejemplo, cuando se selecciona un objeto 1642 para cambio de color incluido en la interfaz gráfica 1640, el procesador puede cambiar el color del objeto 1624 incluido en el elemento gráfico 1622.
En una realización de la presente divulgación, el procesador puede visualizar la interfaz gráfica 1640 junto con el primer elemento gráfico 1620 en lugar del segundo elemento gráfico 1630 ilustrado en la FIG. 16B.
Con referencia a la FIG. 16D, el procesador puede proyectar el elemento gráfico 1622 hacia el exterior del dispositivo electrónico 1601 a través de un proyector acoplado funcionalmente con o integrado en el dispositivo electrónico 1601. El procesador puede detectar una entrada para controlar la primera aplicación a través de la interfaz gráfica 1640 mientras proyecta el elemento gráfico 1622. El procesador puede controlar la primera aplicación en respuesta a la entrada.
La FIG. 17 es un diagrama de flujo que ilustra un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación. El método de provisión de imágenes puede incluir las operaciones 1710 a 1760. En adelante, aunque el método de control de visualizador se describe como realizado por el dispositivo electrónico (por ejemplo, el dispositivo electrónico 101, 201 o 401), el método de control de visualizador puede ser realizado por un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico o por un controlador del dispositivo electrónico. Las operaciones 1710 a 1750 son similares a las operaciones 1510 a 1550 ilustradas en la FIG. 15, respectivamente y, por lo tanto, se omitirá una descripción repetida de las mismas.
En la operación 1710, el dispositivo electrónico puede visualizar uno de un primer elemento gráfico relacionado con una primera aplicación y un segundo elemento gráfico relacionado con el control sobre la primera aplicación en al menos un área parcial (o una pantalla completa) de un visualizador (por ejemplo, el visualizador 160 o 460) que está conectado funcionalmente al dispositivo electrónico.
En la operación 1720, el dispositivo electrónico puede configurar una primera área y una segunda área en al menos un área parcial del visualizador en respuesta a una primera entrada. Por ejemplo, el dispositivo electrónico puede dividir al menos el área parcial en una primera área y una segunda área. Por ejemplo, la primera entrada puede ser al menos una de una entrada táctil, una entrada (o una entrada táctil/flotante/de deslizamiento) que recorre al menos parcialmente el visualizador en una primera dirección, una entrada de plegado/doblado/movimiento para plegar o doblar el dispositivo electrónico y una entrada de voz.
En la operación 1730, el dispositivo electrónico puede visualizar el primer elemento gráfico en la primera área. En la operación 1740, el dispositivo electrónico puede visualizar el segundo elemento gráfico en la segunda área. En la operación 1750, el dispositivo electrónico puede controlar la primera aplicación en respuesta a una segunda entrada relacionada con el segundo elemento gráfico. Por ejemplo, la segunda entrada puede ser una entrada táctil que selecciona un objeto incluido en el segundo elemento gráfico. Por ejemplo, el dispositivo electrónico puede controlar la primera aplicación para visualizar un elemento gráfico/imagen/documento/página, que corresponde al objeto, en la primera área mientras se mantiene el segundo elemento gráfico tal como está. Por ejemplo, el dispositivo electrónico puede controlar la primera aplicación para visualizar una parte modificada de un documento en cada uno del primer elemento gráfico y el segundo elemento gráfico (o cada una de la primera área y la segunda área) en respuesta a una entrada para modificar una parte del documento.
En la operación 1760, el dispositivo electrónico puede controlar la primera aplicación para expandir y visualizar uno de los elementos gráficos primero y segundo en un área obtenida mediante la suma de las áreas primera y segunda juntas o en al menos un área parcial (o una pantalla completa) del visualizador en respuesta a una tercera entrada. Por ejemplo, la tercera entrada puede ser al menos una de una entrada táctil que tiene una dirección/patrón/trayectoria opuesta a la primera entrada, una entrada (o una entrada táctil/flotante/de deslizamiento) que recorre al menos parcialmente el visualizador en una segunda dirección opuesta a la primera dirección, una entrada de despliegue/movimiento para desplegar el dispositivo electrónico y una entrada de voz. En una realización de la presente divulgación, el dispositivo electrónico puede recibir una tercera entrada relacionada con el segundo elemento gráfico desde un dispositivo electrónico externo a través de la primera aplicación. El dispositivo electrónico puede visualizar la tercera entrada en el segundo elemento gráfico.
Las FIGS. 18A a 18F son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Con referencia a la FIG. 18A, un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico 1801 (por ejemplo, el dispositivo electrónico 101, 201 o 401) puede visualizar un primer elemento gráfico 1820 (por ejemplo, un documento web/página web), que está relacionado con la primera aplicación (por ejemplo, un navegador web), en al menos un área parcial (o una pantalla completa) de un visualizador 1806 del dispositivo electrónico 1801.
Con referencia a la FIG. 18B, el procesador puede configurar una primera área 1812 y una segunda área 1814 en el área al menos parcial en respuesta a una entrada táctil 1850 (representada en la FIG. 18A) que recorre al menos parcialmente el visualizador 1806 en una primera dirección. Por ejemplo, las áreas primera y segunda 1812 y 1814 pueden estar divididas por una línea de límite 1855, que puede graduarse adicionalmente hacia arriba o hacia abajo para modificar el espacio de pantalla asignado a cada pantalla de visualización. El procesador puede visualizar un primer elemento gráfico 1820 y un segundo elemento gráfico 1830, ambos correspondientes a un primer documento web/página web idénticos, en cada una de las áreas primera y segunda 1812 y 1814, respectivamente.
Con referencia a la FIG. 18C, en respuesta a una entrada que selecciona un primer objeto 1832 (por ejemplo, un primer hipervínculo) del segundo elemento gráfico 1830, el procesador puede visualizar un elemento gráfico 1822 (por ejemplo, un segundo documento web/página web), correspondiente al primer objeto 1832 en la primera área 1812, mientras que simultáneamente mantiene el segundo elemento gráfico 1830 tal como está.
Con referencia a la FIG. 18D, en respuesta a una entrada que selecciona un segundo objeto 1834 (por ejemplo, un segundo hipervínculo) del segundo elemento gráfico 1830, el procesador puede visualizar un elemento gráfico 1824 (por ejemplo, un tercer documento web/página web), correspondiente al segundo objeto 1834, en la primera área 1812 mientras mantiene el segundo elemento gráfico 1830 tal como está.
Con referencia a la FIG. 18E, en respuesta a una entrada táctil 1852 que recorre al menos parcialmente el visualizador 1806 en una segunda dirección opuesta a la primera dirección (como se representa en la FIG. 18D), el procesador puede expandir y visualizar un elemento gráfico actualmente activado 1824 en un área generada mediante la recombinación de las áreas primera y segunda 1812 y 1814 en lo que puede ser al menos un área parcial o una pantalla completa del visualizador 1806.
En una realización de la presente divulgación, la primera aplicación puede corresponder a una aplicación de edición de documentos, y los elementos gráficos primero y segundo pueden corresponder ambos a un documento editable idéntico.
Con referencia a la FIG. 18F, el procesador puede visualizar un primer elemento gráfico 1820a y un segundo elemento gráfico 1830a, que corresponden ambos a un documento editable idéntico, en la primera área 1812 y la segunda área 1814, respectivamente. Por ejemplo, las áreas primera y segunda 1812 y 1814 pueden estar divididas por una línea de límite 1855 capaz de moverse hacia arriba o hacia abajo. El procesador puede controlar la primera aplicación para visualizar la parte modificada 1832a del documento en cada uno de los elementos gráficos primero y segundo 1820a y 1830a (o cada una de las áreas primera y segunda 1812 y 1814), en respuesta a una entrada (por ejemplo, un cambio de atributos de texto, como un subrayado, un cambio de color y/o similares) para cambiar una parte del documento. Por ejemplo, en respuesta a una entrada de usuario para el primer elemento gráfico 1820a, el procesador puede subrayar una "World Wide Web", parte 1832a del primer elemento gráfico 1820a y, simultáneamente, puede subrayar una parte idéntica (es decir, "World Wide Web") del segundo elemento gráfico 1830a. El procesador puede hacer desfilar selectivamente uno de los elementos gráficos primero y segundo 1820a y 1830a en respuesta a una entrada de usuario. Por ejemplo, en respuesta a una entrada de usuario para el primer elemento gráfico 1820a, el procesador puede hacer desfilar el primer elemento gráfico 1820a hacia arriba o hacia abajo, mientras mantiene simultáneamente el estado actual del segundo elemento gráfico 1830a tal como está (por ejemplo, sin desplazamiento).
Las FIGS. 19A a 19G son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Cuando un usuario está entablando una conversación con otra persona (es decir, en el caso de una videollamada), el dispositivo electrónico 1901 (por ejemplo, el dispositivo electrónico 101, 201 o 401) puede visualizar una pantalla de un visualizador 1906 para distinguir un área (es decir, transmitida a otra persona) compartida con la otra persona de un área que visualiza una imagen recibida de la otra persona. Por ejemplo, el dispositivo electrónico 1901 puede visualizar una imagen capturada o una secuencia de vídeo del usuario en el área compartida y, simultáneamente, puede transmitir la imagen capturada o la secuencia de vídeo a otra persona en tiempo real.
Con referencia a la FIG. 19A, un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico 1901 puede configurar una primera área 1912 y una segunda área 1914 para visualización, utilizando la combinación de las dos áreas al menos un área parcial (o pantalla completa, como se representa) del visualizador 1906 del dispositivo electrónico 1901. El procesador puede visualizar, en la primera área 1912, un primer elemento gráfico 1920 (por ejemplo, una imagen o secuencia de vídeo recibida desde un dispositivo electrónico externo) relacionado con una primera aplicación (por ejemplo, una aplicación de teléfono/llamada, una aplicación de llamada de voz/vídeo, una aplicación de conferencia de voz/imagen/vídeo y/o similares), y puede visualizar un segundo elemento gráfico 1930 relacionado con la primera aplicación en la segunda área 1914.
Con referencia a la FIG. 19B, en respuesta a la detección de una primera entrada, el procesador puede visualizar un elemento gráfico 1940 (por ejemplo, un archivo, un documento o una ventana de búsqueda de páginas dentro del documento, una lista de imágenes/iconos y/o similares) que incluye múltiples objetos seleccionables en la segunda área 1914.
Con referencia a la FIG. 19C, en respuesta a una segunda entrada que selecciona al menos un objeto 1942 (por ejemplo, un icono, una imagen y/o similares) del elemento gráfico 1940, el procesador puede transmitir al menos un archivo/imagen/documento correspondiente al al menos un objeto 1942 a un dispositivo electrónico externo (por ejemplo, el dispositivo electrónico externo 404 o el servidor 406) a través de una interfaz de comunicación (por ejemplo, la interfaz de comunicación 470) que está conectada funcionalmente al dispositivo electrónico 1901. Por ejemplo, en la FIG. 19C, el objeto seleccionado 1942 se arrastra a la primera área 1912 para activar la transmisión de información correspondiente al objeto seleccionado 1942.
Con referencia a la FIG. 19D, el procesador puede visualizar, en la primera área 1912, el primer elemento gráfico 1920 (por ejemplo, una imagen recibida desde un dispositivo electrónico externo) relacionado con la primera aplicación (por ejemplo, una aplicación de teléfono/llamada, una aplicación de llamada de voz/vídeo, una aplicación de conferencia de voz/imagen/vídeo y/o similares), y puede visualizar un elemento gráfico 1950 (por ejemplo, un vídeo y una pantalla/interfaz gráfica de una aplicación de reproductor de vídeo) relacionado con una segunda aplicación en la segunda área 1914. El procesador puede controlar la primera aplicación para transmitir al menos uno de al menos parte del elemento gráfico 1950, un vídeo del mismo e información relacionada con el vídeo (por ejemplo, información/dirección de descarga/transmisión continua de imágenes en movimiento, información/posición/tiempo de reproducción de imágenes en movimiento y/o similares) del mismo a un dispositivo electrónico externo a través de la interfaz de comunicación en respuesta a una entrada (por ejemplo, un comando de reproducción, un comando de transmisión de imágenes en movimiento y/o similares) relacionada con el elemento gráfico 1950.
Con referencia a la FIG. 19E, el procesador puede visualizar, en la primera área 1912, el primer elemento gráfico 1920 (por ejemplo, una imagen recibida desde un dispositivo electrónico externo) relacionado con la primera aplicación (por ejemplo, una aplicación de teléfono/llamada, una aplicación de llamada de voz/vídeo, una aplicación de conferencia de voz/imagen/vídeo y/o similares), y puede visualizar un elemento gráfico 1960 (por ejemplo, un mapa y una pantalla/interfaz gráfica de una aplicación de mapas) relacionado con una segunda aplicación (por ejemplo, una aplicación de mapas) en la segunda área 1914. El procesador puede controlar la primera aplicación para transmitir una entrada 1962 (por ejemplo, una entrada de escritura manual) (o al menos parte de una interfaz gráfica de la segunda aplicación que incluye la entrada de escritura manual y la información/dirección de descarga de mapas) a un dispositivo externo a través de la interfaz de comunicación en respuesta a la entrada 1962 (por ejemplo, una entrada de escritura manual) relacionada con el segundo elemento gráfico 1960.
Con referencia a la FIG. 19F, un dispositivo electrónico externo 1971 puede visualizar, en un visualizador 1976, un segundo elemento gráfico 1980 (por ejemplo, un mapa, una pantalla/interfaz gráfica de una aplicación de mapas y/o similares), que se adquiere basándose en la información recibida desde el dispositivo electrónico 1901 y la entrada 1962 (por ejemplo, una entrada de escritura manual). El dispositivo electrónico externo 1971 puede transmitir una entrada 1982 (por ejemplo, una entrada de escritura manual) (o al menos parte de una interfaz gráfica de una segunda aplicación que incluye la entrada de escritura manual) al dispositivo electrónico 1901 en respuesta a la entrada 1982 (por ejemplo, una entrada de escritura manual) relacionada con el segundo elemento gráfico 1960.
Con referencia a la FIG. 19G, el procesador puede recibir una entrada 1982 (o datos de entrada) relacionados con el segundo elemento gráfico 1960 desde el dispositivo electrónico externo 1971 a través de la primera aplicación. El procesador puede controlar la segunda aplicación para visualizar la entrada 1982 en el segundo elemento gráfico 1960 o para visualizar la entrada 1982, en respuesta a la entrada 1982.
Las FIGS. 20A a 20D son vistas que ilustran un gesto de plegado según diversas realizaciones de la presente divulgación.
Con referencia a las FIGS. 20A a 20C, un dispositivo electrónico 2001 puede plegarse mediante una operación manual de un usuario de tal manera que una primera parte 2012 y una segunda parte 2014 (por ejemplo, una parte superior, una parte inferior y/o similares) entren en contacto entre sí y queden situadas lo más cerca posible una de la otra en una dirección longitudinal del dispositivo electrónico 2001. Cuando el dispositivo electrónico 2001 está plegado (por ejemplo, un estado plegado), una parte extrema en la dirección longitudinal del dispositivo electrónico 2001 puede o no estar expuesta al exterior dependiendo del eje de plegado. Cuando el dispositivo 2001 está plegado de manera desigual, una parte del visualizador 2006 puede estar expuesta al exterior como un subvisualizador para implementar una funcionalidad adicional.
Con referencia a la FIG. 20D, el dispositivo electrónico 2001 puede devolverse al estado desplegado mediante una operación manual del usuario.
Ejemplos de un gesto de plegado (que también puede denominarse "gesto de doblado") pueden incluir un gesto que dobla el dispositivo electrónico 2001 en un ángulo preestablecido o más, como se ilustra en la FIG. 20B, un gesto que pliega completamente el dispositivo electrónico 2001 de manera que las partes primera y segunda 2012 y 2014 entren en contacto entre sí o se acerquen lo más posible entre sí, como se ilustra en la FIG. 20C, y un gesto que despliega nuevamente el dispositivo electrónico 2001 en la dirección opuesta/al estado original (o en un ángulo predeterminado o menos) después de doblar el dispositivo electrónico 2001 en un ángulo preestablecido o más. Por ejemplo, el dispositivo electrónico 2001 puede detectar un ángulo formado entre un eje (por ejemplo, el eje x) en la dirección longitudinal del dispositivo electrónico 2001 y la primera parte 2012 (o la segunda parte 2014). Por ejemplo, un ángulo de doblado del dispositivo electrónico 2001 ilustrado en la FIG.
20A puede detectarse como de 0 grados, y el del dispositivo electrónico 2001 ilustrado en la FIG. 20C puede detectarse como de 180 grados.
De manera similar, los ejemplos de un gesto de despliegue pueden incluir un gesto que despliega el dispositivo electrónico doblado 2001 en un ángulo preestablecido o menos como se ilustra en la FIG. 20B o la FIG. 20D. En las realizaciones descritas anteriormente de la presente divulgación, se ha descrito un ejemplo en el que se configuran en el visualizador múltiples áreas que pueden distinguirse entre sí o que pueden permitir un control independiente en respuesta a una entrada que recorre al menos parcialmente el visualizador. Sin embargo, se pueden configurar múltiples áreas o se puede cancelar la configuración de un área mediante un gesto de plegado/despliegue.
Por ejemplo, con referencia a las FIGS. 18A y 18B, las áreas primera y segunda 1812 y 1814 se han descrito como configuradas en respuesta a la entrada táctil 1850 que recorre al menos parcialmente el visualizador 1806 en la primera dirección, pero las áreas primera y segunda 1812 y 1814 pueden configurarse mediante un gesto de plegado/despliegue. Con referencia a la FIG. 18E, la configuración de áreas puede cancelarse mediante un gesto de plegado/despliegue en lugar de la entrada táctil 1852.
Por ejemplo, con referencia a la FIG. 10B, las áreas primera y segunda 1012 y 1014 se han descrito como configuradas en respuesta a la entrada táctil 1050 que recorre al menos parcialmente el visualizador 1006 en la primera dirección, pero las áreas primera y segunda 1012 y 1014 pueden configurarse mediante un gesto de plegado/despliegue.
Las FIGS. 21A y 21B son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Con referencia a la FIG. 21A, un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico 2101 (por ejemplo, el dispositivo electrónico 101, 201 o 401) puede configurar una primera área 2112 y una segunda área 2114 para visualización en al menos un área parcial (o una pantalla completa) de un visualizador 2106 del dispositivo electrónico 2101. El procesador puede visualizar un primer elemento gráfico 2120 (por ejemplo, una pantalla/interfaz gráfica de una aplicación de mensajes/SNS) relacionado con una primera aplicación (por ejemplo, una aplicación de mensajes/SNS) en una primera área 2112. El procesador puede visualizar un segundo elemento gráfico 2130 (por ejemplo, un documento web/página web) relacionado con una segunda aplicación (por ejemplo, un navegador web) en una segunda área 2114.
Con referencia a la FIG. 21B, en respuesta a una entrada (por ejemplo, un gesto de plegado/despliegue) que selecciona o indica de otro modo la ejecución de una captura de pantalla (o transmisión de pantalla), el procesador puede transmitir una imagen/archivo/documento generado al capturar una imagen (por ejemplo, un pantallazo de) la segunda área 2114 o un segundo elemento gráfico 2130 a un dispositivo electrónico externo a través de una interfaz de comunicación (por ejemplo, la interfaz de comunicación 470) que está conectada funcionalmente al dispositivo electrónico 2101. El procesador puede visualizar un objeto 2134 (o una imagen reducida), que corresponde a la imagen/archivo/documento transmitido, en el primer elemento gráfico 2120. Por ejemplo, el procesador puede visualizar un icono (o una imagen reducida), que corresponde a la imagen transmitida, en una ventana de chat de una aplicación de mensajes/SNS.
Las FIGS. 22A a 22H son vistas que ilustran un método para controlar un visualizador mediante un dispositivo electrónico según diversas realizaciones de la presente divulgación.
Con referencia a la FIG. 22A, un procesador (por ejemplo, el procesador 210 o 420) del dispositivo electrónico 2201 (por ejemplo, el dispositivo electrónico 101, 201 o 401) puede visualizar un primer elemento gráfico 2220 (por ejemplo, un documento web/página web) relacionado con una primera aplicación (por ejemplo, un navegador web) en al menos un área parcial (o una pantalla completa) de un visualizador 2206 del dispositivo electrónico 2201.
Con referencia a la FIG. 22B, el procesador puede configurar una primera área 2212 y una segunda área 2214 para su visualización en el área al menos parcial en respuesta a una entrada (por ejemplo, un gesto de plegado/despliegue) que indica o solicita la división de pantalla. El procesador puede visualizar el primer elemento gráfico 2220 y un segundo elemento gráfico 2230, que corresponden ambos a un primer documento web/página web idénticos, en las áreas primera y segunda 2212 y 2214, respectivamente.
Con referencia a la FIG. 22C, el procesador puede detectar una entrada que selecciona un primer objeto 2232 (por ejemplo, un primer hipervínculo) del segundo elemento gráfico 2230.
Con referencia a la FIG. 22D, en respuesta a la entrada, el procesador puede visualizar un tercer elemento gráfico 2234 (por ejemplo, un segundo documento web/página web) correspondiente al primer objeto 2232, en la segunda área 2214 mientras mantiene el primer elemento gráfico 2220 tal como está.
Con referencia a las FIGS. 22E y 22F, el procesador puede detectar una entrada 2250 (por ejemplo, una entrada de deslizamiento en la primera área 2212, o una entrada de desplazamiento) para visualizar otra parte del primer elemento gráfico 2220 en lugar de una parte 2222 del primer elemento gráfico 2220 que se visualiza en la primera área 2212.
Con referencia a las FIGS. 22G y 22H, en respuesta a la entrada 2250, el procesador puede visualizar otra parte 2224 del primer elemento gráfico 2220 en la primera área 2212 mientras mantiene el tercer elemento gráfico 2234 tal como está.
El término "módulo" tal como se utiliza en el presente documento puede referirse a una unidad que incluye hardware, software o firmware y, por ejemplo, puede utilizarse de forma intercambiable con un término como una lógica, un bloque lógico, un componente o un circuito. El "módulo" puede ser un componente integrado o una unidad mínima para realizar una o más funciones o una parte de las mismas. El "módulo" puede implementarse mecánica o electrónicamente y puede incluir, por ejemplo, un chip de circuito integrado de aplicación específica (ASIC), una matriz de puertas programables en campo (FPGA) o un dispositivo de lógica programable que realiza determinadas operaciones y que se conoce o se desarrollará en el futuro.
Al menos parte del dispositivo (por ejemplo, módulos o funciones del mismo) o el método (por ejemplo, operaciones) según diversas realizaciones de la presente divulgación puede implementarse mediante una instrucción, que se almacena en un soporte de almacenamiento legible por computadora (por ejemplo, la memoria 430), en forma de un módulo de programa. Cuando la instrucción es ejecutada por un procesador (por ejemplo, el procesador 420), el procesador puede realizar una función correspondiente a la instrucción. El soporte de grabación legible por computadora puede incluir soportes magnéticos, como un disco duro, un disquete y una cinta magnética; soportes ópticos, como una memoria de solo lectura en disco compacto (CD-ROM) y un disco digital versátil (DVD); soportes magnetoópticos, como un disquete; una memoria interna; y/o similares. Las instrucciones pueden incluir códigos realizados por un compilador o códigos que pueden ser ejecutados por un interpretador.
El módulo o módulo de programa según diversas realizaciones de la presente divulgación puede incluir al menos uno de los elementos antes mencionados, puede incluir además otros elementos, o algunos de los elementos antes mencionados pueden omitirse. Las operaciones ejecutadas por el módulo, módulo de programa u otros elementos según diversas realizaciones de la presente divulgación pueden ejecutarse de manera secuencial, en paralelo, repetidamente o de manera heurística. Alternativamente, al menos algunas operaciones pueden ejecutarse en un orden diferente o pueden omitirse, o pueden agregarse otras operaciones.
Según diversas realizaciones de la presente divulgación, en un soporte de almacenamiento para almacenar instrucciones, las instrucciones están configuradas para hacer que al menos un procesador realice al menos una operación cuando son ejecutadas por el al menos un procesador, y la al menos una operación incluye configurar una primera área y una segunda área en el visualizador; visualizar un primer elemento gráfico relacionado con una primera aplicación en la primera área del visualizador; visualizar un segundo elemento gráfico relacionado con el control sobre la primera aplicación en la segunda área del visualizador; y controlar la primera aplicación en respuesta a una entrada relacionada con el segundo elemento gráfico.
Se proporcionan ejemplos de realizaciones de la presente divulgación para describir los contenidos técnicos de la presente divulgación y para ayudar a la comprensión de la presente divulgación, y no tienen por objeto limitar la presente divulgación. Por lo tanto, debe interpretarse que todas las modificaciones y cambios u otras diversas realizaciones que se basan en la idea técnica de la presente divulgación están incluidos en la presente divulgación.
La unidad de control o procesador puede incluir un microprocesador o cualquier tipo adecuado de circuitos de procesamiento, como uno o más procesadores de propósito general (por ejemplo, procesadores basados en ARM), un procesador digital de señales (DSP), un dispositivo lógico programable (PLD), un circuito integrado de aplicación específica (ASIC), una matriz de puertas programables en campo (FPGA), una unidad de procesamiento gráfico (GPU), un controlador de tarjeta de vídeo y/o similares. Además, se reconocería que cuando una computadora de propósito general accede al código para implementar el procesamiento que se muestra en este documento, la ejecución del código transforma la computadora de propósito general en una computadora de propósito especial para ejecutar el procesamiento que se muestra en este documento. Cualquiera de las funciones y pasos proporcionados en las figuras se pueden implementar en hardware, software o una combinación de ambos y se pueden realizar en su totalidad o en parte dentro de las instrucciones programadas de una computadora. Además, un técnico comprende y aprecia que un "procesador" o "microprocesador" puede ser hardware en la divulgación reivindicada.
Además, se reconocería que cuando una computadora de propósito general accede al código para implementar el procesamiento que se muestra en este documento, la ejecución del código transforma la computadora de propósito general en una computadora de propósito especial para ejecutar el procesamiento que se muestra en este documento. Cualquiera de las funciones y pasos proporcionados en las figuras se pueden implementar en hardware, o en una combinación de hardware configurado con código ejecutable por máquina y se pueden realizar en su totalidad o en parte dentro de las instrucciones programadas de una computadora.
Los términos "unidad" o "módulo" a los que se hace referencia en este documento deben entenderse como que comprenden hardware, tal como un procesador o microprocesador configurado para una determinada funcionalidad deseada, o un soporte no transitorio que comprende código ejecutable por máquina, y no constituyen softwareper se.
Además, un técnico entiende y aprecia que un "procesador" o "microprocesador" constituyen hardware en la invención reivindicada.
Las funciones y los pasos del proceso de este documento pueden realizarse de forma automática o total o parcialmente en respuesta a un comando de usuario. Una actividad (incluido un paso) realizada de forma automática se realiza en respuesta a una instrucción ejecutable o a una operación del dispositivo sin que el usuario inicie directamente la actividad.
Claims (14)
1. Un dispositivo electrónico (101) que comprende:
al menos una cámara (190, 192);
un visualizador flexible (160, 260a, 360, 906) dispuesto en una superficie frontal (102) del dispositivo electrónico (101); y
al menos un procesador (210, 420) configurado para:
mientras el dispositivo electrónico (101) está en un estado desplegado (600b), detectar, a través de una aplicación de cámara visualizada en el visualizador flexible (160, 260a, 360, 906), una primera entrada de usuario para capturar vídeo;
iniciar la captura de un primer vídeo utilizando la al menos una cámara (190, 192) basándose en la detección de la primera entrada de usuario;
mientras se captura el primer vídeo en el estado desplegado (600b), detectar que el dispositivo electrónico (101) se pliega desde el estado desplegado a un estado plegado;
detener la captura del primer vídeo basándose en el estado plegado, en donde el estado plegado comprende un estado en el que al menos parte del visualizador flexible (160, 260a, 360, 906) no está expuesta;
mientras el dispositivo electrónico (101) está en el estado plegado, recibir una segunda entrada de usuario para capturar un segundo vídeo;
mientras el dispositivo electrónico (101) está en el estado plegado (600a), basándose en la segunda entrada de usuario, capturar el segundo vídeo utilizando la al menos una cámara (190, 192); y mientras el dispositivo electrónico (101) está en el estado desplegado (600b), detectar una tercera entrada de usuario para dividir la pantalla completa (600) del visualizador flexible (160, 260a, 360, 906), y visualizar un primer elemento gráfico (920) en una primera área (912) de la pantalla completa (600) del visualizador flexible (160, 260a, 360 , 906) y un segundo elemento gráfico (940) en una segunda área (914) de la pantalla completa (600) del visualizador flexible (160, 260a, 360, 906) basándose en la detección de la tercera entrada de usuario;
en donde la primera área (912) y la segunda área (914) no están superpuestas, y
en donde el primer elemento gráfico (920) incluye una imagen de vista previa de la aplicación de cámara.
2. El dispositivo electrónico según la reivindicación 1, en donde la tercera entrada de usuario es un gesto de doblado para doblar el dispositivo electrónico.
3. El dispositivo electrónico según la reivindicación 1, en donde la tercera entrada de usuario es la selección de un botón de software o un botón de alternancia que se visualiza en el visualizador flexible.
4. El dispositivo electrónico según la reivindicación 2, en donde el gesto de doblado es un pliegue parcial.
5. El dispositivo electrónico según la reivindicación 1, en donde la tercera entrada de usuario es una entrada de deslizamiento que recorre al menos parte del visualizador flexible en una dirección.
6. El dispositivo electrónico según la reivindicación 1, en donde el dispositivo electrónico (101) comprende además un subvisualizador (162) dispuesto en una superficie trasera (103) del dispositivo electrónico (101), en donde la segunda entrada de usuario se recibe a través del subvisualizador (162), y
en donde el al menos un procesador está configurado además para: mientras se captura vídeo en estado desplegado (600b), detectar si el dispositivo electrónico (101) es plegado, y apagar el visualizador flexible (160, 260a, 360, 906) en función de la detección del estado plegado.
7. El dispositivo electrónico según la reivindicación 1, en donde el segundo elemento gráfico (940) en la segunda área (914) incluye al menos una imagen capturada almacenada en una memoria del dispositivo electrónico (101).
8. El dispositivo electrónico según la reivindicación 1, en donde el segundo elemento gráfico (940) en la segunda área (914) incluye múltiples objetos seleccionables para establecer diversos atributos configurables de la aplicación de cámara.
9. El dispositivo electrónico según la reivindicación 1, en donde la al menos una cámara (190, 192) incluye una primera cámara (190) dispuesta en la superficie frontal (102) del dispositivo electrónico (101) y una segunda cámara (192) dispuesta en la superficie trasera (103) del dispositivo electrónico (101).
10. Un método en un dispositivo electrónico que comprende un visualizador flexible (160, 260a, 360, 906) y al menos una cámara (190, 192), comprendiendo el método:
mientras el dispositivo electrónico (101) está en un estado desplegado (600b), detectar, a través de una aplicación de cámara visualizada en el visualizador flexible (160, 260a, 360, 906), una primera entrada de usuario para capturar vídeo;
iniciar la captura de un primer vídeo utilizando la al menos una cámara (190, 192) basándose en la detección de la primera entrada de usuario;
mientras se captura el primer vídeo en el estado desplegado (600b), detectar que el dispositivo electrónico (101) es plegado desde el estado desplegado a un estado plegado;
detener la captura del primer vídeo basándose en el estado plegado, en donde el estado plegado comprende un estado en el que al menos parte del visualizador flexible (160, 260a, 360, 906) no está expuesto; mientras el dispositivo electrónico (101) está en el estado plegado, recibir una segunda entrada de usuario para capturar un segundo vídeo;
mientras el dispositivo electrónico (101) está en el estado plegado (600a), basándose en la segunda entrada de usuario, capturar el segundo vídeo utilizando la al menos una cámara (190, 192); y
mientras el dispositivo electrónico (101) está en el estado desplegado (600b), detectar una tercera entrada de usuario para dividir la pantalla completa (600) de un visualizador flexible (160, 260a, 360, 906), y visualizar un primer elemento gráfico (920) en una primera área (912) de la pantalla completa (600) del visualizador flexible (160, 260a, 360, 906) y un segundo elemento gráfico (940) en una segunda área (914) de la pantalla completa (600) del visualizador flexible (160, 260a, 360, 906) basándose en la detección de la tercera entrada de usuario;
en donde la primera área (912) y la segunda área (914) no están superpuestas, y
en donde el primer elemento gráfico (920) incluye una imagen de vista previa de la aplicación de cámara.
11. El método según la reivindicación 10, en donde el dispositivo electrónico (101) comprende además un subvisualizador (162) dispuesto en una superficie trasera (103) del dispositivo electrónico (101), y
en donde la segunda entrada de usuario se recibe a través del subvisualizador (162), comprendiendo además el método:
mientras se captura vídeo en estado desplegado (600b), detectar si el dispositivo electrónico (101) es plegado, y apagar el visualizador flexible (160, 260a, 360, 906) en función de la detección del estado plegado.
12. El método según la reivindicación 10, en donde el segundo elemento gráfico (940) en la segunda área (914) incluye múltiples objetos seleccionables para establecer diversos atributos configurables de la aplicación de cámara.
13. El método según la reivindicación 10, en donde la al menos una cámara (190, 192) incluye una primera cámara (190) dispuesta en la superficie frontal (102) del dispositivo electrónico (101) y una segunda cámara (192) dispuesta en la superficie trasera (103) del dispositivo electrónico (101).
14. Un soporte de grabación legible por computadora no transitorio que tiene grabado en él un programa informático configurado, cuando es ejecutado por el dispositivo electrónico de cualquiera de las reivindicaciones 1 a 9, para ejecutar el método de cualquiera de las reivindicaciones 10 a 13.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160099173A KR102649254B1 (ko) | 2016-08-03 | 2016-08-03 | 디스플레이 제어 방법, 저장 매체 및 전자 장치 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2994226T3 true ES2994226T3 (en) | 2025-01-20 |
Family
ID=59564097
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES22166971T Active ES2994226T3 (en) | 2016-08-03 | 2017-08-02 | Method for controlling display, storage medium, and electronic device |
Country Status (9)
| Country | Link |
|---|---|
| US (1) | US11048379B2 (es) |
| EP (4) | EP3279763B1 (es) |
| KR (1) | KR102649254B1 (es) |
| CN (2) | CN107688370B (es) |
| ES (1) | ES2994226T3 (es) |
| HU (1) | HUE068902T2 (es) |
| MY (2) | MY210189A (es) |
| PL (1) | PL4043997T3 (es) |
| WO (1) | WO2018026206A1 (es) |
Families Citing this family (80)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| USD353539S (en) * | 1990-07-20 | 1994-12-20 | Norden Pac Development Ab | Combined tube and cap |
| USD804443S1 (en) * | 2015-10-02 | 2017-12-05 | Samsung Electronics Co., Ltd. | Mobile terminal |
| USD828321S1 (en) | 2015-11-04 | 2018-09-11 | Lenovo (Beijing) Co., Ltd. | Flexible smart mobile phone |
| JP1590263S (es) | 2016-12-28 | 2017-11-06 | ||
| JP1589999S (es) * | 2016-12-28 | 2017-11-06 | ||
| CN107704167B (zh) * | 2017-09-15 | 2019-08-13 | 珠海格力电器股份有限公司 | 一种数据分享方法、装置及电子设备 |
| USD885381S1 (en) * | 2017-10-11 | 2020-05-26 | Samsung Display Co., Ltd. | Display device |
| USD893475S1 (en) * | 2017-10-11 | 2020-08-18 | Samsung Display Co., Ltd. | Display device |
| KR102255469B1 (ko) * | 2018-03-06 | 2021-05-24 | 삼성전자주식회사 | 플렉서블한 디스플레이를 포함하는 전자 장치 및 그 동작 방법 |
| CN108459805B (zh) * | 2018-03-30 | 2021-11-16 | 努比亚技术有限公司 | 屏幕截图方法、移动终端及计算机可读存储介质 |
| CN108646960B (zh) * | 2018-04-25 | 2020-09-15 | 维沃移动通信有限公司 | 一种文件处理方法及柔性屏终端 |
| KR102509465B1 (ko) | 2018-05-07 | 2023-03-14 | 구글 엘엘씨 | 연결 디바이스를 제어하기 위한 복합 그래픽 어시스턴트 인터페이스를 제공하는 방법, 시스템, 및 장치 |
| CN108628515B (zh) * | 2018-05-08 | 2020-06-16 | 维沃移动通信有限公司 | 一种多媒体内容的操作方法和移动终端 |
| KR102485127B1 (ko) * | 2018-07-06 | 2023-01-05 | 삼성전자주식회사 | 카메라의 방향에 따라 프리뷰 이미지의 위치를 변경하기 위한 전자 장치 및 방법 |
| CN110719347A (zh) * | 2018-07-13 | 2020-01-21 | Oppo广东移动通信有限公司 | 电子设备及电子设备的控制方法 |
| KR102577051B1 (ko) | 2018-07-17 | 2023-09-11 | 삼성전자주식회사 | 분할 화면을 제공하기 위한 전자 장치 및 방법 |
| USD902900S1 (en) * | 2018-08-01 | 2020-11-24 | Samsung Electronics Co., Ltd. | Mobile phone |
| CN108962036B (zh) * | 2018-09-07 | 2021-10-19 | 武汉天马微电子有限公司 | 一种可折叠显示装置 |
| CN111081143B (zh) * | 2018-10-22 | 2022-08-05 | 北京小米移动软件有限公司 | 显示控制方法、装置、电子设备和计算机可读存储介质 |
| CN116088782A (zh) * | 2018-10-29 | 2023-05-09 | 中兴通讯股份有限公司 | 一种多屏显示控制方法、装置、设备及可读存储介质 |
| CN111124327A (zh) * | 2018-10-31 | 2020-05-08 | 中兴通讯股份有限公司 | 屏幕控制方法、多屏终端及计算机可读存储介质 |
| CN109542328B (zh) * | 2018-11-30 | 2021-04-06 | 北京小米移动软件有限公司 | 用户界面显示方法、装置、终端及存储介质 |
| USD920373S1 (en) * | 2018-12-21 | 2021-05-25 | Mitsubishi Electric Corporation | Display screen with graphical user interface |
| USD926738S1 (en) * | 2019-02-22 | 2021-08-03 | Samsung Electronics Co., Ltd. | Mobile phone |
| KR102755234B1 (ko) * | 2019-03-12 | 2025-01-20 | 삼성디스플레이 주식회사 | 전자 장치, 이의 시스템, 및 이의 시스템 동작 방법 |
| CN110058649A (zh) * | 2019-03-28 | 2019-07-26 | 维沃移动通信有限公司 | 一种界面显示方法及终端设备 |
| CN111752509B (zh) * | 2019-03-29 | 2025-05-23 | 北京小米移动软件有限公司 | 显示屏幕的显示控制方法、装置及存储介质 |
| US11308618B2 (en) | 2019-04-14 | 2022-04-19 | Holovisions LLC | Healthy-Selfie(TM): a portable phone-moving device for telemedicine imaging using a mobile phone |
| US12014500B2 (en) | 2019-04-14 | 2024-06-18 | Holovisions LLC | Healthy-Selfie(TM): methods for remote medical imaging using a conventional smart phone or augmented reality eyewear |
| CN109951733B (zh) * | 2019-04-18 | 2021-10-22 | 北京小米移动软件有限公司 | 视频播放方法、装置、设备及可读存储介质 |
| CN110138933A (zh) * | 2019-04-22 | 2019-08-16 | 珠海格力电器股份有限公司 | 基于折叠屏的拍照面板布局控制方法、系统及智能终端 |
| KR102780906B1 (ko) | 2019-04-24 | 2025-03-17 | 삼성전자주식회사 | 폴더블 전자 장치 및 그 동작 방법 |
| CN110996034A (zh) * | 2019-04-25 | 2020-04-10 | 华为技术有限公司 | 一种应用控制方法及电子装置 |
| CN110401766B (zh) | 2019-05-22 | 2021-12-21 | 华为技术有限公司 | 一种拍摄方法及终端 |
| US11379104B2 (en) * | 2019-06-07 | 2022-07-05 | Microsoft Technology Licensing, Llc | Sharing user interface customization across applications |
| CN110312073B (zh) * | 2019-06-25 | 2021-03-16 | 维沃移动通信有限公司 | 一种拍摄参数的调节方法及移动终端 |
| CN110381282B (zh) * | 2019-07-30 | 2021-06-29 | 华为技术有限公司 | 一种应用于电子设备的视频通话的显示方法及相关装置 |
| CN112416190B (zh) * | 2019-08-23 | 2022-05-06 | 珠海金山办公软件有限公司 | 一种显示文档的方法及装置 |
| CN110673697B (zh) * | 2019-09-23 | 2021-08-27 | Oppo广东移动通信有限公司 | 电子设备的控制方法、装置、电子设备及存储介质 |
| KR102675268B1 (ko) * | 2019-09-24 | 2024-06-17 | 삼성전자주식회사 | 폴더블 전자 장치 및 이를 이용한 멀티 윈도우 운용 방법 |
| USD953283S1 (en) * | 2019-09-29 | 2022-05-31 | Beijing Xiaomi Mobile Software Co., Ltd. | Mobile phone |
| US11138912B2 (en) | 2019-10-01 | 2021-10-05 | Microsoft Technology Licensing, Llc | Dynamic screen modes on a bendable computing device |
| USD973679S1 (en) * | 2019-10-28 | 2022-12-27 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with transitional graphical user interface |
| CN113010076A (zh) * | 2019-10-30 | 2021-06-22 | 华为技术有限公司 | 一种显示要素的显示方法和电子设备 |
| USD959400S1 (en) * | 2019-11-07 | 2022-08-02 | Beijing Xiaomi Mobile Software Co., Ltd. | Mobile phone |
| CN111078091A (zh) * | 2019-11-29 | 2020-04-28 | 华为技术有限公司 | 分屏显示的处理方法、装置及电子设备 |
| CN111262994B (zh) * | 2020-01-09 | 2021-07-16 | 三星电子(中国)研发中心 | 一种折叠屏智能设备的任务选择方法和装置 |
| CN111263005B (zh) * | 2020-01-21 | 2021-09-14 | 华为技术有限公司 | 一种折叠屏的显示方法及相关装置 |
| USD963604S1 (en) * | 2020-04-08 | 2022-09-13 | Beijing Xiaomi Mobile Software Co., Ltd. | Mobile phone |
| USD964306S1 (en) * | 2020-04-09 | 2022-09-20 | Beijing Xiaomi Mobile Software Co., Ltd. | Mobile phone |
| KR102864029B1 (ko) * | 2020-05-21 | 2025-09-24 | 주식회사 파트론이에스엘 | 전자 가격 표시기 및 그 제어 방법 |
| KR20210151605A (ko) | 2020-06-05 | 2021-12-14 | 삼성전자주식회사 | 이미지 캡쳐 방법 및 이를 위한 전자 장치 |
| KR102847692B1 (ko) * | 2020-07-30 | 2025-08-21 | 삼성디스플레이 주식회사 | 표시 장치 |
| KR20220017284A (ko) * | 2020-08-04 | 2022-02-11 | 삼성전자주식회사 | 전자 장치 및 그의 화면을 제어하는 방법 |
| JP2022044322A (ja) * | 2020-09-07 | 2022-03-17 | 株式会社Nttドコモ | 情報処理装置及び表示装置の制御方法 |
| CN114327314B (zh) * | 2020-09-29 | 2024-04-12 | 华为技术有限公司 | 显示控制方法、终端及存储介质 |
| CN114363462B (zh) * | 2020-09-30 | 2023-01-06 | 华为技术有限公司 | 一种界面显示方法、电子设备及计算机可读介质 |
| KR102860517B1 (ko) * | 2020-10-30 | 2025-09-16 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 동작 방법 |
| KR20220077516A (ko) * | 2020-12-02 | 2022-06-09 | 삼성전자주식회사 | 멀티 이미지 표시 방법 및 전자 장치 |
| USD976278S1 (en) * | 2021-01-08 | 2023-01-24 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with transitional graphical user interface |
| USD987658S1 (en) * | 2021-01-13 | 2023-05-30 | Samsung Electronics Co., Ltd. | Electronic device with transitional graphical user interface |
| USD987661S1 (en) * | 2021-01-13 | 2023-05-30 | Samsung Electronics Co., Ltd. | Foldable electronic device with transitional graphical user interface |
| USD999184S1 (en) * | 2021-03-15 | 2023-09-19 | Samsung Display Co., Ltd. | Display device |
| USD1002568S1 (en) * | 2021-03-30 | 2023-10-24 | Samsung Display Co., Ltd. | Display device |
| US11907023B2 (en) * | 2021-04-23 | 2024-02-20 | Ricoh Company, Ltd. | Information processing system, information processing apparatus, terminal device, and display method |
| USD1051912S1 (en) * | 2021-05-11 | 2024-11-19 | Anode IP LLC | Display screen or portion thereof with a graphical user interface |
| WO2022241621A1 (en) | 2021-05-17 | 2022-11-24 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Electronic device, foldable-slider device, and method for displaying information |
| CN115484391B (zh) * | 2021-06-16 | 2023-12-12 | 荣耀终端有限公司 | 一种拍摄方法及电子设备 |
| US12367004B2 (en) * | 2021-07-27 | 2025-07-22 | App-Pop-Up Inc. | System and method for simultaneously displaying multiple GUIs via the same display |
| CN114578898B (zh) * | 2022-02-18 | 2024-07-16 | 维沃移动通信有限公司 | 显示方法、电子设备及可读存储介质 |
| CN116700577A (zh) * | 2022-02-28 | 2023-09-05 | 荣耀终端有限公司 | 视频的处理方法、电子设备和可读存储介质 |
| CN114780001B (zh) * | 2022-04-19 | 2023-04-25 | 青岛海信智慧生活科技股份有限公司 | 一种多路开关设备的控制方法、终端设备及服务器 |
| EP4432055A4 (en) * | 2022-05-25 | 2025-04-02 | Samsung Electronics Co., Ltd. | Electronic device for receiving application screen from external device and displaying same, and method of controlling same |
| USD986914S1 (en) * | 2022-08-22 | 2023-05-23 | Hangzhou Ruisheng Software Co., Ltd. | Display screen with graphical user interface |
| CN117793522A (zh) * | 2022-09-28 | 2024-03-29 | 华为技术有限公司 | 一种图片拍摄与分享方法及电子设备 |
| US20230028906A1 (en) * | 2022-09-29 | 2023-01-26 | Intel Corporation | Systems and methods to reduce accidental touch actions on a touchscreen |
| CN116700572B (zh) * | 2022-11-22 | 2024-02-27 | 荣耀终端有限公司 | 设备互联交互方法、电子设备和存储介质 |
| WO2025085496A1 (en) * | 2023-10-19 | 2025-04-24 | John Yu | Lanyard having embedded electronic components |
| WO2025089867A1 (ko) * | 2023-10-25 | 2025-05-01 | 삼성전자 주식회사 | 외부 디스플레이를 포함하는 전자 장치 및 전자 장치의 동작 방법 |
| USD1025114S1 (en) * | 2024-01-29 | 2024-04-30 | Hangzhou Ruisheng Software Co., Ltd. | Display screen with graphical user interface |
Family Cites Families (40)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5745711A (en) * | 1991-10-23 | 1998-04-28 | Hitachi, Ltd. | Display control method and apparatus for an electronic conference |
| JP4367057B2 (ja) * | 2003-09-01 | 2009-11-18 | ソニー株式会社 | 制作端末装置,コンピュータプログラム,および関連付け方法 |
| US7953462B2 (en) | 2008-08-04 | 2011-05-31 | Vartanian Harry | Apparatus and method for providing an adaptively responsive flexible display device |
| KR101524594B1 (ko) | 2009-02-05 | 2015-06-03 | 삼성전자주식회사 | 프로젝터기능을 가지는 휴대단말에서 화면데이터 이원화 제어 방법 및 시스템 |
| WO2012108668A2 (ko) * | 2011-02-10 | 2012-08-16 | 삼성전자 주식회사 | 터치 스크린 디스플레이를 구비한 휴대 기기 및 그 제어 방법 |
| US8787016B2 (en) | 2011-07-06 | 2014-07-22 | Apple Inc. | Flexible display devices |
| US8929085B2 (en) | 2011-09-30 | 2015-01-06 | Apple Inc. | Flexible electronic devices |
| KR101818114B1 (ko) * | 2011-10-10 | 2018-01-12 | 엘지전자 주식회사 | 이동 단말기 및 그것의 사용자 인터페이스 제공 방법 |
| KR102148717B1 (ko) * | 2011-12-05 | 2020-08-28 | 삼성전자주식회사 | 휴대용 단말기의 디스플레이 제어 방법 및 장치 |
| KR101302292B1 (ko) | 2012-01-05 | 2013-09-03 | (주)이스트소프트 | 렌더링엔진 자동변환을 위한 웹브라우저를 기록한 컴퓨터 판독가능한 기록매체 및 렌더링엔진 자동변환방법 |
| KR20130080937A (ko) * | 2012-01-06 | 2013-07-16 | 삼성전자주식회사 | 플랙서블 디스플레이를 구비하는 단말장치의 화면 표시장치 및 방법 |
| KR101943357B1 (ko) * | 2012-06-01 | 2019-01-29 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
| KR102104588B1 (ko) * | 2012-07-11 | 2020-04-24 | 삼성전자주식회사 | 플렉서블 디스플레이 장치 및 그 동작 방법 |
| KR101916416B1 (ko) | 2012-07-30 | 2018-11-08 | 삼성전자주식회사 | 플렉서블 디스플레이 장치 및 그 디스플레이 방법 |
| KR102043810B1 (ko) | 2012-08-20 | 2019-11-12 | 삼성전자주식회사 | 플렉서블 디스플레이 장치 및 그 제어 방법 |
| KR102004409B1 (ko) * | 2012-08-23 | 2019-07-29 | 삼성전자주식회사 | 플렉서블 디스플레이 장치 및 그 제어 방법 |
| KR101989016B1 (ko) * | 2012-08-29 | 2019-06-13 | 삼성전자주식회사 | 전자장치에서 영상통화중 파일 전송 방법 및 장치 |
| KR102049855B1 (ko) | 2013-01-31 | 2019-11-28 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어 방법 |
| KR102089951B1 (ko) * | 2013-03-14 | 2020-04-14 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
| KR20150007910A (ko) | 2013-07-11 | 2015-01-21 | 삼성전자주식회사 | 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법 |
| JP5815613B2 (ja) | 2013-08-01 | 2015-11-17 | 株式会社オプティム | ユーザ端末、画面共有方法、ユーザ端末用プログラム |
| KR102256677B1 (ko) | 2013-12-02 | 2021-05-28 | 삼성디스플레이 주식회사 | 플렉서블 표시장치 및 이의 영상 표시방법 |
| KR20150064621A (ko) | 2013-12-03 | 2015-06-11 | 현대자동차주식회사 | 트렁크 개폐장치 |
| US11054929B2 (en) * | 2013-12-19 | 2021-07-06 | Korea Electronics Technology Institute | Electronic device and a control method thereof |
| KR20150072503A (ko) | 2013-12-19 | 2015-06-30 | 전자부품연구원 | 전자기기 및 전자기기의 제어방법 |
| KR101588294B1 (ko) * | 2013-12-30 | 2016-01-28 | 삼성전자주식회사 | 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법 |
| EP2905679B1 (en) * | 2014-01-07 | 2018-08-22 | Samsung Electronics Co., Ltd | Electronic device and method of controlling electronic device |
| KR102331956B1 (ko) | 2014-02-10 | 2021-11-29 | 삼성전자주식회사 | 사용자 단말 장치 및 이의 디스플레이 방법 |
| KR20150135038A (ko) | 2014-05-23 | 2015-12-02 | 삼성전자주식회사 | 폴더블 전자 장치 및 그 제어 방법 |
| EP2965184A4 (en) * | 2014-05-23 | 2016-08-31 | Samsung Electronics Co Ltd | A COLLECTABLE DEVICE AND METHOD FOR CONTROLLING THEREOF |
| KR102276108B1 (ko) * | 2014-05-26 | 2021-07-12 | 삼성전자 주식회사 | 폴더형 표시부를 가지는 전자 장치 및 이의 운영 방법 |
| KR102210632B1 (ko) | 2014-06-09 | 2021-02-02 | 엘지전자 주식회사 | 벤딩 오퍼레이션을 실행하는 디스플레이 디바이스 및 그 제어 방법 |
| KR20160038510A (ko) * | 2014-09-30 | 2016-04-07 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
| KR102390647B1 (ko) * | 2014-11-25 | 2022-04-26 | 삼성전자주식회사 | 전자장치 및 전자장치의 객체 제어 방법 |
| KR102353498B1 (ko) * | 2014-12-16 | 2022-01-20 | 삼성전자주식회사 | 기능 제공 방법 및 그 전자 장치 |
| KR102358749B1 (ko) * | 2014-12-26 | 2022-02-07 | 엘지전자 주식회사 | 디지털 디바이스 및 그 제어 방법 |
| US10255481B2 (en) * | 2015-01-07 | 2019-04-09 | Samsung Electronics Co., Ltd. | Display device and operating method thereof with adjustments display |
| KR102137543B1 (ko) * | 2015-01-07 | 2020-08-13 | 삼성전자주식회사 | 벤딩 가능한 사용자 단말 장치 및 이의 디스플레이 방법 |
| KR102296323B1 (ko) * | 2015-01-14 | 2021-09-01 | 삼성전자주식회사 | 전자 장치 및 전자 장치에서의 정보 처리 방법 |
| KR20160088764A (ko) | 2015-01-16 | 2016-07-26 | 삼성전자주식회사 | 플렉서블 디바이스 및 그 동작 방법 |
-
2016
- 2016-08-03 KR KR1020160099173A patent/KR102649254B1/ko active Active
-
2017
- 2017-08-02 EP EP17184551.4A patent/EP3279763B1/en active Active
- 2017-08-02 EP EP22166971.6A patent/EP4043997B1/en active Active
- 2017-08-02 ES ES22166971T patent/ES2994226T3/es active Active
- 2017-08-02 US US15/666,803 patent/US11048379B2/en active Active
- 2017-08-02 HU HUE22166971A patent/HUE068902T2/hu unknown
- 2017-08-02 EP EP19158122.2A patent/EP3521971B1/en active Active
- 2017-08-02 EP EP24201143.5A patent/EP4459969A3/en active Pending
- 2017-08-02 PL PL22166971.6T patent/PL4043997T3/pl unknown
- 2017-08-03 CN CN201710655391.4A patent/CN107688370B/zh active Active
- 2017-08-03 CN CN202311676616.6A patent/CN117762200A/zh active Pending
- 2017-08-03 MY MYPI2022003652A patent/MY210189A/en unknown
- 2017-08-03 MY MYPI2019000411A patent/MY193324A/en unknown
- 2017-08-03 WO PCT/KR2017/008390 patent/WO2018026206A1/en not_active Ceased
Also Published As
| Publication number | Publication date |
|---|---|
| EP3279763B1 (en) | 2019-02-20 |
| HUE068902T2 (hu) | 2025-02-28 |
| EP3521971B1 (en) | 2022-04-27 |
| EP4459969A3 (en) | 2024-12-25 |
| CN117762200A (zh) | 2024-03-26 |
| EP4043997C0 (en) | 2024-10-02 |
| EP4459969A2 (en) | 2024-11-06 |
| MY210189A (en) | 2025-09-02 |
| PL4043997T3 (pl) | 2024-12-16 |
| EP4043997A1 (en) | 2022-08-17 |
| EP4043997B1 (en) | 2024-10-02 |
| EP3279763A1 (en) | 2018-02-07 |
| KR20180015532A (ko) | 2018-02-13 |
| EP3521971A1 (en) | 2019-08-07 |
| WO2018026206A1 (en) | 2018-02-08 |
| MY193324A (en) | 2022-10-04 |
| CN107688370A (zh) | 2018-02-13 |
| CN107688370B (zh) | 2023-11-28 |
| US20180039387A1 (en) | 2018-02-08 |
| KR102649254B1 (ko) | 2024-03-20 |
| US11048379B2 (en) | 2021-06-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2994226T3 (en) | Method for controlling display, storage medium, and electronic device | |
| US10834814B2 (en) | Foldable electronic device and control method thereof | |
| KR102613731B1 (ko) | 복수의 디스플레이를 구비한 전자장치 및 그 제어 방법 | |
| KR102497195B1 (ko) | 컨텐츠를 처리하는 방법 및 이를 위한 전자 장치 및 저장 매체 | |
| KR102537922B1 (ko) | 디스플레이 사이의 각도를 측정하는 방법 및 이를 사용하는 전자 장치 | |
| US10502580B2 (en) | Method and apparatus for providing augmented reality function in electronic device | |
| KR102571369B1 (ko) | 디스플레이 제어 방법, 저장 매체 및 전자 장치 | |
| US11210050B2 (en) | Display control method, storage medium and electronic device | |
| KR102391772B1 (ko) | 터치 감응 디스플레이를 포함하는 전자 장치 및 이 전자 장치를 동작하는 방법 | |
| US9952661B2 (en) | Method for providing screen magnification and electronic device thereof | |
| EP3009816A1 (en) | Method and apparatus for adjusting color | |
| EP3023969A2 (en) | Display and method and electronic device | |
| KR20150099297A (ko) | 전자장치의 화면 표시 방법 | |
| US20170118402A1 (en) | Electronic device and camera control method therefor | |
| KR102274944B1 (ko) | 오브젝트를 식별하는 전자 장치 및 방법 | |
| US10726193B2 (en) | Electronic device and operating method thereof | |
| US10845940B2 (en) | Electronic device and display method of electronic device | |
| KR102332674B1 (ko) | 콘텐츠 변경 알림 방법 및 장치 | |
| US20170031569A1 (en) | Method of shifting content and electronic device | |
| KR20160026252A (ko) | 화면 확대 방법, 전자 장치 및 저장 매체 |