WO2021101039A1 - Display device and method for controlling display device - Google Patents
Display device and method for controlling display device Download PDFInfo
- Publication number
- WO2021101039A1 WO2021101039A1 PCT/KR2020/012108 KR2020012108W WO2021101039A1 WO 2021101039 A1 WO2021101039 A1 WO 2021101039A1 KR 2020012108 W KR2020012108 W KR 2020012108W WO 2021101039 A1 WO2021101039 A1 WO 2021101039A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- display device
- gesture
- processor
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
Definitions
- Disclosed embodiments relate to a display device that displays feedback on a user's gesture without using an indicator such as a cursor, and a control method of the display device.
- a display device is an output device that visually displays received or stored image information to a user, and is used in various fields such as homes and businesses.
- the display device is a monitor device connected to a personal computer or a server computer, a portable computer device, a navigation terminal device, a general television device, an Internet Protocol television (IPTV) device, a smart phone, a tablet.
- IPTV Internet Protocol television
- PC personal computer
- PDA personal digital assistant
- portable terminal device such as a cellular phone
- various display devices used to reproduce images such as advertisements or movies in industrial sites, or various other devices
- audio/video systems There are kinds of audio/video systems and so on.
- Such a display displays a user interface related to various contents, and allows a user interface displayed by a user's manipulation to be selected.
- the conventional display induces the user to select a user interface through a method of displaying a cursor on the screen.
- feedback is performed by recognizing a user's gesture and moving a cursor on the screen through the user's gesture.
- this method requires precise control from the user, and when the cursor does not move to the desired position, the user has to make a gesture several times.
- the conventional display detects the user's gesture without considering the distance between the user and the device, the same cursor movement sensitivity and the same size of the user interface are provided according to the distance from the user.
- An aspect disclosed is a display device and a control method for reducing user's concentration and reducing fatigue by omitting a result of recognizing a user's gesture such as a cursor and providing feedback through a change in a user interface.
- the display device includes a sensor for detecting a user's gesture; A display for displaying a UI (User Interface) element; And a first UI element is emphasized based on the user's gesture, and the highlighted first UI element is moved based on the movement direction of the gesture, or a second UI element corresponding to the movement direction is selected from the first UI element. And a processor that controls the display to move to and display.
- a sensor for detecting a user's gesture
- a display for displaying a UI (User Interface) element
- a first UI element is emphasized based on the user's gesture, and the highlighted first UI element is moved based on the movement direction of the gesture, or a second UI element corresponding to the movement direction is selected from the first UI element.
- a processor that controls the display to move to and display.
- the processor may set a preset boundary on the first UI element and the second UI element, respectively, and move the highlighted first UI element based on the user's gesture and the preset boundary.
- the processor may release the emphasis of the first UI element and restore the moved first UI element.
- the processor may highlight the second UI element.
- the processor determines the color of the highlighted first UI element and the color of the second UI element. It can be changed sequentially.
- the processor may highlight the first UI element based on the location of the user's gesture and a center point of the plurality of UI elements.
- the at least one UI element includes the plurality of layers and icons, and highlights the first UI element based on rotation or movement of the plurality of layers, or the first UI element based on the size or shape of the icon. UI elements can be emphasized.
- the processor may differently change the rotation angle of the first layer and the second layer among the plurality of layers based on the user's gesture.
- the processor may determine a position at which the first UI element and the second UI element are displayed based on at least one of a length of the user's arm, a viewing angle of the user, or a distance between the user and the display device.
- the processor may determine a size and a position at which the first UI element and the second UI element are displayed based on the length of the user's arm.
- the processor may determine a position and a size at which the first UI element and the second UI element are displayed based on a distance between the user and the display device and a viewing angle of the user.
- the processor may activate the highlighted first UI element based on the user's gripping operation.
- the processor may adjust a setting value of the activated first UI element when detecting the movement of the hand while the user is grasping.
- the processor may highlight the first UI element based on at least one of a line, a figure, a color, or a size of the first UI element.
- a display device includes a sensor for detecting a user's gesture; A display for displaying a UI (User Interface) element; And a processor that highlights the first UI element based on the user's gesture and moves the second UI element to the highlighted first UI element based on the movement direction of the gesture.
- a sensor for detecting a user's gesture
- a display for displaying a UI (User Interface) element
- a processor that highlights the first UI element based on the user's gesture and moves the second UI element to the highlighted first UI element based on the movement direction of the gesture.
- a method of controlling a display device includes: detecting a user's gesture; Display a UI (User Interface) element; Highlighting the first UI element based on the user's gesture; And controlling the display such that the highlighted first UI element moves or a second UI element corresponding to the movement direction moves to the first UI element based on the movement direction of the gesture.
- UI User Interface
- the controlling includes: setting a preset boundary for each of the first UI element and the second UI element, and moving the highlighted first UI element based on the user's gesture and the preset boundary; can do.
- the controlling may include, when the movement of the gesture deviates from a preset boundary of the first UI element, canceling the emphasis of the first UI element and returning the moved first UI element; have.
- the controlling may include highlighting the second UI element when the movement of the gesture deviates from a preset boundary of the first UI element and enters a preset boundary of the second UI element.
- the controlling is, when the movement of the gesture deviates from a preset boundary of the first UI element and enters a preset boundary of the second UI element, the highlighted color of the first UI element and the color of the second UI element To sequentially change; may include.
- a display device and a control method omit a result of recognizing a user's gesture and provide feedback through a change in a user interface, thereby reducing a user's concentration and reducing fatigue.
- a display device and a control method provide a user with ease of selection of a user interface through a gesture, thereby providing a quick coordinate recognition and a simple provision method.
- the display device and the control method according to another aspect may provide convenience by changing the size and position of the user interface according to the distance of the user and the length of the viewing angle arm.
- FIG. 1 is a diagram illustrating a display device according to an exemplary embodiment.
- FIG. 2 is a control block diagram of a display device according to an exemplary embodiment.
- 3 to 5 are diagrams for explaining the operation of the display device.
- 6A to 6C are diagrams for explaining a reference required for an operation of a display device.
- FIGS. 7 to 9 are diagrams of a specific embodiment of moving an highlighted UI element.
- 10A and 10B are diagrams for explaining an embodiment of emphasizing a UI element.
- 11 and 12 are diagrams for explaining a method of displaying a UI element that is changed according to the length of a user's arm.
- FIG. 13 and 14 are diagrams for explaining a method of displaying a UI element that is changed according to a viewing angle.
- 15 to 17 are diagrams of an embodiment of activating a UI element.
- FIG. 18 is a flowchart illustrating a method of controlling a display device according to an exemplary embodiment.
- 19 is a flowchart illustrating a method of controlling a display according to another exemplary embodiment.
- the identification code is used for convenience of explanation, and the identification code does not describe the order of each step, and each step may be implemented differently from the specified order unless a specific sequence is clearly stated in the context. have.
- FIG. 1 is a diagram illustrating a display device according to an exemplary embodiment.
- the display device 1 may include a display panel 2, a housing 3 supporting the display panel 2, and a support 4.
- the housing 3 forms an exterior of the display device 1, and includes a component inside the display device 1 to display various images or perform various functions.
- the housing 3 may be integrally formed with the display panel 2 or may be formed of a combination of a front housing and a rear housing.
- the support 4 supports the housing 3.
- the support 4 may have various shapes depending on the designer's selection, and may be omitted if necessary.
- the support 4 can be attached to or detached from the housing 3 as necessary.
- the display panel 2 is installed in front of the housing 3 and can display various images outside. Specifically, the display panel 2 may display at least one or more still images or moving images. The display panel 2 may be implemented using additional components such as a touch panel, if necessary.
- a plurality of pixels are formed on the display panel 2, and an image displayed through the display panel 2 may be formed by a combination of light emitted from the plurality of pixels P.
- a single image I may be formed on the screen 102 by combining light emitted from the plurality of pixels P like a mosaic.
- an image displayed by the display panel 2 may include various user interfaces 10.
- the user interface may include icons and shapes capable of representing various functions of the display device 1.
- UI User Interface
- individual user interfaces included in the user interface will be described using the term UI (User Interface) element 10.
- the user interface displayed by the display device 1 is not necessarily limited to the shape and shape shown in FIG. 1.
- the display device 1 detects the user U and changes the UI element 10 to feed back the user U with a result of detecting a gesture that the user U takes.
- FIG. 2 is a control block diagram of a display device according to an exemplary embodiment.
- the display apparatus 1 includes a user input unit 110 receiving an input command from a user U, a content receiving unit 120 receiving image data from an external source device, and a user U.
- the sensor 130 for detecting a gesture of, and the image data received by the content receiving unit 120 and the input command received by the user input unit 110 are processed, and according to the user's gesture detected by the sensor 130
- a processor 140 that provides feedback, an output unit 150 that outputs images and sounds processed by the processor 140, and a database (DB, 160) that stores data necessary for the operation of the processor 140 Includes.
- the user input unit 110 may include an input button 111 for receiving a user input command.
- the user input unit 110 includes a power button for turning on or off the display device 1, a source selection button for selecting one source device among a plurality of source devices, and an output from the display device 1. It may include a sound control button or the like for adjusting the sound volume.
- the user input command implemented by the input button 111 may be implemented as a user interface, and may be displayed through the UI element 10 instead of the input button.
- the input buttons 111 may each receive a user input and transmit an electrical signal corresponding to the user input to the processor 140, and the display device may be provided by various input means such as a push switch, a touch switch, a dial, a slide switch, and a toggle switch. It can be implemented in the housing 3 of (1).
- the user input unit 110 includes a signal receiving unit 112 for receiving a remote control signal from the remote controller 112a.
- the signal receiver 112 may receive a wireless signal corresponding to a user input from the remote controller 112a and transmit an electrical signal corresponding to the command, that is, an input command transmitted by the remote controller 112a, to the processor 140. .
- the remote controller 112a may be provided separately from the display device 1, receive a user input command, and transmit a wireless signal corresponding to the user input to the display device 1.
- the remote controller 112a may more efficiently transmit a gesture of the user U.
- the user U may operate the remote controller 112a instead of moving the user's hand.
- the display device 1 may recognize a user's gesture based on a difference in a signal transmitted from the remote controller 112a, and adjust the UI element 10 accordingly.
- the content receiving unit 120 may include a wired receiving module 121 for receiving image data from a source device by wire, and a wireless receiving module 122 for receiving image data wirelessly from a source device.
- the source device refers to providing various image data to the display apparatus 1 and may include all various configurations such as a set-top box, an external server, and a repeater of an Internet network.
- the wired reception module 121 may receive image data from a source device through various types of image transmission cables.
- the wired reception module 121 is a component (YPbPr/RGB) cable or a composite (composite video blanking and sync, CVBS) cable, or a High Definition Multimedia Interface (HDMI) cable or a universal serial bus ( Video data can be received from the source device through Universal Serial Bus, USB) cable or Ethernet (Ethernet, IEEE 802.3 technology standard) cable.
- the display apparatus 1 may receive image frame data from the source device.
- the image frame data may represent uncompressed image data as a bit stream representing an image of one frame.
- the wired reception module 121 receives image data through an image transmission cable, the data transmission rate is not limited. Accordingly, the wired reception module 121 may receive the image frame data from the source device as it is.
- the wireless receiving module may receive content from a source device using various wireless communication standards.
- the wireless receiving module 122 uses Wi-Fi (WiFi, IEEE 802.11 technology standard), Bluetooth (Bluetooth, IEEE 802.15.1 technology standard) or ZigBee (ZigBee, IEEE 802.15.4 technology standard), etc.
- image data can be wirelessly received from the source device.
- the wireless reception module 122 may wirelessly receive image data from the source device using CDMA, WCDMA, GSM, Long Term Evolution (LET), WiBro, or the like.
- the display apparatus 1 may receive compressed/encoded image data from the source device.
- the compressed/encoded image data may represent a bit stream in which an image of one frame or an image of a plurality of frames is compressed/encoded.
- video frame data may be compressed/encoded according to video compression standards such as H.264/MPEG-4 AVC (Moving Picture Experts Group-4 Advance Vide Coding) or H.265/HEVC (High Efficiency Video Coding). I can.
- video compression standards such as H.264/MPEG-4 AVC (Moving Picture Experts Group-4 Advance Vide Coding) or H.265/HEVC (High Efficiency Video Coding). I can.
- the compressed/encoded image data may have a smaller capacity (or size) than the original image frame data.
- the wireless reception module 122 wirelessly receives image data, the data transmission rate is limited, and thus the wireless reception module 122 may receive compressed/encoded image data from the source device.
- the content receiver 120 may receive image data from a source device via wire or wirelessly, and transmit the received image data to the processor 140.
- the sensor 130 detects a gesture of the user U.
- the sensor 130 may be a camera 131.
- the camera 131 generates an image (eg, a continuous frame) corresponding to the user's gesture in the camera recognition range.
- the recognition range of the camera 131 may be within 0.1 to 5 m from the display device 1 to the user U.
- the user gesture may include all movements of a user's body part or body part such as a user's face, facial expression, hand, fist, or finger.
- the camera 131 may convert the received image into an electrical signal and transmit it to the processor 140.
- the camera 131 may include a lens (not shown) and an image sensor (not shown).
- the camera 131 may support optical zoom or digital zoom using a plurality of lenses and image processing.
- the recognition range of the camera 131 may be variously set according to the angle of the camera and environmental conditions. When the camera 131 is composed of a plurality of cameras, a 3D still image may be photographed using a plurality of cameras.
- the sensor 130 may further include various sensors capable of determining a user's gesture.
- the sensor 130 may further include various sensors such as an ultrasonic sensor and an IR sensor that sense a distance between the display device 1 and the user U.
- the processor 140 controls the overall operation of the display device 1.
- the processor 140 may control the content receiver 120 to receive image data from a source device, process the received image data, and output the image through the output unit 150. Specifically, the processor 140 may reconstruct the image frame data by decoding the compressed/encoded image data, and may render the image by processing the reconstructed image frame data.
- the processor 140 may display various user interfaces through the output unit 150.
- the display device 1 may perform various functions supported by the Internet network.
- the display device 1 may output, to the plurality of UI elements 10, an application capable of performing various functions received through a network and an embedded function during manufacturing.
- the processor 140 highlights one UI element among the plurality of UI elements 10 based on the user's gesture detected by the sensor 130, or at least two UI elements among the plurality of UI elements 10.
- the output unit 150 may be controlled to sequentially emphasize the elements. Specifically, unlike a conventional display device, the processor 140 does not display a cursor corresponding to a user's gesture. When the user's gesture is detected, the processor 140 highlights the UI element 10 and moves the highlighted UI element 10 to correspond to the movement direction of the gesture, or by moving another UI element displayed in the movement direction. , The result of detecting the user's gesture is fed back. Through this, the user U can easily select a UI element without precisely controlling his or her movement corresponding to the cursor.
- the processor 140 can highlight the UI element by changing at least one of the line, figure, color, or size of the UI element, and various embodiments of changing the UI element 10 will be described later through other drawings below. .
- the output unit 150 includes a display panel 2 that visually displays an image, an image display unit 151 including a display driver (not shown) that drives the display panel 2, and an audio amplifier (not shown) that amplifies sound. City), a speaker (not shown) for aurally outputting the amplified sound, and a sound unit 152 including a microphone (not shown) for collecting ambient sound.
- the display panel 2 may include pixels serving as a unit for displaying an image. Each pixel may receive an electrical signal representing an image from the display driver, and may output an optical signal corresponding to the received electrical signal. An image may be displayed on the display panel 2 by combining optical signals output from a plurality of pixels.
- Display panels are applied to various types of panels such as Liquid Crystal Display Panel (LCD Panel), Light Emitting Diode Panel (LED Panel) or Organic Light Emitting Diode Panel (OLED Panel). It can be implemented by LCD Panel, Light Emitting Diode Panel (LED Panel) or Organic Light Emitting Diode Panel (OLED Panel). It can be implemented by LCD Panel, Light Emitting Diode Panel (LED Panel) or Organic Light Emitting Diode Panel (OLED Panel). It can be implemented by LCD Panel, Light Emitting Diode Panel (LED Panel) or Organic Light Emitting Diode Panel (OLED Panel). It can be implemented by LCD Panel, Light Emitting Diode Panel (LED Panel) or Organic Light Emitting Diode Panel (OLED Panel). It can be implemented by LCD Panel, Light Emitting Diode Panel (LED Panel) or Organic Light Emitting Diode Panel (OLED Panel). It can be implemented by LCD Panel, Light Emitting Diode Panel (LED Panel) or Organic Light Emitting Diode Panel
- the processor 140 may process sound data included in the transmitted image data and convert it into an sound signal.
- the sound unit 152 may amplify the sound signal output through the audio amplifier.
- the speaker may convert the sound signal amplified by the audio amplifier into sound (sound wave).
- the speaker may include a thin film that vibrates according to an electrical sound signal, and a sound wave may be generated by the vibration of the thin film.
- the microphone may collect ambient sound from the display device 1 and convert the collected sound into an electrical sound signal. The acoustic signal collected by the microphone may be transmitted to the processor 140.
- the database 170 may store programs and data for controlling components included in the display device 1 and may store temporary control data issued while controlling components included in the display device 1.
- the database 170 may store a program and data for decoding image data received by the content receiving unit 120 and a program and data for reproducing a stereoscopic image from the decoded image data.
- the database 170 may store temporary image data generated while decoding image data or while rendering a stereoscopic image.
- the database 170 may store various ergonomic information that can be used to display or adjust the UI element 10. In terms of ergonomics, the maximum range of one arm that the user U can move in a comfortable position is 80 cm. The database 170 stores a range of movement of the arm corresponding to the size of the user U sensed by the sensor 130. When the user U is detected, the database 170 may provide arm length information to the processor 140. The processor 140 may determine the size and position of the UI element 10 based on the transmitted arm length, and display the UI element 10 through the output unit 150.
- the database 170 stores information on the viewing angle of the user U.
- the viewing angle is the maximum cognitive area of 30 degrees from the center of both eyes of the user.
- the database 170 transmits the viewing angle of the user U corresponding to the distance between the display device 1 detected by the sensor 130 and the user U to the processor 140.
- the processor 140 determines the size and position of the UI element 10 based on the transmitted viewing angle, and displays the UI element 10 through the output unit 150.
- the database 170 includes a nonvolatile memory such as a ROM (Read Only Memory) and a flash memory for storing data for a long period of time, and a static random access memory (S-RAM) (S-RAM) and D for temporarily storing data.
- a nonvolatile memory such as a ROM (Read Only Memory) and a flash memory for storing data for a long period of time
- S-RAM static random access memory
- -It may be provided as a volatile memory such as a dynamic random access memory (RAM).
- the database 170 may be a memory implemented as a separate chip from the processor 140, or may be implemented as a single chip with the processor 140.
- the display device 1 may further include various configurations in addition to the above-described configurations.
- 3 to 5 are diagrams for explaining the operation of the display device. It will be described together below in order to avoid redundant description.
- the display device 1 may display a plurality of UI elements 11 to 16.
- the plurality of UI elements 11 to 16 may be implemented in various shapes, including an icon that allows a function to be guessed.
- the display device 1 is changed to a mode in which UI elements 11 to 16 can be selected according to an input command of the user U.
- the display device 1 detects the user U through the sensor 130 and determines the size and position of the UI elements 11 to 16 in correspondence with the distance to the user U, the viewing angle, and the length of the arm.
- the display device 1 displays the UI elements 11 to 16 as shown in FIG. 3 based on the determined size and position of the UI elements 11 to 16.
- the UI elements 11 to 16 are not necessarily limited to the shape shown in FIG. 3, and may have various shapes and arrangement structures.
- the display device 1 detects a gesture of a user U.
- the user U may take a motion of raising the right arm.
- a conventional display device displays a cursor corresponding to a user's gesture.
- the disclosed display device 1 does not display UI elements such as a cursor.
- the display device 1 recognizes a position corresponding to the user's gesture.
- the result of recognizing the user's gesture by the display device 1 is described as a virtual cursor 5.
- the display device 1 highlights a result of recognizing a user's gesture, that is, a UI element closest to the position of the virtual cursor 5 and a second UI element 12.
- the display device 1 highlights the second UI element 12 by changing the second UI element 12 to a shape larger than the displayed size, changing the color inside the layer, or moving the shape of the icon. can do.
- the user U can receive feedback of his or her gesture recognized by the display device 1 without moving the cursor.
- the user U can take an additional gesture from the highlighted UI element 12, it may not be required to move the cursor precisely.
- 6A to 6C are diagrams for explaining a reference required for an operation of a display device. It will be described together below in order to avoid redundant description.
- the UI element 10 may include a border 10a, a center point 10b of the UI element 10, and a boundary 10c of the UI element.
- the boundary 10c of the UI element has a preset width in proportion to the size of the UI element 10 to be displayed.
- the display device 1 determines whether to highlight the UI element 10 based on the distance between the virtual cursor 5 and the center point of the UI element 10. As described above in FIGS. 3 to 5, the display device 1 does not display a specific cursor. Accordingly, as soon as the display device 1 detects a specific gesture of the user U, it highlights the UI element closest to the position corresponding to the gesture of the user (the position of the virtual cursor).
- the display device 1 calculates the distance between the position of the virtual cursor 5 and the center point of the plurality of UI elements 11 to 16.
- the display device 1 highlights the UI element having the closest calculated distance.
- the UI element having a center point closest to the position of the virtual cursor 5 may be the fourth UI element 14.
- the display device 1 emphasizes the fourth UI element 14.
- the display device 1 may highlight a UI element selected from among the plurality of UI elements as shown in FIG. 6C.
- the display device 1 may change the size of the border 10a of the UI element and the icon included in the border.
- the display device 1 may move the UI element 10 to a position corresponding to the virtual cursor 5.
- the distance that the UI element 10 moves is based on the distance d between the center point 10b and the virtual cursor 5, and even if the edge 10a of the UI element moves, the location of the center point 10b is the UI element. Do not deviate from the boundary (10c) of.
- FIGS. 7 to 9 are diagrams of a specific embodiment of moving an highlighted UI element. It will be described together below in order to avoid redundant description.
- the display device 1 displays the highlighted UI element 12 and detects an additional gesture of the user.
- the user U may move his hand clockwise from the position of his right hand.
- the display device 1 calculates a range of movement of a user's gesture and a direction of movement in the detected maximum range of the arm of the user U.
- the display device 1 moves the highlighted second UI element 12 clockwise as shown in FIG. 7.
- the second UI element 12 is moved so that the center point 10b does not deviate from the boundary 10c of the UI element, and the icon 12d of the second UI element can also be moved within the frame 10a. .
- the display device 1 may detect an additional gesture of a user moving in a larger range.
- the virtual cursor 5 corresponding to the movement of the user U may deviate from the boundary 10c of the UI element of the second UI element 12.
- the virtual cursor 5 is closer to the third UI element 13 than the highlighted second UI element 12, it means that the movement of the hand among the gestures of the user U is changed to a certain distance or more. In this case, the display device 1 moves the emphasis to the third UI element 13.
- the display device 1 moves the highlighted second UI element 12 to the third UI element 13 as shown in FIG. 8A.
- the display device 1 displays a color of only a certain area of the highlighted second UI element 12 in a dark color, and displays a color of a certain area of the third UI element 13 in a dark color.
- the display device 1 moves the second UI element 12 to its original position, changes the size of the third UI element 13, and completely changes the color. .
- the display device 1 may provide feedback on the movement of the gesture to the user by sequentially changing the color of the emphasized second UI element 12 and the color of the third UI element 13. have.
- the second UI element 12 and the third UI element 13 may be displayed at a sufficient distance from each other and spaced apart from each other at a preset interval. After the second UI element 12 is highlighted, the display device 1 may detect the direction of movement of the user U as shown in FIG. 8.
- the display device 1 may move the highlighted second UI element 12 to the third UI element 13.
- the virtual cursor 5 may be positioned between the boundary 12c of the second UI element 12 and the boundary 13c of the third UI element 13.
- the display device 1 changes the color of the emphasized second UI element 12.
- the display device 1 changes the size and color of the third UI element 13 while simultaneously moving the third UI element 13 to a position corresponding to the virtual cursor 5. I can.
- the emphasized second UI element 12 and the emphasized third UI element 13 emphasize a color only in a certain area, so that the user U can feed back the current movement path of the gesture.
- the display device 1 releases the emphasis on the second UI element 12. In addition, the display device 1 moves the second UI element 12 back to its original position. The display device 1 further emphasizes the moved third UI element 13.
- FIGS. 10A and 10B are diagrams for explaining an embodiment of emphasizing a UI element. It will be described together below in order to avoid redundant description.
- the UI element 20 may include a plurality of layers 22 to 23 surrounding an icon (not shown).
- the plurality of layers 22 to 24 may be moved and rotated relative to the position of the virtual cursor 5.
- the UI element 20 includes a first layer 22 skewed to the lower right of the center point 20b, a second layer 23 having the longest circumference, and a third layer skewed to the upper left ( 24).
- the first layer 22 closest to the moved virtual cursor 5 may be adjusted while having the largest rotation angle.
- the second layer 23 may have a large movement and rotation angle, and the movement and rotation angle of the third layer 24 located farthest from the moved virtual cursor 5 may be the smallest.
- 10B shows the UI element 20 including the icon 21.
- 10B(a) is a state in which the UI element 20 is not highlighted. Based on the user's gesture, the UI element 20 may be emphasized as shown in b) of FIG. 10B. Specifically, the icon 21 of the UI element 20 is changed to a large size, and a plurality of layers 22 to 24 are generated. When an additional gesture of the user is detected, the changed icon 21 is rotated in the UI element 20, and each of the layers 22 to 24 rotates while having a different rotation angle.
- the user U can easily check the result of recognizing the gesture by the display device 1, and can easily receive feedback of an additional gesture through the highlighted UI element 20.
- the display device 1 includes the position of the UI element 10 displayed based on at least one of the length of the arm of the user U, the viewing angle of the user U, or the distance between the user U and the display device. You can adjust the size.
- the display device 1 can adjust the size and position of the UI element 10 displayed according to the distance from the user, and adjust the size and position of the UI element 10 according to the viewing angle of the user U. .
- the display device 1 adjusts the size and position of the UI element 10 to the length of the user U's arm.
- the display device 1 may adjust the size and position of the UI element 10 based on the distance and viewing angle from the user, and the size of the UI element 10 based on the distance from the user and the length of the user's arm. And it is also possible to adjust the position.
- the display device 1 may adjust the size and position of the UI element 10 in consideration of all of the distance to the user, the viewing angle, and the length of the user's arm.
- 11 and 12 are diagrams for explaining a method of displaying a UI element that is changed according to the length of a user's arm. It will be described together below in order to avoid redundant description.
- the display device 1 detects a user U through a sensor 130.
- the camera 131 may photograph the user U.
- the user U may have various arm lengths according to physical conditions. For example, the length of the arm of the user U having an adult body as shown in FIG. 11 is different from the length of the arm of the user U'having a minor body as shown in FIG. 12.
- the user U with a long arm has a wider range than the user U'of FIG. 12 in which the UI element can be manipulated. If the UI elements 11 to 16 displayed for the user U of FIG. 11 are displayed to the user U'of FIG. 12, the user U'may be inconvenient to operate.
- the display device 1 analyzes the distance to the user U and the captured image, and then determines the length of the arm of the current user U. If the length of the user U's arm exceeds a preset range, for example, 60 cm, the display device 1 may arrange the size of the plurality of UI elements 11 to 16 to have a small and wide spacing. have.
- the display device 1 may arrange a plurality of UI elements 11 to 16 to have a narrower interval compared to FIG. 11.
- the display device 1 does not require the user's movement to an area outside the range of motion of the hand, it is possible to reduce the difficulty of operation and the degree of fatigue.
- FIG. 13 and 14 are diagrams for explaining a method of displaying a UI element that is changed according to a viewing angle. It will be described together below in order to avoid redundant description.
- the database 170 stores information on the viewing angle of the user U. According to the ergonomic characteristics, the display device 1 sets a person's viewing angle to 30°. The display device 1 adjusts the size of the displayed plurality of UI elements 11 to 16 in consideration of the viewing angle according to the distance from the user U. Through this, when the user makes a gesture, it is possible to select and change the UI element 10 with only a minimum of motion.
- information on the viewing angle stored in the database 170 may be changed by a user's input, and is not necessarily limited to 30°.
- the display device 1 photographs the user U, and the user U turns his head and looks at the upper right corner.
- the display device 1 may detect that the user U is located diagonally instead of in front.
- the display device 1 may display the plurality of UI elements 11 to 16 at the top of the display instead of at the center.
- the display device 1 may display a plurality of UI elements 11 to 16 according to the user's position, while considering the viewing angle and the length of the arm together. That is, when the user looks at the display device 1 and is located close to the display device 1 at the same time as shown in FIG. 14, the display device 1 is The positions and sizes of the elements 11 to 16 can be changed and displayed. Through this, the user (U) can perform the minimum operation to change the UI element, thereby reducing the degree of difficulty and fatigue.
- 15 to 17 are diagrams of an embodiment of activating a UI element. It will be described together below in order to avoid redundant description.
- the display device 1 may detect a gesture of the user U and highlight the first UI element 11. By changing the size of the first UI element 11 as shown in FIG. 15, the display device 1 indicates that the area corresponding to the position of the current user U's hand corresponds to the position of the first UI element 11. Feedback.
- the display device 1 activates the first UI element 11. That is, the emphasized first UI element 11 is only changed to replace the role of the cursor for the user's gesture, but does not mean that the first UI element 11 is selected.
- the display device 1 When the user U is grasped through the sensor 130, the display device 1 activates the first UI element 11. For example, if the first UI element 11 is a user interface for controlling the sound and sound unit 152, the display device 1 is switched to a user interface screen that displays sound output as numbers.
- the display device 1 may detect a gesture of moving a hand held by the user U.
- the display apparatus 1 may feed back the user U that the degree of sound output is changed by changing the number displayed on the top of the icon 11a based on the movement direction of the hand of the hand.
- FIGS. 15 to 17 are only examples of activating the UI element, and the UI element may be activated by various gestures.
- the user interface displayed by the activated UI element may also vary.
- FIG. 18 is a flowchart illustrating a method of controlling a display device according to an exemplary embodiment.
- the display device 1 detects a user (200).
- the display device 1 may detect a user through the sensor 130, and the sensor 130 according to an exemplary embodiment may use the camera 131.
- the display device 1 displays the UI element 10 (210).
- the displayed UI element 10 may be at least one or more, and is a user interface in which various functions provided by the display device 1 are formed.
- the display device 1 detects a user's gesture (220) and highlights the UI element 10 (230).
- the display device 1 emphasizes the UI element 10 by changing at least one of a size, a position, and a color.
- the UI element 100 may change the size and shape of the icon or change the rotation angle of a plurality of layers.
- the display device 1 detects an additional gesture of the user (240) and changes the highlighted UI element 10 (240).
- the display device 1 may move the UI element 10 based on the movement of the gesture.
- the UI element 10 may include a plurality of layers 22 to 24 and an icon 21.
- the UI element 10 may include a preset boundary 10c. When the virtual cursor 5 corresponding to the user's gesture moves near the border 10c of the UI element 10 that is highlighted, the position of the icon 21 of the UI element 10 can be moved near the border.
- the emphasis of the UI element 10 may be released and moved to the original position.
- 19 is a flowchart illustrating a method of controlling a display according to another exemplary embodiment.
- the display device 1 emphasizes the first UI element 11 (300 ).
- the display device 1 may display a plurality of UI elements 11 to 16. When detecting the user's gesture, the display device 1 highlights the first UI element 11 at a position closest to the position corresponding to the gesture.
- the display device 1 detects an additional gesture of the user (310) and moves the highlighted first UI element 11 (320).
- the additional gesture may be a movement having a user's direction.
- the center point 10a of the moving first UI element 11 does not deviate from the boundary 10c.
- the virtual cursor 5 corresponding to the user's gesture may enter the boundary 12c of the second UI element while leaving the boundary 10c of the first UI element (330).
- the display device 1 moves the second UI element 12 (340) and changes the colors of the first UI element 11 and the moved second UI element 12 (350).
- the display device 1 may display a color of only a certain area of the first UI element 11 in a dark color, and may display a color of only a certain area of the second UI element 12 in a dark color.
- the virtual cursor 5 corresponding to the user's gesture may enter the boundary of the second UI element 12 (360).
- the meaning of entering the boundary is that the center point 12a of the second UI element 12 moved in correspondence with the position of the virtual cursor 5 is located inside the boundary 12c of the second UI element.
- the display device 1 releases and moves the emphasis of the first UI element 11 (370 ), and highlights the moved second UI element 12 (380 ).
- the display apparatus 1 omits the result of recognizing the user's gesture and provides feedback through a change in the user interface, thereby reducing the user's concentration and reducing fatigue.
- the display device 1 provides a quick coordinate recognition and a simple provision method by providing ease of selection of a user interface.
- the display device 1 may provide convenience by changing the size and position of the user interface according to the user's distance and the viewing angle and the length of the arm.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
개시된 실시예는 커서와 같은 표시자를 사용하지 않고, 사용자의 제스처에 대한 피드백을 표시하는 디스플레이 장치 및 디스플레이 장치의 제어방법에 관한 것이다.Disclosed embodiments relate to a display device that displays feedback on a user's gesture without using an indicator such as a cursor, and a control method of the display device.
일반적으로, 디스플레이 장치는 수신되거나 또는 저장된 영상 정보를 사용자에게 시각적으로 표시하는 출력 장치이며, 가정이나 사업장 등 다양한 분야에서 이용되고 있다. 예를 들어, 디스플레이 장치는 개인용 컴퓨터 또는 서버용 컴퓨터 등에 연결된 모니터 장치나, 휴대용 컴퓨터 장치나, 내비게이션 단말 장치나, 일반 텔레비전 장치나, 인터넷 프로토콜 텔레비전(IPTV, Internet Protocol television) 장치나, 스마트 폰, 태블릿 PC(Personal Computer), 개인용 디지털 보조 장치(PDA, Personal Digital Assistant), 또는 셀룰러 폰 등의 휴대용 단말 장치나, 산업 현장에서 광고나 영화 같은 화상을 재생하기 위해 이용되는 각종 디스플레이 장치나, 또는 이외 다양한 종류의 오디오/비디오 시스템 등이 있다.In general, a display device is an output device that visually displays received or stored image information to a user, and is used in various fields such as homes and businesses. For example, the display device is a monitor device connected to a personal computer or a server computer, a portable computer device, a navigation terminal device, a general television device, an Internet Protocol television (IPTV) device, a smart phone, a tablet. Personal computer (PC), personal digital assistant (PDA, Personal Digital Assistant), portable terminal device such as a cellular phone, various display devices used to reproduce images such as advertisements or movies in industrial sites, or various other devices There are kinds of audio/video systems and so on.
최근에는 디지털 방송 기능에 더하여 다양한 컨텐츠를 제공하는 디스플레이가 개발되고 있다. 이러한 디스플레이는 다양한 컨텐츠와 관련된 사용자 인터페이스를 표시하고, 사용자의 조작에 의해서 표시된 사용자 인터페이스를 선택할 수 있도록 한다. Recently, displays that provide various contents in addition to digital broadcasting functions have been developed. Such a display displays a user interface related to various contents, and allows a user interface displayed by a user's manipulation to be selected.
한편, 종래 디스플레이는 화면 상에 커서를 표시하는 방식을 통해서 사용자에게 사용자 인터페이스로의 선택을 유도하였다. 종래 디스플레이는 사용자의 제스처를 인식하고, 사용자의 제스처를 통해 화면에 커서를 이동시킴으로써 피드백을 수행하였다. 그러나 이러한 방식은 사용자에게 정밀한 제어를 요구하였고, 커서가 사용자가 원하는 위치로 이동하지 않을 경우, 사용자가 수 차례 제스처를 취해야 하는 불편함이 있었다.Meanwhile, the conventional display induces the user to select a user interface through a method of displaying a cursor on the screen. In the conventional display, feedback is performed by recognizing a user's gesture and moving a cursor on the screen through the user's gesture. However, this method requires precise control from the user, and when the cursor does not move to the desired position, the user has to make a gesture several times.
또한, 종래 디스플레이는 사용자와 장치 사이의 거리를 고려하지 않고 사용자의 제스처를 감지하였으므로, 사용자와의 거리에 따라 동일한 커서의 이동 감도 및 동일한 크기의 사용자 인터페이스를 제공하였다.In addition, since the conventional display detects the user's gesture without considering the distance between the user and the device, the same cursor movement sensitivity and the same size of the user interface are provided according to the distance from the user.
개시된 일 측면은, 커서와 같이 사용자의 제스처를 인식한 결과물을 생략하고, 사용자 인터페이스의 변경을 통한 피드백을 제공함으로써, 사용자의 집중도를 줄이고 피로를 감소시키는 디스플레이 장치 및 제어방법을 제공한다.An aspect disclosed is a display device and a control method for reducing user's concentration and reducing fatigue by omitting a result of recognizing a user's gesture such as a cursor and providing feedback through a change in a user interface.
개시된 일 실시예에 따른 디스플레이 장치는, 사용자의 제스처를 감지하는 센서; UI (User Interface)엘리먼트를 표시하는 디스플레이; 및 상기 사용자의 제스처에 기초하여 제1 UI엘리먼트를 강조시키고, 상기 제스처의 움직임 방향에 기초하여 상기 강조된 제1 UI엘리먼트가 이동하거나, 상기 움직임 방향에 대응하는 제2 UI엘리먼트가 상기 제1 UI엘리먼트로 이동하여 표시하도록 상기 디스플레이를 제어하는 프로세서;를 포함한다.The display device according to the disclosed embodiment includes a sensor for detecting a user's gesture; A display for displaying a UI (User Interface) element; And a first UI element is emphasized based on the user's gesture, and the highlighted first UI element is moved based on the movement direction of the gesture, or a second UI element corresponding to the movement direction is selected from the first UI element. And a processor that controls the display to move to and display.
상기 프로세서는, 상기 제1 UI엘리먼트 및 상기 제2 UI엘리먼트에 미리 설정된 경계를 각각 설정하고, 상기 사용자의 제스처 및 상기 미리 설정된 경계에 기초하여 상기 강조된 제1 UI엘리먼트를 이동시킬 수 있다.The processor may set a preset boundary on the first UI element and the second UI element, respectively, and move the highlighted first UI element based on the user's gesture and the preset boundary.
상기 프로세서는, 상기 제스처의 움직임이 상기 제1 UI엘리먼트의 미리 설정된 경계를 벗어나면, 상기 제1 UI엘리먼트의 강조를 해제하고, 상기 이동된 제1 UI엘리먼트를 복귀시킬 수 있다.When the movement of the gesture deviates from a preset boundary of the first UI element, the processor may release the emphasis of the first UI element and restore the moved first UI element.
상기 프로세서는, 상기 제스처의 움직임이 상기 제1 UI엘리먼트의 미리 설정된 경계를 벗어나고 상기 제2 UI엘리먼트의 미리 설정된 경계로 진입하면, 상기 제2 UI엘리먼트를 강조할 수 있다.When the movement of the gesture deviates from a preset boundary of the first UI element and enters a preset boundary of the second UI element, the processor may highlight the second UI element.
상기 프로세서는, 상기 제스처의 움직임이 상기 제1 UI엘리먼트의 미리 설정된 경계를 벗어나고 상기 제2 UI엘리먼트의 미리 설정된 경계로 진입하면, 상기 강조된 제1 UI엘리먼트의 색상 및 상기 제2 UI엘리먼트의 색상을 순차적으로 변화시킬 수 있다.When the movement of the gesture deviates from a preset boundary of the first UI element and enters a preset boundary of the second UI element, the processor determines the color of the highlighted first UI element and the color of the second UI element. It can be changed sequentially.
상기 프로세서는, 상기 사용자의 제스처의 위치 및 상기 복수 개의 UI엘리먼트의 중심점에 기초하여 상기 제1 UI엘리먼트를 강조할 수 있다.The processor may highlight the first UI element based on the location of the user's gesture and a center point of the plurality of UI elements.
상기 적어도 하나의 UI엘리먼트는, 상기 복수 개의 레이어 및 아이콘을 포함하고, 상기 복수 개의 레이어의 회전 또는 이동에 기초하여 상기 제1 UI엘리먼트를 강조하거나, 상기 아이콘의 크기 또는 모양에 기초하여 상기 제1 UI엘리먼트를 강조할 수 있다.The at least one UI element includes the plurality of layers and icons, and highlights the first UI element based on rotation or movement of the plurality of layers, or the first UI element based on the size or shape of the icon. UI elements can be emphasized.
상기 프로세서는, 상기 사용자의 제스처에 기초하여 상기 복수 개의 레이어 중 제1 레이어의 회전 각도와 제2 레이어의 회전 각도를 다르게 변경할 수 있다.The processor may differently change the rotation angle of the first layer and the second layer among the plurality of layers based on the user's gesture.
상기 프로세서는, 상기 사용자의 팔의 길이, 상기 사용자의 시야각 또는 상기 사용자와 상기 디스플레이 장치 간의 거리 중 적어도 하나에 기초하여 상기 제1 UI엘리먼트 및 상기 제2 UI엘리먼트가 표시되는 위치를 결정할 수 있다.The processor may determine a position at which the first UI element and the second UI element are displayed based on at least one of a length of the user's arm, a viewing angle of the user, or a distance between the user and the display device.
상기 프로세서는, 상기 사용자의 팔의 길이에 기초하여 상기 제1 UI엘리먼트 및 상기 제2 UI엘리먼트가 가 표시되는 크기 및 위치를 결정할 수 있다.The processor may determine a size and a position at which the first UI element and the second UI element are displayed based on the length of the user's arm.
상기 프로세서는, 상기 사용자와 상기 디스플레이 장치 간의 거리 및 상기 사용자의 시야각에 기초하여 상기 제1 UI엘리먼트 및 상기 제2 UI엘리먼트가 표시되는 위치 및 크기를 결정할 수 있다.The processor may determine a position and a size at which the first UI element and the second UI element are displayed based on a distance between the user and the display device and a viewing angle of the user.
상기 프로세서는, 상기 사용자의 움켜짐 동작에 기초하여 상기 강조된 제1 UI엘리먼트를 활성화시킬 수 있다.The processor may activate the highlighted first UI element based on the user's gripping operation.
상기 프로세서는, 상기 사용자의 움켜짐과 함께 손의 움직임을 감지하면, 상기 활성된 제1 UI엘리먼트의 설정값을 조정할 수 있다.The processor may adjust a setting value of the activated first UI element when detecting the movement of the hand while the user is grasping.
상기 프로세서는, 상기 제1 UI엘리먼트의 선, 도형, 색상 또는 크기 중 적어도 하나에 기초하여 상기 제1 UI엘리먼트를 강조할 수 있다.The processor may highlight the first UI element based on at least one of a line, a figure, a color, or a size of the first UI element.
개시된 다른 실시예에 따른 디스플레이 장치는, 사용자의 제스처를 감지하는 센서; UI (User Interface)엘리먼트를 표시하는 디스플레이; 및 상기 사용자의 제스처에 기초하여 상기 제1 UI엘리먼트를 강조하고, 상기 제스처의 움직임 방향에 기초하여 상기 강조된 제1 UI엘리먼트로 제2 UI엘리먼트를 이동시키는 프로세서;를 포함한다.A display device according to another disclosed embodiment includes a sensor for detecting a user's gesture; A display for displaying a UI (User Interface) element; And a processor that highlights the first UI element based on the user's gesture and moves the second UI element to the highlighted first UI element based on the movement direction of the gesture.
개시된 또 다른 실시예에 따른 디스플레이 장치의 제어방법은, 사용자의 제스처를 감지하고; UI (User Interface)엘리먼트를 표시하고; 상기 사용자의 제스처에 기초하여 제1 UI엘리먼트를 강조시키고; 및 상기 제스처의 움직임 방향에 기초하여 상기 강조된 제1 UI엘리먼트가 이동하거나, 상기 움직임 방향에 대응하는 제2 UI엘리먼트가 상기 제1 UI엘리먼트로 이동하도록 상기 디스플레이를 제어하는 것;을 포함한다.According to another disclosed embodiment, a method of controlling a display device includes: detecting a user's gesture; Display a UI (User Interface) element; Highlighting the first UI element based on the user's gesture; And controlling the display such that the highlighted first UI element moves or a second UI element corresponding to the movement direction moves to the first UI element based on the movement direction of the gesture.
상기 제어하는 것은, 상기 제1 UI엘리먼트 및 상기 제2 UI엘리먼트에 미리 설정된 경계를 각각 설정하고, 상기 사용자의 제스처 및 상기 미리 설정된 경계에 기초하여 상기 강조된 제1 UI엘리먼트를 이동시키는 것;을 포함할 수 있다.The controlling includes: setting a preset boundary for each of the first UI element and the second UI element, and moving the highlighted first UI element based on the user's gesture and the preset boundary; can do.
상기 제어하는 것은, 상기 제스처의 움직임이 상기 제1 UI엘리먼트의 미리 설정된 경계를 벗어나면, 상기 제1 UI엘리먼트의 강조를 해제하고, 상기 이동된 제1 UI엘리먼트를 복귀시키는 것;을 포함할 수 있다.The controlling may include, when the movement of the gesture deviates from a preset boundary of the first UI element, canceling the emphasis of the first UI element and returning the moved first UI element; have.
상기 제어하는 것은, 상기 제스처의 움직임이 상기 제1 UI엘리먼트의 미리 설정된 경계를 벗어나고 상기 제2 UI엘리먼트의 미리 설정된 경계로 진입하면, 상기 제2 UI엘리먼트를 강조하는 것;을 포함할 수 있다.The controlling may include highlighting the second UI element when the movement of the gesture deviates from a preset boundary of the first UI element and enters a preset boundary of the second UI element.
상기 제어하는 것은, 상기 제스처의 움직임이 상기 제1 UI엘리먼트의 미리 설정된 경계를 벗어나고 상기 제2 UI엘리먼트의 미리 설정된 경계로 진입하면, 상기 강조된 제1 UI엘리먼트의 색상 및 상기 제2 UI엘리먼트의 색상을 순차적으로 변화시키는 것;을 포함할 수 있다.The controlling is, when the movement of the gesture deviates from a preset boundary of the first UI element and enters a preset boundary of the second UI element, the highlighted color of the first UI element and the color of the second UI element To sequentially change; may include.
개시된 일 측면에 따른 디스플레이 장치 및 제어방법은 사용자의 제스처를 인식한 결과물을 생략하고, 사용자 인터페이스의 변경을 통한 피드백을 제공함으로써, 사용자의 집중도를 줄이고 피로를 감소시킨다.A display device and a control method according to an aspect of the disclosure omit a result of recognizing a user's gesture and provide feedback through a change in a user interface, thereby reducing a user's concentration and reducing fatigue.
다른 측면에 따른 디스플레이 장치 및 제어방법은 제스처를 통해 사용자에게 사용자 인터페이스의 선택의 용이함을 제공함으로써, 빠른 좌표 인식 및 간편한 제공 방법을 제공한다.A display device and a control method according to another aspect provide a user with ease of selection of a user interface through a gesture, thereby providing a quick coordinate recognition and a simple provision method.
또 다른 측면에 따른 디스플레이 장치 및 제어방법은 사용자의 거리, 시야각 팔의 길이에 따라 사용자 인터페이스의 크기 및 위치를 변화시킴으로써, 편리성을 제공할 수 있다.The display device and the control method according to another aspect may provide convenience by changing the size and position of the user interface according to the distance of the user and the length of the viewing angle arm.
도 1은 일 실시예에 따른 디스플레이 장치를 도시한 도면이다.1 is a diagram illustrating a display device according to an exemplary embodiment.
도 2는 개시된 일 실시예에 따른 디스플레이 장치의 제어 블록도이다.2 is a control block diagram of a display device according to an exemplary embodiment.
도 3 내지 도 5는 디스플레이 장치의 동작을 설명하기 위한 도면이다.3 to 5 are diagrams for explaining the operation of the display device.
도 6a 내지 도 6c는 디스플레이 장치의 동작에 필요한 기준을 설명하기 위한 도면이다.6A to 6C are diagrams for explaining a reference required for an operation of a display device.
도 7 내지 도 9는 강조된 UI엘리먼트를 이동시키는 구체적인 실시예에 관한 도면이다.7 to 9 are diagrams of a specific embodiment of moving an highlighted UI element.
도 10a 및 도 10b는 UI엘리먼트를 강조시키는 실시예를 설명하기 위한 도면이다.10A and 10B are diagrams for explaining an embodiment of emphasizing a UI element.
도 11 및 도 12는 사용자의 팔의 길이에 따라 변경되는 UI엘리먼트의 표시 방법을 설명하기 위한 도면이다.11 and 12 are diagrams for explaining a method of displaying a UI element that is changed according to the length of a user's arm.
도 13 및 도 14는 시야각에 따라 변경되는 UI엘리먼트의 표시 방법을 설명하기 위한 도면이다.13 and 14 are diagrams for explaining a method of displaying a UI element that is changed according to a viewing angle.
도 15 내지 도 17은 UI엘리먼트를 활성화시키는 실시예에 관한 도면이다.15 to 17 are diagrams of an embodiment of activating a UI element.
도 18은 일 실시예에 따른 디스플레이 장치의 제어방법을 설명하기 위한 순서도이다.18 is a flowchart illustrating a method of controlling a display device according to an exemplary embodiment.
도 19는 다른 실시예에 따른 디스플레이의 제어방법을 설명하기 위한 순서도이다.19 is a flowchart illustrating a method of controlling a display according to another exemplary embodiment.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.The same reference numerals refer to the same elements throughout the specification. This specification does not describe all elements of the embodiments, and general content in the technical field to which the present invention belongs or overlapping content between the embodiments will be omitted. The term'unit, module, member, block' used in the specification may be implemented in software or hardware, and according to embodiments, a plurality of'units, modules, members, blocks' may be implemented as one component, It is also possible for one'unit, module, member, block' to include a plurality of components.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be "connected" with another part, this includes not only the case of being directly connected, but also the case of indirect connection, and the indirect connection includes connection through a wireless communication network. do.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be positioned "on" another member, this includes not only the case where a member is in contact with the other member, but also the case where another member exists between the two members.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from other components, and the component is not limited by the above-described terms.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions, unless the context clearly makes exceptions.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.In each step, the identification code is used for convenience of explanation, and the identification code does not describe the order of each step, and each step may be implemented differently from the specified order unless a specific sequence is clearly stated in the context. have.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 일 실시예에 따른 디스플레이 장치를 도시한 도면이다.1 is a diagram illustrating a display device according to an exemplary embodiment.
도 1을 참조하면, 디스플레이 장치(1)는 디스플레이 패널(2)과 디스플레이 패널(2)을 지지하는 하우징(3) 및 지지대(4)를 포함할 수 있다.Referring to FIG. 1, the
하우징(3)은 디스플레이 장치(1)의 외장을 형성하며, 내측에 디스플레이 장치(1)가 각종 화상을 표시하거나 또는 각종 기능을 수행할 수 있도록 하기 위한 부품을 내장시킨다. 하우징(3)은 디스플레이 패널(2)과 일체형으로 형성될 수도 있고, 전면 하우징 및 배면 하우징의 조합으로 이루어진 것일 수도 있다.The housing 3 forms an exterior of the
지지대(4)는 하우징(3)을 지지한다. 지지대(4)는, 설계자의 선택에 따라서, 다양한 형상을 가질 수 있으며, 필요에 따라서 생략될 수도 있다. 지지대(4)는 필요에 따라서 하우징(3)에 부착되거나 또는 이탈될 수 있다. The
디스플레이 패널(2)은, 하우징(3)의 정면에 설치되고 각종 화상을 외부에 표시할 수 있다. 구체적으로 디스플레이 패널(2)은 정지 화상 또는 동화상을 적어도 하나 이상 표시할 수 있다. 디스플레이 패널(2)은 필요에 따라서 터치 패널 등과 같이 별도의 부품을 더 이용하여 구현될 수 있다.The
디스플레이 패널(2)에는 복수의 픽셀이 형성되며, 디스플레이 패널(2)을 통해서 표시되는 영상은 복수의 픽셀(P)로부터 출사된 광의 조합에 의하여 형성될 수 있다. 예를 들어, 복수의 픽셀(P)이 방출하는 광이 모자이크(mosaic)와 같이 조합됨으로써 스크린(102) 상에 하나의 영상(I)이 형성될 수 있다.A plurality of pixels are formed on the
도 1에 도시된 것처럼, 디스플레이 패널(2)이 표시하는 영상은 다양한 사용자 인터페이스(10)를 포함할 수 있다. 사용자 인터페이스는 디스플레이 장치(1)의 여러 기능을 나타낼 수 있는 아이콘 및 형상을 포함할 수 있다. 이하에서는 사용자 인터페이스에 포함되는 개별적인 사용자 인터페이스를 UI(User Interface)엘리먼트(10)라는 용어를 사용하여 설명한다. 한편, 디스플레이 장치(1)가 표시하는 사용자 인터페이스가 반드시 도 1에 도시된 형상 및 모양에만 한정되는 것은 아니다.As shown in FIG. 1, an image displayed by the
디스플레이 장치(1)는 사용자(U)를 감지하고, UI엘리먼트(10)를 변경시킴으로써, 사용자(U)가 취하는 제스처를 감지한 결과를 사용자(U)에게 피드백한다.The
도 2는 개시된 일 실시예에 따른 디스플레이 장치의 제어 블록도이다.2 is a control block diagram of a display device according to an exemplary embodiment.
도 2를 참조하면, 디스플레이 장치(1)는 사용자(U)로부터 입력 명령을 수신하는 사용자 입력부(110)와, 외부의 소스 디바이스로부터 영상 데이터를 수신하는 컨텐츠 수신부(120)와, 사용자(U)의 제스처를 감지하는 센서(130)와, 컨텐츠 수신부(120)에 의하여 수신된 영상 데이터 및 사용자 입력부(110)에 의해서 수신된 입력 명령을 처리하고, 센서(130)가 감지한 사용자의 제스처에 따른 피드백을 제공하는 프로세서(140)와, 프로세서(140)에 의하여 처리된 영상 및 음향을 출력하는 출력부(150)와, 프로세서(140)의 동작에 필요한 데이터를 저장하는 데이터 베이스(DB, 160)을 포함한다.Referring to FIG. 2, the
사용자 입력부(110)는 사용자 입력 명령을 수신하는 입력 버튼(111)을 포함할 수 있다. 예를 들어, 사용자 입력부(110)는 디스플레이 장치(1)를 턴온 또는 턴오프시키기 위한 전원 버튼, 복수의 소스 디바이스 중 하나의 소스 디바이스를 선택하기 위한 소스 선택 버튼, 디스플레이 장치(1)가 출력하는 음향 볼륨을 조절하기 위한 음향 조절 버튼 등을 포함할 수 있다.The
입력 버튼(111)이 구현하는 사용자 입력 명령은 사용자 인터페이스로써 구현될 수 있으며, UI엘리먼트(10)를 통해 입력 버튼 대신, 표시될 수 있다.The user input command implemented by the
입력 버튼(111)은 각각 사용자 입력을 수신하고 사용자 입력에 대응하는 전기적 신호를 프로세서(140)로 전달할 수 있으며, 푸시 스위치, 터치 스위치, 다이얼, 슬라이드 스위치, 토글 스위치 등 다양한 입력 수단에 의하여 디스플레이 장치(1)의 하우징(3)에 구현될 수 있다. The
사용자 입력부(110)는 리모트 컨트롤러(112a)의 원격 제어 신호를 수신하는 신호 수신부(112)를 포함한다.The
신호 수신부(112)는 리모트 컨트롤러(112a)로부터 사용자 입력에 대응하는 무선 신호를 수신하고, 명령에 대응하는 전기적 신호, 즉 리모트 컨트롤러(112a)가 전달하는 입력 명령을 프로세서(140)로 전달할 수 있다.The
리모트 컨트롤러(112a)는 디스플레이 장치(1)와 분리되어 마련될 수 있으며, 사용자 입력 명령을 수신하고, 사용자 입력에 대응하는 무선 신호를 디스플레이 장치(1)로 전송할 수 있다. 리모트 컨트롤러(112a)는 사용자(U)의 제스처를 보다 효율적으로 전달할 수 있다. 예를 들어 사용자(U)는 사용자의 손을 움직이는 대신, 리모트 컨틀롤러(112a)를 조작할 수 있다. 디스플레이 장치(1)는 리모트 컨트롤러(112a)가 전송하는 신호의 차이에 기초하여 사용자의 제스처를 인식할 수 있으며, 그에 따른 UI엘리먼트(10)를 조정할 수 있다.The
컨텐츠 수신부(120)는 소스 디바이스로부터 유선으로 영상 데이터를 수신하는 유선 수신 모듈(121)과, 소스 디바이스로부터 무선으로 영상 데이터를 수신하는 무선 수신 모듈(122)을 포함할 수 있다.The
소스 디바이스는 디스플레이 장치(1)로 다양한 영상 데이터를 제공하는 것을 지칭하는 것으로, 셋톱 박스, 외부 서버, 인터넷 네트워크의 중계기 등 다양한 구성을 모두 포함할 수 있다.The source device refers to providing various image data to the
유선 수신 모듈(121)은 다양한 종류의 영상 전송 케이블을 통하여 소스 디바이스로부터 영상 데이터를 수신할 수 있다. 예를 들어, 유선 수신 모듈(121)은 컴포넌트(component, YPbPr/RGB) 케이블 또는 컴포지트 (composite video blanking and sync, CVBS) 케이블 또는 고화질 멀티미디어 인터페이스 (High Definition Multimedia Interface, HDMI) 케이블 또는 범용 직렬 버스(Universal Serial Bus, USB) 케이블 또는 이더넷(Ethernet, IEEE 802.3 기술 표준) 케이블 등을 통하여 소스 디바이스로부터 영상 데이터를 수신할 수 있다.The
유선 수신 모듈(121)을 통하여 소스 디바이스로부터 영상 데이터를 수신하는 경우, 디스플레이 장치(1)는 소스 디바이스로부터 영상 프레임 데이터를 수신할 수 있다. 여기서, 영상 프레임 데이터는 한 프레임의 영상을 나타내는 비트 스트림으로써 압축되지 아니한 영상 데이터를 나타낼 수 있다.When receiving image data from a source device through the
유선 수신 모듈(121)는 영상 전송 케이블을 통하여 영상 데이터를 수신하므로 데이터 전송률의 제한이 크지 않다. 따라서, 유선 수신 모듈(121)는 소스 디바이스로부터 영상 프레임 데이터를 그대로 수신할 수 있다.Since the
무선 수신 모듈은 다양한 무선 통신 표준을 이용하여 소스 디바이스로부터 컨텐츠를 수신할 수 있다.The wireless receiving module may receive content from a source device using various wireless communication standards.
예를 들어, 무선 수신 모듈(122)은 와이파이(WiFi쪠, IEEE 802.11 기술 표준) 또는 블루투스 (Bluetooth쪠, IEEE 802.15.1 기술 표준) 또는 지그비(ZigBee쪠, IEEE 802.15.4 기술 표준) 등을 이용하여 무선으로 소스 디바이스로부터 영상 데이터를 수신할 수 있다. 또한, 무선 수신 모듈(122)은 CDMA, WCDMA, GSM, LET(Long Term Evolution), 와이브로 등을 이용하여 무선으로 소스 디바이스로부터 영상 데이터를 수신할 수 있다.For example, the
무선 수신 모듈(122)을 통하여 소스 디바이스로부터 영상 데이터를 수신하는 경우, 디스플레이 장치(1)는 소스 디바이스로부터 압축/인코딩된 영상 데이터를 수신할 수 있다. 여기서, 압축/인코딩된 영상 데이터는 한 프레임의 영상 또는 복수의 프레임의 영상이 압축/인코딩된 비트 스트림을 나타낼 수 있다. 예를 들어, 영상 프레임 데이터는 H.264/MPEG-4 AVC (Moving Picture Experts Group-4 Advance Vide Coding) 또는 H.265/HEVC (High Efficiency Video Coding) 등의 영상 압축 표준에 의하여 압축/인코딩될 수 있다. 영상 프레임 데이터를 압축/인코딩됨으로써 압축/인코딩된 영상 데이터는 본래의 영상 프레임 데이터보다 작은 용량(또는 크기)을 가질 수 있다.When receiving image data from a source device through the
무선 수신 모듈(122)은 무선으로 영상 데이터를 수신하므로 데이터 전송률의 제한되므로, 무선 수신 모듈(122)은 소스 디바이스로부터 압축/인코딩된 영상 데이터를 수신할 수 있다.Since the
컨텐츠 수신부(120)는 소스 디바이스로부터 유선으로 또는 무선으로 영상 데이터를 수신하고, 수신된 영상 데이터를 프로세서(140)로 전달할 수 있다.The
센서(130)는 사용자(U)의 제스처를 감지한다. 구체적으로 센서(130)는 카메라(131)일 수 있다. 카메라(131)는 카메라 인식 범위에서 사용자의 제스처에 대응되는 영상(예를 들어, 연속되는 프레임)을 생성한다. 카메라(131)의 인식 범위는 디스플레이 장치(1)에서부터 사용자(U)까지 0.1 ~ 5 m 이내 거리가 될 수 있다. 사용자 제스처는 사용자의 얼굴, 표정, 손, 주먹, 손가락과 같은 사용자의 신체 일부분 또는 신체 일부분의 움직임 등을 모두 포함할 수 있다. The
카메라(131)는 수신된 영상을 전기 신호로 변환하여 프로세서(140)로 전달할 수 있다. 카메라(131)는 렌즈(미 도시) 및 이미지 센서(미 도시)로 구성될 수 있다. 카메라(131)는 복수의 렌즈와 이미지 프로세싱을 이용하여 광학 줌(optical zoom) 또는 디지털 줌(digital zoom)을 지원할 수 있다. 카메라(131)의 인식 범위는 카메라의 각도 및 주변 환경 조건에 따라 다양하게 설정될 수 있다. 카메라(131)가 복수개의 카메라로 구성되는 경우, 복수의 카메라를 이용하여 3차원 정지 이미지를 촬영할 수 있다.The camera 131 may convert the received image into an electrical signal and transmit it to the
센서(130)는 카메라(131) 이외에도 사용자의 제스처를 판단할 수 있는 다양한 센서를 더 포함할 수 있다. 예를 들어 센서(130)는 디스플레이 장치(1)와 사용자(U)와의 거리를 감지하는 초음파 센서, IR 센서 등 다양한 센서를 더 포함할 수 있다.In addition to the camera 131, the
프로세서(140)는 디스플레이 장치(1)의 전반적인 동작을 제어한다.The
프로세서(140)는 컨텐츠 수신부(120)가 소스 디바이스로부터 영상 데이터를 수신하도록 제어하고, 수신된 영상 데이터를 영상 처리하여 출력부(150)를 통해 출력할 수 있다. 구체적으로 프로세서(140)는 압축/인코딩된 영상 데이터를 디코딩하여 영상 프레임 데이터를 복원할 수 있으며, 복원된 영상 프레임 데이터를 처리하여 영상을 렌더링할 수 있다.The
프로세서(140)는 영상 데이터 이외에도 출력부(150)를 통해 다양한 사용자 인터페이스를 표시할 수 있다. 예를 들어 디스플레이 장치(1)와 인터넷 네트워크와 연결되어 있는 경우, 디스플레이 장치(1)는 인터넷 네트워크가 지원하는 다양한 기능을 수행할 수 있다. 디스플레이 장치(1)는 제조시 내장된 기능 및 네트워크를 통해 수신한 다양한 기능을 수행할 수 있는 어플리케이션을 복수의 UI엘리먼트(10)로 출력할 수 있다.In addition to image data, the
프로세서(140)는 센서(130)가 감지한 사용자의 제스처에 기초하여 복수의 UI엘리먼트(10) 중 하나의 UI엘리먼트를 강조(focus)하거나, 복수의 UI엘리먼트(10) 중 적어도 두 개 이상의 UI엘리먼트를 순차적으로 강조하도록 출력부(150)를 제어할 수 있다. 구체적으로 프로세서(140)는 종래 디스플레이 장치와 달리, 사용자의 제스처에 대응하는 커서를 표시하지 않는다. 프로세서(140)는 사용자의 제스처가 감지되면, UI엘리먼트(10)를 강조하고, 제스처의 움직임 방향에 대응하도록 강조된 UI엘리먼트(10)를 이동시키거나, 움직임 방향에 표시되는 다른 UI엘리먼트를 이동시킴으로써, 사용자의 제스처를 감지한 결과를 피드백한다. 이를 통해서 사용자(U)는 커서에 대응되는 자신의 움직임을 정밀하게 제어하지 않고도, UI엘리먼트를 쉽게 선택할 수 있다.The
프로세서(140)는 UI엘리먼트의 선, 도형, 색상 또는 크기 중 적어도 하나를 변경시킴으로써, UI엘리먼트를 강조할 수 있으며, UI엘리먼트(10)를 변경하는 다양한 실시예는 이하의 다른 도면을 통해서 후술한다.The
출력부(150)는 영상을 시각적으로 표시하는 디스플레이 패널(2)과, 디스플레이 패널(2)을 구동하는 디스플레이 드라이버(미도시)를 포함하는 영상 표시부(151)와 음향을 증폭하는 오디오 앰프(미도시)와, 증폭된 음향을 청각적으로 출력하는 스피커(미도시)와, 주변의 음향을 수집하는 마이크(미도시)를 포함하는 음향부(152)를 포함할 수 있다.The
디스플레이 패널(2)은 영상을 표시하는 단위가 되는 픽셀을 포함할 수 있다. 각각의 픽셀은 디스플레이 드라이버로부터 영상을 나타내는 전기적 신호를 수신하고, 수신된 전기적 신호에 대응하는 광학 신호를 출력할 수 있다. 복수의 픽셀이 출력하는 광학 신호가 조합됨으로써 영상이 디스플레이 패널(2)에 표시될 수 있다.The
디스플레이 패널은 액정 디스플레이 패널(Liquid Crystal Display Panel, LCD Panel), 발광 다이오드 패널(Light Emitting Diode Panel, LED Panel) 또는 유기 발광 다이오드 패널(Organic Light Emitting Diode Panel, OLED Panel)을 등 다양한 타입의 패널에 의하여 구현될 수 있다.Display panels are applied to various types of panels such as Liquid Crystal Display Panel (LCD Panel), Light Emitting Diode Panel (LED Panel) or Organic Light Emitting Diode Panel (OLED Panel). It can be implemented by
프로세서(140)는 전달되는 영상 데이터 내에 포함된 음향 데이터를 처리하여 음향 신호로 변환할 수 있다.The
음향부(152)는 오디오 앰프를 통해서 출력된 음향 신호를 증폭시킬 수 있다. 또한, 스피커는 오디오 앰프에 의해서 증폭된 음향 신호를 음향(음파)으로 변환할 수 있다. 예를 들어, 스피커는 전기적 음향 신호에 따라 진동하는 박막을 포함할 수 있으며, 박막의 진동에 의하여 음파가 생성될 수 있다. 마이크는 디스플레이 장치(1)의 주변 음향을 수집하고, 수집된 음향을 전기적 음향 신호로 변환할 수 있다. 마이크에 의하여 수집된 음향 신호는 프로세서(140)로 전달될 수 있다.The
데이터 베이스(170)는 디스플레이 장치(1)에 포함된 구성들을 제어하기 위한 프로그램 및 데이터를 저장하고, 디스플레이 장치(1)에 포함된 구성들을 제어하는 중에 발행하는 임시 제어 데이터를 기억할 수 있다.The
데이터 베이스(170)는 컨텐츠 수신부(120)에 의하여 수신된 영상 데이터를 디코딩하기 위한 프로그램 및 데이터와 디코딩된 영상 데이터로부터 입체 영상을 재현하기 위한 프로그램 및 데이터를 저장할 수 있다. 또한, 데이터 베이스(170)는 영상 데이터를 디코딩하는 중에 발생하거나 입체 영상을 렌더링하는 중에 발생하는 임시 영상 데이터를 기억할 수 있다.The
데이터 베이스(170)는 UI엘리먼트(10)를 표시 또는 조절하는데 사용될 수 있는 다양한 인체 공학적 정보를 저장할 수 있다. 인체 공학적 측면에서 사용자(U)가 편안한 자세로 움직일 수 있는 한쪽 팔의 최대 범위는 80cm이다. 데이터 베이스(170)는 센서(130)가 감지한 사용자(U)의 크기에 대응하는 팔의 움직임의 범위를 저장한다. 사용자(U)가 감지되면, 데이터 베이스(170)는 팔의 길이 정보를 프로세서(140)에 제공할 수 있다. 프로세서(140)는 전달된 팔의 길이에 기초하여 UI엘리먼트(10)의 크기 및 위치를 결정하고, 출력부(150)를 통해 UI엘리먼트(10)를 표시할 수 있다.The
또한, 데이터 베이스(170)는 사용자(U)의 시야각에 관한 정보를 저장한다. 인체 공학적 측면에 따라 시야각은 사용자의 양안 중심 기준 최대 30도가 최대 인지 영역이다. 데이터 베이스(170)는 센서(130)가 감지하는 디스플레이 장치(1)와 사용자(U)와의 거리에 대응하는 사용자(U)의 시야각을 프로세서(140)로 전달한다. 프로세서(140)는 전달된 시야각에 기초하여 UI엘리먼트(10)의 크기 및 위치를 결정하고, 출력부(150)를 통해 UI엘리먼트(10)를 표시한다.In addition, the
데이터 베이스(170)는 데이터를 장기간 저장하기 위한 롬(Read Only Memory), 플래시 메모리 등의 비휘발성 메모리와, 데이터를 일시적으로 기억하기 위한 S-램(Static Random Access Memory, S-RAM), D-램(Dynamic Random Access Memory) 등의 휘발성 메모리로 마련될 수 있다. 데이터 베이스(170)는 프로세서(140)와 별개의 칩으로 구현된 메모리일 수 있고, 프로세서(140)와 단일 칩으로 구현될 수도 있다.The
한편, 디스플레이 장치(1)는 전술한 구성 이외에도 다양한 구성을 더 포함할 수 있다.Meanwhile, the
도 3 내지 도 5는 디스플레이 장치의 동작을 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.3 to 5 are diagrams for explaining the operation of the display device. It will be described together below in order to avoid redundant description.
도 3을 먼저 참조하면, 디스플레이 장치(1)는 복수 개의 UI엘리먼트(11 내지 16)을 표시할 수 있다. 복수 개의 UI엘리먼트(11 내지 16)는 기능을 짐작하게 할 수 있는 아이콘을 포함해 다양한 모습으로 구현될 수 있다.Referring first to FIG. 3, the
구체적으로, 디스플레이 장치(1)는 사용자(U)의 입력 명령에 의해서 UI엘리먼트(11 내지 16)을 선택할 수 있는 모드로 변경된다. 디스플레이 장치(1)는 센서(130)를 통해 사용자(U)를 감지하고, 사용자(U)와의 거리, 시야각, 팔의 길이에 대응하여 UI엘리먼트(11 내지 16)의 크기 및 위치를 결정한다. 디스플레이 장치(1)는 결정된 UI엘리먼트(11 내지 16)의 크기 및 위치에 기초하여 도 3과 같이 UI엘리먼트(11 내지 16)를 표시한다.Specifically, the
한편, UI엘리먼트(11 내지 16)가 반드시 도 3과 같은 모양에 한정되는 것은 아니며, 다양한 형태, 배치 구조를 가질 수 있다.Meanwhile, the
도 4를 참조하면, 디스플레이 장치(1)는 사용자(U)의 제스처를 감지한다. 예를 들어 사용자(U)는 오른팔을 들어올리는 모션을 취할 수 있다. 종래 디스플레이 장치는 사용자의 제스처에 대응하는 커서를 표시하였다. 그러나 개시된 디스플레이 장치(1)는 커서와 같은 UI엘리먼트를 표시하지 않는다. Referring to FIG. 4, the
커서를 표시하지 않더라도, 디스플레이 장치(1)는 사용자의 제스처에 대응하는 위치를 인식한다. 설명의 편의를 위해서 디스플레이 장치(1)가 사용자의 제스처를 인식한 결과를 가상의 커서(5)로 설명한다.Even if the cursor is not displayed, the
도 5를 참조하면, 디스플레이 장치(1)는 사용자의 제스처를 인식한 결과, 즉 가상의 커서(5)의 위치에서 가장 가까운 UI엘리먼트, 제2 UI엘리먼트(12)를 강조한다.Referring to FIG. 5, the
디스플레이 장치(1)가 제2 UI엘리먼트(12)를 강조시키는 방법은 다양할 수 있다. 예를 들어 디스플레이 장치(1)는 제2 UI엘리먼트(12)를 표시된 크기보다 큰 모양으로 변경시키거나, 레이어 내부의 색상을 변경 또는 아이콘의 모양의 이동시킴으로써, 제2 UI엘리먼트(12)를 강조할 수 있다.There may be various methods of emphasizing the
이를 통해서 사용자(U)는 커서의 이동 없이도, 디스플레이 장치(1)가 인식하는 자신의 제스처를 피드백 받을 수 있다. 또한, 사용자(U)는 강조된 UI엘리먼트(12)로부터 추가적인 제스처를 취할 수 있으므로, 커서를 이동시켜야 하는 정밀한 움직임을 요구받지 않을 수 있다.Through this, the user U can receive feedback of his or her gesture recognized by the
도 6a 내지 도 6c는 디스플레이 장치의 동작에 필요한 기준을 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.6A to 6C are diagrams for explaining a reference required for an operation of a display device. It will be described together below in order to avoid redundant description.
도 6a 를 참조하면, UI엘리먼트(10)는 테두리(10a), UI엘리먼트(10)의 중심점(10b) 및 UI엘리먼트의 경계(10c)를 포함할 수 있다. 특히 UI엘리먼트의 경계(10c)는 표시될 UI엘리먼트(10)의 크기에 비례하여 미리 설정된 너비를 가진다.Referring to FIG. 6A, the
도 6b를 참조하면, 디스플레이 장치(1)는 가상의 커서(5)와 UI엘리먼트(10)의 중심점까지의 거리에 기초하여 UI엘리먼트(10)의 강조 여부를 판단한다. 도 3 내지 도 5에서 전술한 바와 같이, 디스플레이 장치(1)는 특정한 커서를 표시하지 않는다. 따라서 디스플레이 장치(1)는 사용자(U)의 특정 제스처를 감지하자마자 사용자의 제스처에 대응되는 위치(가상의 커서의 위치)에서 가장 가까운 UI엘리먼트를 강조시킨다.Referring to FIG. 6B, the
구체적으로 디스플레이 장치(1)는 가상의 커서(5)의 위치와 복수의 UI엘리먼트(11 내지 16)의 중심점까지의 거리를 산출한다. 디스플레이 장치(1)는 산출된 거리가 가장 가까운 UI엘리먼트를 강조시킨다. 도 6b에서 도시된 바와 같이, 가상의 커서(5)의 위치에서 가장 가까운 중심점을 가지는 UI엘리먼트는 제4 UI엘리먼트(14)일 수 있다. 디스플레이 장치(1)는 제4 UI엘리먼트(14)를 강조시킨다.Specifically, the
디스플레이 장치(1)는 복수의 UI엘리먼트 중 선택된 UI엘리먼트를 도 6c과 같이 강조시킬 수 있다. The
구체적으로 디스플레이 장치(1)는 UI엘리먼트의 테두리(10a) 및 테두리 내부에 포함된 아이콘의 크기를 변경시킬 수 있다. 또한, 디스플레이 장치(1)는 가상의 커서(5)에 대응하는 위치로 UI엘리먼트(10)를 이동시킬 수 있다. 다만, UI엘리먼트(10)가 이동하는 거리는 중심점(10b)과 가상의 커서(5)와의 거리(d)에 기초하며, UI엘리먼트의 테두리(10a)가 이동하더라도 중심점(10b)의 위치는 UI엘리먼트의 경계(10c)를 벗어나지 않는다.In more detail, the
도 7 내지 도 9는 강조된 UI엘리먼트를 이동시키는 구체적인 실시예에 관한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.7 to 9 are diagrams of a specific embodiment of moving an highlighted UI element. It will be described together below in order to avoid redundant description.
도 7을 참조하면, 디스플레이 장치(1)는 강조된 UI엘리먼트(12)를 표시하고, 사용자의 추가적인 제스처를 감지한다. 예를 들어 사용자(U)는 오른손의 위치에서 손을 시계방향으로 움직일 수 있다. Referring to FIG. 7, the
디스플레이 장치(1)는 감지된 사용자(U)의 팔의 최대 범위에서 사용자의 제스처의 움직임의 범위 및 움직임의 방향을 산출한다. 사용자의 제스처가 미리 설정된 범위 내에서 시계 방향으로 이동하는 경우, 디스플레이 장치(1)는 도 7과 같이 강조된 제2 UI엘리먼트(12)를 시계방향으로 이동시킨다. 이 경우, 제2 UI엘리먼트(12)는 중심점(10b)이 UI엘리먼트의 경계(10c)를 벗어나지 않도록 이동되며, 제2 UI엘리먼트의 아이콘(12d)도 테두리(10a)내에서 함께 이동될 수 있다.The
도 8을 참조하면, 디스플레이 장치(1)는 도 7과 달리 더 큰 범위로 움직이는 사용자의 추가적인 제스처를 감지할 수 있다. Referring to FIG. 8, unlike FIG. 7, the
사용자(U)의 움직임에 대응하는 가상의 커서(5)는 제2 UI엘리먼트(12)의 UI엘리먼트의 경계(10c)를 벗어날 수 있다. 가상의 커서(5)가 강조된 제2 UI엘리먼트(12)보다 제3 UI엘리먼트(13)에 가까워지는 것은, 사용자(U)의 제스처 중 손의 움직임이 일정한 거리 이상으로 변경한 것을 의미한다. 이 경우, 디스플레이 장치(1)는 강조를 제3 UI엘리먼트(13)로 이동시킨다.The
디스플레이 장치(1)는 도 8의a)와 같이, 강조된 제2 UI엘리먼트(12)를 제3 UI엘리먼트(13)로 이동시킨다. The
디스플레이 장치(1)는 도 8의b)와 같이, 강조된 제2 UI엘리먼트(12)의 일정 영역만의 색상을 진하게 표시하고, 제3 UI엘리먼트(13)의 일정 영역의 색상을 진하게 표시한다. As shown in FIG. 8B ), the
가상의 커서(5)가 더 이동하면, 디스플레이 장치(1)는 제2 UI엘리먼트(12)를 원래의 위치로 이동시키고, 제3 UI엘리먼트(13)를 크기를 변화시키고, 색상을 완전히 변화시킨다.When the
개시된 일 실시예에 따른 디스플레이 장치(1)는 강조된 제2 UI엘리먼트(12)의 색상 및 제3 UI엘리먼트(13)의 색상을 순차적으로 변화시킴으로써, 사용자에게 제스처의 움직임에 대한 피드백을 제공할 수 있다.The
도 9를 참조하면, 디스플레이 장치(1)는 제2 UI엘리먼트(12)와 제3 UI엘리먼트(13)는 서로 충분한 거리를 두고, 미리 설정된 간격을 가지고 이격되어 표시될 수 있다. 제2 UI엘리먼트(12)가 강조된 후, 디스플레이 장치(1)는 도 8과 같이 사용자(U)의 움직임의 방향을 감지할 수 있다.Referring to FIG. 9, in the
디스플레이 장치(1)는 강조된 제2 UI엘리먼트(12)를 제3 UI엘리먼트(13)로 이동시킬 수 있다.The
가상의 커서(5)는 제2 UI엘리먼트(12)의 경계(12c)와 제3 UI엘리먼트(13)의 경계(13c) 사이에 위치할 수 있다. 디스플레이 장치(1)는 강조된 제2 UI엘리먼트(12)의 색상을 변경시킨다. 또한, 디스플레이 장치(1)는 도 8과 달리, 제3 UI엘리먼트(13)의 크기 및 색상을 변경시키면서, 동시에 가상의 커서(5)에 대응되는 위치로 제3 UI엘리먼트(13)를 이동시킬 수 있다. The
여기서 강조된 제2 UI엘리먼트(12) 및 강조된 제3 UI엘리먼트(13)는 일정 영역에만 색상을 강조시킴으로써, 사용자(U)에게 현재의 제스처의 이동 경로를 피드백할 수 있다.Here, the emphasized
가상의 커서(5)가 제3 UI엘리먼트(13)의 경계(13c) 내부로 이동하면, 디스플레이 장치(1)는 제2 UI엘리먼트(12)를 강조를 해제한다. 또한, 디스플레이 장치(1)는 제2 UI엘리먼트(12)를 원래의 위치로 다시 이동시킨다. 디스플레이 장치(1)는 이동된 제3 UI엘리먼트(13)를 더욱 강조시킨다.When the
도 10a 및 도 10b는 UI엘리먼트를 강조시키는 실시예를 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.10A and 10B are diagrams for explaining an embodiment of emphasizing a UI element. It will be described together below in order to avoid redundant description.
도 10a를 참조하면, 또 다른 실시예에 따른 UI엘리먼트(20)는 아이콘(미도시)을 둘러싼 복수 개의 레이어(22 내지 23)를 포함할 수 있다. 복수 개의 레이어(22 내지 24)는 가상의 커서(5)의 위치에 대응하여 상대적으로 이동 및 회전할 수 있다.Referring to FIG. 10A, the
도 10a에 도시된 것처럼 UI엘리먼트(20)는 중심점(20b)을 기준으로 오른편 하단에 치우친 제1 레이어(22), 가장 긴 둘레를 가지는 제2 레이어(23) 및 왼편 상단으로 치우친 제3 레이어(24)를 포함할 수 있다.As shown in FIG. 10A, the
가상의 커서(5)가 오른쪽으로 이동하는 경우, 이동된 가상의 커서(5)로부터 가장 가까운 제1 레이어(22)는 가장 큰 회전 각도를 가지면서 조정될 수 있다. 그 다음으로 제2 레이어(23)는 이동 및 회전 각도를 크게 설정되고, 이동된 가상의 커서(5)에 가장 멀리 위치한 제3 레이어(24)의 이동 및 회전 각도가 가장 적을 수 있다.When the
도 10b는 아이콘(21)을 포함한 UI엘리먼트(20)를 도시한 것이다. 도 10b의 a)는 UI엘리먼트(20)가 강조되지 않은 상태이다. 사용자의 제스처에 기초하여 UI엘리먼트(20)는 도 10b의 b)와 같이 강조될 수 있다. 구체적으로 UI엘리먼트(20)의 아이콘(21)은 큰 크기로 변경되고, 다수 개의 레이어(22 내지 24)가 생성된다. 사용자의 추가적인 제스처가 감지되면, UI엘리먼트(20)는 변경된 아이콘(21)이 틀어지고, 각각의 레이어(22 내지 24)가 서로 다른 회전 각도를 가지면서 회전한다. 10B shows the
강조된 UI엘리먼트(20)를 통해서 사용자(U)는 디스플레이 장치(1)가 제스처를 인식한 결과를 쉽게 확인할 수 있고, 나아가 강조된 UI엘리먼트(20)를 통해 추가적인 제스처를 손쉽게 피드백 받을 수 있다.Through the emphasized
한편, 디스플레이 장치(1)는 사용자(U)의 팔의 길이, 사용자(U)의 시야각 또는 사용자(U)와 상기 디스플레이 장치 간의 거리 중 적어도 하나에 기초하여 표시되는 UI엘리먼트(10)의 위치 및 크기를 조절할 수 있다.Meanwhile, the
구체적으로 디스플레이 장치(1)는 사용자와의 거리에 따라 표시되는 UI엘리먼트(10)의 크기 및 위치를 조절할 수 있으며, 사용자(U)의 시야각에 따라 UI엘리먼트(10)의 크기 및 위치를 조절한다. 또한, 디스플레이 장치(1)는 사용자(U)의 팔의 길이에 UI엘리먼트(10)의 크기 및 위치를 조절한다. 그리고 디스플레이 장치(1)는 사용자와의 거리 및 시야각에 기초하여 UI엘리먼트(10)의 크기 및 위치를 조절할 수도 있으며, 사용자와의 거리 및 사용자의 팔의 길이에 기초하여 UI엘리먼트(10)의 크기 및 위치를 조절할 수도 있다. 더불어 디스플레이 장치(1)는 사용자와의 거리, 시야각 및 사용자의 팔의 길이 모두를 고려하여 UI엘리먼트(10)의 크기 및 위치를 조절할 수도 있다.Specifically, the
도 11 및 도 12는 사용자의 팔의 길이에 따라 변경되는 UI엘리먼트의 표시 방법을 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.11 and 12 are diagrams for explaining a method of displaying a UI element that is changed according to the length of a user's arm. It will be described together below in order to avoid redundant description.
도 11 및 도 12를 참조하면, 디스플레이 장치(1)는 센서(130)를 통해 사용자(U)를 감지한다. 구체적으로 카메라(131)는 사용자(U)를 촬영할 수 있다. 사용자(U)는 신체 조건에 따라 다양한 팔의 길이를 가질 수 있다. 예를 들어, 도 11과 같이 성인의 신체를 가진 사용자(U)의 팔의 길이는, 도 12와 같이 미성인의 신체를 가진 사용자(U')의 팔의 길이와 다르다.11 and 12, the
도 11과 같이 팔의 길이가 긴 사용자(U)는 UI엘리먼트를 조작할 수 있는 범위가 도 12와 같은 사용자(U')보다 넓다. 만약 도 12의 사용자(U')에게 도 11의 사용자(U)를 위해 표시한 UI엘리먼트(11 내지 16)를 표시하면, 사용자(U')는 조작에 불편함이 있을 수 있다.As shown in FIG. 11, the user U with a long arm has a wider range than the user U'of FIG. 12 in which the UI element can be manipulated. If the
디스플레이 장치(1)는 사용자(U)와의 거리 및 촬영된 영상을 분석한 후, 현재 사용자(U)의 팔의 길이를 판단한다. 만약 사용자(U)의 팔의 길이가 미리 설정된 범위, 예를 들어 60㎝를 초과하면, 디스플레이 장치(1)는 복수 개의 UI엘리먼트(11 내지 16)의 크기를 작고 넓은 간격을 가지도록 배치할 수 있다. The
그러나 도 12와 같이 사용자(U')가 적은 가동 범위를 가지는 경우, 디스플레이 장치(1)는 도 11에 비해서 복수 개의 UI엘리먼트(11 내지 16)를 좁은 간격을 가지도록 배치할 수 있다.However, as shown in FIG. 12, when the user U'has a small movable range, the
이를 통해서 디스플레이 장치(1)는 손의 가동 범위를 벗어나는 영역까지 사용자의 움직임을 요구하지 않게 되므로, 조작 난이도 및 피로도를 감소시킬 수 있다.Through this, since the
도 13 및 도 14는 시야각에 따라 변경되는 UI엘리먼트의 표시 방법을 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.13 and 14 are diagrams for explaining a method of displaying a UI element that is changed according to a viewing angle. It will be described together below in order to avoid redundant description.
도 13을 참조하면, 데이터 베이스(170)는 사용자(U)의 시야각에 대한 정보를 저장한다. 인체 공학적 특성에 따라 디스플레이 장치(1)는 사람의 시야각을 30°로 설정한다. 디스플레이 장치(1)는 사용자(U)와의 거리에 따른 시야각을 고려하여, 표시되는 복수 개의 UI엘리먼트(11 내지 16)의 크기를 조절한다. 이를 통해서 사용자가 제스처를 취할 때, 최소한의 동작만으로 UI엘리먼트(10)를 선택 및 변경할 수 있도록 한다.Referring to FIG. 13, the
한편, 데이터 베이스(170)에 저장된 시야각에 대한 정보는, 사용자의 입력에 의해서 변경될 수 있으며, 반드시 30°에 한정되는 것은 아니다.Meanwhile, information on the viewing angle stored in the
도 14를 참조하면, 디스플레이 장치(1)는 사용자(U)를 촬영하고, 사용자(U)가 고개를 돌려 오른쪽 상단을 바라보는 것을 확인할 수 있다. 또한, 디스플레이 장치(1)는 사용자(U)가 정면이 아닌 대각선에 위치하는 것을 감지할 수 있다. 이 경우, 디스플레이 장치(1)는 복수 개의 UI엘리먼트(11 내지 16)를 디스플레이 중앙이 아닌, 상단에 표시할 수 있다.Referring to FIG. 14, it can be seen that the
전술한 바와 같이, 디스플레이 장치(1)는 사용자의 위치에 따른 복수 개의 UI엘리먼트(11 내지 16)를 표시하면서, 시야각 및 팔의 길이를 함께 고려할 수 있다. 즉, 사용자가 도 14와 같이 디스플레이 장치(1)를 바라보면서 동시에 디스플레이 장치(1)와 가까이 위치하는 경우, 디스플레이 장치(1)는 사용자(U)의 팔의 길이 및 시야각에 기초하여 복수 개의 UI엘리먼트(11 내지 16)의 위치 및 크기가 변경시켜 표시할 수 있다. 이를 통해서 사용자(U)는 UI엘리먼트를 변경시킬 최소한의 동작을 수행할 수 있으므로, 조작 난이도 및 피로도를 감소된다.As described above, the
도 15 내지 도 17은 UI엘리먼트를 활성화시키는 실시예에 관한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.15 to 17 are diagrams of an embodiment of activating a UI element. It will be described together below in order to avoid redundant description.
디스플레이 장치(1)는 사용자(U)의 제스처를 감지하고, 제1 UI엘리먼트(11)를 강조할 수 있다. 디스플레이 장치(1)는 도 15와 같이 제1 UI엘리먼트(11)의 크기를 변경시킴으로써, 현재 사용자(U)의 손의 위치에 대응하는 영역이 제1 UI엘리먼트(11)의 위치에 해당하는 것임을 피드백시킨다.The
만약 사용자(U)가 손을 움켜지면, 디스플레이 장치(1)는 제1 UI엘리먼트(11)를 활성화시킨다. 즉, 강조된 제1 UI엘리먼트(11)는 사용자의 제스처에 대한 커서의 역할을 대신하기 위해 변경되는 것일 뿐, 제1 UI엘리먼트(11)가 선택됨을 의미하는 것은 아니다.If the user U holds his hand, the
센서(130)를 통해 사용자(U)의 움켜짐을 감지하면, 디스플레이 장치(1)는 제1 UI엘리먼트(11)를 활성화시킨다. 예를 들어 제1 UI엘리먼트(11)가 소리 음향부(152)를 조절하기 위한 사용자 인터페이스라면, 디스플레이 장치(1)는 소리 출력을 숫자로 표시하는 사용자 인터페이스 화면으로 전환된다.When the user U is grasped through the
도 17과 같이, 디스플레이 장치(1)는 사용자(U)가 움켜진 손을 이동하는 제스처를 감지할 수 있다. 디스플레이 장치(1)는 아이콘(11a)의 상단에 표시된 숫자를 움켜진의 손의 움직임 방향에 기초하여 변경시킴으로써, 사용자(U)에게 소리 출력의 정도가 변경됨을 피드백할 수 있다.As shown in FIG. 17, the
한편, 도 15 내지 도 17은 UI엘리먼트를 활성화시키는 일 예에 불과하고, 다양한 제스처에 의해서 UI엘리먼트가 활성화될 수 있다. 또한, 활성화된 UI엘리먼트가 표시하는 사용자 인터페이스 또한 다양할 수 있다.Meanwhile, FIGS. 15 to 17 are only examples of activating the UI element, and the UI element may be activated by various gestures. In addition, the user interface displayed by the activated UI element may also vary.
도 18은 일 실시예에 따른 디스플레이 장치의 제어방법을 설명하기 위한 순서도이다.18 is a flowchart illustrating a method of controlling a display device according to an exemplary embodiment.
도 18을 참조하면, 디스플레이 장치(1)는 사용자를 감지한다(200)Referring to FIG. 18, the
디스플레이 장치(1)는 센서(130)를 통해서 사용자를 감지할 수 있으며, 일 실시예에 따른 센서(130)는 카메라(131)를 사용할 수 있다.The
디스플레이 장치(1)는 UI엘리먼트(10)를 표시한다(210).The
표시되는 UI엘리먼트(10)는 적어도 하나 이상일 수 있으며, 디스플레이 장치(1)가 제공하는 다양한 기능을 형상화한 사용자 인터페이스이다.The displayed
디스플레이 장치(1)는 사용자의 제스처를 감지하고(220), UI엘리먼트(10)를 강조한다(230).The
구체적으로 디스플레이 장치(1)는 크기, 위치 및 색상 중 적어도 하나를 변경시킴으로써, UI엘리먼트(10)를 강조한다. 또 다른 예를 들어, UI엘리먼트(10)가 표시된 후 사용자의 제스처를 감지하면, UI엘리먼트(100)는 아이콘의 크기 및 모양을 변경하거나 복수 개의 레이어의 회전 각도를 변경시킬 수도 있다.Specifically, the
디스플레이 장치(1)는 사용자의 추가적인 제스처를 감지하고(240), 강조된 UI엘리먼트(10)를 변경시킨다(240).The
디스플레이 장치(1)는 제스처의 움직임에 기초하여 UI엘리먼트(10)를 이동시킬 수 있다.The
일 예로, UI엘리먼트(10)는 복수 개의 레이어(22 내지 24) 및 아이콘(21)을 포함할 수 있다. 또한, UI엘리먼트(10)는 미리 설정된 경계(10c)를 포함할 수 있다. 사용자의 제스처에 대응하는 가상의 커서(5)가 강조된 UI엘리먼트(10)의 경계(10c) 근처로 이동하면, UI엘리먼트(10)의 아이콘(21)의 위치를 경계 근처로 이동시킬 수 있다.For example, the
만약 사용자의 제스처에 대응하는 가상의 커서(5)가 강조된 UI엘리먼트(10)의 경계(10c)를 벗어나면, UI엘리먼트(10)의 강조를 해제하고, 원래의 위치로 이동시킬 수도 있다.If the
도 19는 다른 실시예에 따른 디스플레이의 제어방법을 설명하기 위한 순서도이다.19 is a flowchart illustrating a method of controlling a display according to another exemplary embodiment.
도 19를 참조하면, 디스플레이 장치(1)는 제1 UI엘리먼트(11)를 강조한다(300).Referring to FIG. 19, the
디스플레이 장치(1)는 복수 개의 UI엘리먼트(11 내지 16)을 표시할 수 있다. 사용자의 제스처를 감지하면, 디스플레이 장치(1)는 제스처에 대응하는 위치에서 가장 가까운 위치에 제1 UI엘리먼트(11)를 강조한다.The
디스플레이 장치(1)는 사용자의 추가적인 제스처를 감지하고(310), 강조된 제1 UI엘리먼트(11)를 이동시킨다(320).The
도 10에서 전술한 바와 같이, 추가적인 제스처는 사용자의 방향성을 가지는 움직임일 수 있다.As described above with reference to FIG. 10, the additional gesture may be a movement having a user's direction.
이동되는 제1 UI엘리먼트(11)의 중심점(10a)은 경계(10c)를 벗어나지 않는다. 그러나 사용자의 제스처에 대응되는 가상의 커서(5)는 제1 UI엘리먼트의 경계(10c)를 벗어나면서 제2 UI엘리먼트의 경계(12c)에 진입할 수 있다(330).The
디스플레이 장치(1)는 제2 UI엘리먼트(12)를 이동시키고(340), 제1 UI엘리먼트(11) 및 이동된 제2 UI엘리먼트(12)의 색상을 변경한다(350).The
구체적으로 디스플레이 장치(1)는 제1 UI엘리먼트(11)의 일정 영역만의 색상을 진하게 표시하고, 제2 UI엘리먼트(12) 일정 영역만의 색상을 진하게 표시할 수 있다.Specifically, the
사용자의 제스처에 대응되는 가상의 커서(5)는 제2 UI엘리먼트(12)의 경계 내부로 진입할 수 있다(360).The
경계 내부로 진입하는 것의 의미는, 가상의 커서(5)의 위치에 대응되어 이동된 제2 UI엘리먼트(12)의 중심점(12a)이 제2 UI엘리먼트의 경계(12c) 내부에 위치하는 것이다. The meaning of entering the boundary is that the center point 12a of the
디스플레이 장치(1)는 제1 UI엘리먼트(11)의 강조 해제 및 위치 이동시키고(370), 이동된 제2 UI엘리먼트(12)를 강조한다(380).The
이를 통해서 디스플레이 장치(1)는 사용자의 제스처를 인식한 결과물을 생략하고, 사용자 인터페이스의 변경을 통한 피드백을 제공함으로써, 사용자의 집중도를 줄이고 피로를 감소시킨다. 또한, 디스플레이 장치(1)는 사용자 인터페이스의 선택의 용이함을 제공함으로써, 빠른 좌표 인식 및 간편한 제공 방법을 제공한다. 디스플레이 장치(1)는 사용자의 거리, 시야각 팔의 길이에 따라 사용자 인터페이스의 크기 및 위치를 변화시킴으로써, 편리성을 제공할 수 있다.Through this, the
Claims (20)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2019-0151628 | 2019-11-22 | ||
| KR1020190151628A KR102756956B1 (en) | 2019-11-22 | 2019-11-22 | Display apparatus and controlling method thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2021101039A1 true WO2021101039A1 (en) | 2021-05-27 |
Family
ID=75981624
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2020/012108 Ceased WO2021101039A1 (en) | 2019-11-22 | 2020-09-08 | Display device and method for controlling display device |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR102756956B1 (en) |
| WO (1) | WO2021101039A1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20240174559A (en) | 2023-06-09 | 2024-12-17 | 김태익 | A hand gesture-based motion display system and its driving method |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011081480A (en) * | 2009-10-05 | 2011-04-21 | Seiko Epson Corp | Image input system |
| KR20120037858A (en) * | 2010-10-12 | 2012-04-20 | 삼성전자주식회사 | Three-dimensional image display apparatus and user interface providing method thereof |
| JP5222376B2 (en) * | 1998-10-13 | 2013-06-26 | ソニー エレクトロニクス インク | Motion detection interface |
| KR20140113547A (en) * | 2013-03-14 | 2014-09-24 | 삼성전자주식회사 | Visual Feedback for Highlight Navigation |
| KR102017285B1 (en) * | 2015-10-29 | 2019-10-08 | 삼성전자주식회사 | The method and apparatus for changing user interface based on user motion information |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102179958B1 (en) * | 2015-09-02 | 2020-11-17 | 삼성전자주식회사 | Large format display apparatus and control method thereof |
-
2019
- 2019-11-22 KR KR1020190151628A patent/KR102756956B1/en active Active
-
2020
- 2020-09-08 WO PCT/KR2020/012108 patent/WO2021101039A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5222376B2 (en) * | 1998-10-13 | 2013-06-26 | ソニー エレクトロニクス インク | Motion detection interface |
| JP2011081480A (en) * | 2009-10-05 | 2011-04-21 | Seiko Epson Corp | Image input system |
| KR20120037858A (en) * | 2010-10-12 | 2012-04-20 | 삼성전자주식회사 | Three-dimensional image display apparatus and user interface providing method thereof |
| KR20140113547A (en) * | 2013-03-14 | 2014-09-24 | 삼성전자주식회사 | Visual Feedback for Highlight Navigation |
| KR102017285B1 (en) * | 2015-10-29 | 2019-10-08 | 삼성전자주식회사 | The method and apparatus for changing user interface based on user motion information |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102756956B1 (en) | 2025-01-21 |
| KR20210063118A (en) | 2021-06-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2016111561A1 (en) | Display device and operating method thereof | |
| WO2017119664A1 (en) | Display apparatus and control methods thereof | |
| WO2014133219A1 (en) | Digital device and method for controlling the same | |
| WO2014025219A1 (en) | Portable terminal device and method for operating the same | |
| WO2014081076A1 (en) | Head mount display and method for controlling the same | |
| WO2016190505A1 (en) | Glass type terminal and control method therefor | |
| WO2018080165A1 (en) | Image display apparatus, mobile device, and methods of operating the same | |
| WO2019027090A1 (en) | Mobile terminal and control method thereof | |
| WO2016039496A1 (en) | Mobile terminal and method for controlling same | |
| WO2017030262A1 (en) | Photographing apparatus and method for controlling the same | |
| WO2015186964A1 (en) | Imaging device and video generation method by imaging device | |
| WO2021080290A1 (en) | Electronic apparatus and control method thereof | |
| WO2015023145A1 (en) | Distance detection apparatus for acquiring distance information having variable spatial resolution and image display apparatus having same | |
| WO2015174611A1 (en) | Mobile terminal and control method therefor | |
| WO2017171412A2 (en) | Image processing apparatus and mobile terminal | |
| WO2016182090A1 (en) | Glasses-type terminal and control method therefor | |
| WO2018030567A1 (en) | Hmd and control method therefor | |
| WO2015182935A1 (en) | Method of controlling display device and remote controller thereof | |
| WO2020059925A1 (en) | Mobile terminal | |
| WO2018131747A1 (en) | Mobile terminal and control method thereof | |
| WO2020075926A1 (en) | Mobile device and method for controlling mobile device | |
| WO2020022548A1 (en) | Mobile terminal and control method therefor | |
| WO2016024707A1 (en) | Mobile terminal and control method therefor | |
| WO2016080662A1 (en) | Method and device for inputting korean characters based on motion of fingers of user | |
| WO2021157954A1 (en) | Video recording method using plurality of cameras, and device therefor |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20890182 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 20890182 Country of ref document: EP Kind code of ref document: A1 |