[go: up one dir, main page]

WO2015093636A1 - Ui 제공 장치 및 그의 ui 제공 방법 - Google Patents

Ui 제공 장치 및 그의 ui 제공 방법 Download PDF

Info

Publication number
WO2015093636A1
WO2015093636A1 PCT/KR2013/011678 KR2013011678W WO2015093636A1 WO 2015093636 A1 WO2015093636 A1 WO 2015093636A1 KR 2013011678 W KR2013011678 W KR 2013011678W WO 2015093636 A1 WO2015093636 A1 WO 2015093636A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
failure
output
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2013/011678
Other languages
English (en)
French (fr)
Inventor
신동윤
정희원
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to US15/105,422 priority Critical patent/US10365800B2/en
Priority to PCT/KR2013/011678 priority patent/WO2015093636A1/ko
Publication of WO2015093636A1 publication Critical patent/WO2015093636A1/ko
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/008Teaching or communicating with blind persons using visual presentation of the information for the partially sighted
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B5/00Near-field transmission systems, e.g. inductive or capacitive transmission systems
    • H04B5/20Near-field transmission systems, e.g. inductive or capacitive transmission systems characterised by the transmission technique; characterised by the transmission medium
    • H04B5/22Capacitive coupling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B5/00Near-field transmission systems, e.g. inductive or capacitive transmission systems
    • H04B5/20Near-field transmission systems, e.g. inductive or capacitive transmission systems characterised by the transmission technique; characterised by the transmission medium
    • H04B5/24Inductive coupling
    • H04B5/26Inductive coupling using coils

Definitions

  • the present invention relates to a UI providing apparatus and a UI providing method thereof, and more particularly, to a UI providing apparatus capable of providing a user interface and a UI providing method thereof.
  • various electronic devices provide various types of interfaces for relaying communication with a user.
  • the electronic devices may display various menu screens and receive a specific menu from the user.
  • the interface provided at the time of manufacture is provided to the user.
  • the disabled since the interface set at the time of manufacture is provided based on the non-disabled person, the disabled have some difficulty in controlling the electronic device through the interface provided by the electronic device.
  • An object of the present invention is to provide a user interface (UI) providing apparatus and a method for providing a UI that can provide a user interface (UI) in consideration of the type of failure and the degree of the user's failure.
  • UI user interface
  • a UI providing apparatus includes a receiver configured to receive the user information through short-range wireless communication with a communication device storing user information, based on the user information. And a controller configured to set a user interface (UI) so as to correspond to the acquired information on the type of failure and the degree of failure of the user, and an output unit configured to output the set UI.
  • UI user interface
  • the receiver may include an NFC tag that receives the user information through tagging and tagging the user information.
  • the user information may include at least one of a type of failure, a degree of failure according to the type of failure, and user identification information.
  • the apparatus for providing a UI further includes a communication unit for performing communication with a server, and the control unit transmits the user identification information to the server, the failure type corresponding to the user identification information, and The communication unit may be controlled to receive information about a degree of failure from the server.
  • the output unit may include a video output unit for outputting an image and an audio output unit for outputting a voice.
  • the controller may include a graphic UI and a voice according to the degree of visual impairment when the type of disability of the user is visually impaired.
  • the output unit may be controlled to output at least one of the UIs.
  • the controller may control the output unit to output a graphic UI corresponding to the level when the visual impairment degree is greater than or equal to a preset level, and output the voice UI when the visual impairment degree is less than a preset level.
  • the output unit may include a video output unit for outputting an image and an audio output unit for outputting a voice.
  • the controller may include a graphic UI and a voice according to a degree of hearing impairment when the user's disability type is hearing impaired.
  • the output unit may be controlled to output at least one of the UIs.
  • the controller may control the output unit to output a voice UI corresponding to the corresponding level when the hearing impairment degree is greater than or equal to a preset level, and output the graphic UI when the hearing impairment degree is less than a preset level.
  • the UI providing apparatus further includes a communication unit for communicating with a server, and the control unit stores information for outputting a UI corresponding to the type of failure and the degree of failure in the UI providing device. If not, the communication unit may be controlled to transmit the user information to the server and to receive UI output information corresponding to the failure type and the failure degree from the server.
  • the apparatus for providing a UI may further include an input unit configured to receive a user operation for changing the output state of the UI, wherein the controller is further configured to change the output state of the UI according to the user operation.
  • the output unit may be controlled to output the changed UI.
  • the UI providing apparatus further includes a communication unit for communicating with a server, and the control unit, when the output state of the UI is changed according to the user operation, the information on the changed UI
  • the communication unit may be controlled to transmit to the server.
  • the UI providing method of the UI providing apparatus receiving the user information through a short-range wireless communication with the communication device storing the user information, the user of the acquired based on the user information And setting a user interface (UI) to correspond to information on the type of failure and the degree of failure, and outputting the set UI.
  • UI user interface
  • the receiving may include receiving the user information through tagging with an NFC tag storing the user information using an NFC reader.
  • the user information may include at least one of a type of failure, a degree of failure according to the type of failure, and user identification information.
  • the UI providing method further includes the step of transmitting the user identification information to the server, and receiving information on the type of failure and the degree of failure corresponding to the user identification information from the server can do.
  • the outputting may include outputting at least one of a graphic UI and a voice UI according to the degree of visual impairment when the disability type of the user is visually impaired.
  • the outputting may include outputting a graphical UI corresponding to the level when the degree of visual impairment is greater than or equal to a preset level, and outputting the voice UI when the degree of visual impairment is less than a preset level.
  • the outputting may include outputting at least one of a graphic UI and a voice UI according to a degree of hearing impairment when the type of disability of the user is hearing impaired.
  • the outputting may include outputting a voice UI corresponding to the level when the degree of hearing impairment is greater than or equal to a preset level, and outputting the graphic UI when the degree of hearing impairment is less than a preset level.
  • the UI providing method when the information for outputting the UI corresponding to the type of failure and the degree of failure is not stored in the UI providing apparatus, the user information is transmitted to the server and the failure
  • the method may further include receiving UI output information corresponding to a type and a degree of failure from the server.
  • the outputting may include receiving a user operation for changing the output state of the UI, and outputting the changed UI when the user information is received after the output state of the UI is changed according to the user operation. It may further comprise the step.
  • the UI providing apparatus may further include transmitting information on the changed UI to the server when the output state of the UI changes according to the user operation.
  • the user may be provided with a discriminating UI according to the type of the disability and the degree of the disability, and thus the convenience of the user may be improved.
  • FIG. 1 is a view for explaining an example of a UI providing system according to an embodiment of the present invention
  • FIG. 2 is a sequence diagram illustrating a UI providing method of a UI providing system according to an embodiment of the present invention
  • FIG. 3 is a sequence diagram illustrating a UI providing method of a UI providing system according to an embodiment of the present invention
  • FIG. 4 is a sequence diagram for explaining a UI providing method of a UI providing system according to an embodiment of the present invention
  • FIG. 5 is a sequence diagram for explaining a UI providing method of a UI providing system according to an embodiment of the present invention
  • FIG. 6 is a sequence diagram illustrating a UI providing method of a UI providing system according to an embodiment of the present invention
  • FIG. 7 is a block diagram illustrating a configuration of a UI providing apparatus according to an embodiment of the present invention.
  • FIG. 8 is a block diagram for explaining a detailed configuration of a UI providing apparatus according to an embodiment of the present invention.
  • FIG. 9 is a view for explaining a hierarchy of software stored in a storage unit according to an embodiment of the present invention.
  • FIG. 10 is a block diagram illustrating a configuration of a server according to an embodiment of the present invention.
  • 11 to 15 are views for explaining a method for providing a UI according to an embodiment of the present invention.
  • 16 is a flowchart illustrating a UI providing method of a UI providing apparatus according to an exemplary embodiment.
  • the UI providing system may include a UI providing apparatus 100, a server 200, and a communication device 300.
  • the UI providing apparatus 100 may be implemented as a TV, but is not limited thereto.
  • the UI providing apparatus 100 may be implemented as various types of electronic devices such as a mobile phone, a monitor, a PDA, a tablet PC, and an MP3 player. Of course.
  • the UI providing apparatus 100 may output a user interface (UI) corresponding to the type of failure and the degree of failure of the user.
  • UI user interface
  • the UI is any interface capable of relaying communication between the UI providing apparatus 100 and the user, for example, controlling a function provided by the UI providing apparatus 100, or performed by the UI providing apparatus 100. It may include an interface for indicating a function.
  • the UI providing apparatus 100 outputs a UI set as a default in a normal mode, but may output a voice UI or a graphic UI in a mode applied to a disabled person, and in some cases, outputs a voice UI and a graphic UI together. It may be.
  • the UI set as the default in the general mode may be a graphic UI, but the voice UI may be set as the default according to a function performed in the UI providing apparatus 100.
  • the UI providing apparatus 100 may receive user information from the communication device 300.
  • the user information may include at least one of a type of failure, a degree of failure according to the type of failure, and user identification information.
  • the UI providing apparatus 100 may receive user information from the communication device 300 and output a UI corresponding to the type of failure and the degree of failure of the user using the received user information. Refer to FIG. 2 together for a more detailed description.
  • FIG. 2 is a sequence diagram illustrating a UI providing method of a UI providing system according to an exemplary embodiment.
  • the UI providing apparatus 100 receives user information from the communication device 300 (S11). In this case, collection of user information in the UI providing apparatus 100 may be performed in various ways.
  • the UI providing apparatus 100 may collect user information through a short range wireless communication method.
  • the UI providing apparatus 100 may include a short range wireless communication reader.
  • the communication device 300 including the short range wireless communication tag may be short-ranged to read data.
  • the short-range access refers to an action in which at least one of the short-range wireless communication tag and the reader moves to the counterpart and is located within the communication range. Alternatively, it may be called tagging. If it is located within the communication range, the short range wireless communication reader can read data recorded in the short range wireless communication tag.
  • NFC near field communication
  • a short range wireless communication scheme may be used.
  • NFC is a contactless short-range wireless communication method using the 13.56Mz frequency band.
  • data may be transmitted and received when a plurality of terminals approach a short distance, such as within about 10 cm.
  • a barcode method, a QR code method, WiFi, Zigbee, Bluetooth, or the like may be used.
  • the communication device 300 may store user information and transmit the user information to the UI providing apparatus 100 in various communication schemes.
  • the communication device 300 may be implemented as a short range wireless communication tag in which user information is recorded, and provide user information to a short range wireless communication reader provided in the UI providing apparatus 100 through tagging.
  • the communication device 300 may be implemented in the form of a disability card with a short range wireless communication tag.
  • the UI providing apparatus 100 outputs a UI corresponding to the type of failure and the degree of failure of the user using the user information received from the communication device 300 (S12).
  • the UI providing apparatus 100 may determine a type of failure and a degree of failure of the user based on the user information received from the communication device 300, and at least one of a graphical UI and a voice UI according to the determined type and degree of failure. You can output one.
  • the UI providing apparatus 100 may output a graphic UI including UI components of a predetermined size or more according to the degree of visual impairment.
  • the UI components include text, images, cursors, pointers, and the like.
  • the UI providing apparatus 100 may output a voice UI instead of the graphic UI, or output a graphic UI and a voice UI including a UI component of a predetermined size or more together.
  • the UI providing apparatus 100 may output a voice UI above a predetermined volume according to the degree of hearing impairment.
  • the UI providing apparatus 100 may output a graphic UI instead of the voice UI, or may output the voice UI above a predetermined volume together with the graphic UI.
  • the UI output device 100 may store information about the UI type, the size of the graphic UI, and the output volume size of the voice UI, which are output according to the type of failure and the degree of the user's failure.
  • the UI output device 100 determines the UI type corresponding to the type of failure and the degree of the failure received from the communication device 300, the size of the graphic UI, the output volume size of the voice UI, and the like. You can print it out.
  • the UI providing apparatus 100 has been described as receiving user information from the communication device 300, but this is only an example.
  • the user may directly input user information in the UI providing apparatus 100.
  • the UI providing apparatus 100 includes an input means such as a touch screen, a touch pad, a button, or the like, or is connected to an input means such as a remote controller, a keyboard, a mouse, or the like, the user may use his / her own disability type through the input means, The degree of failure and user identification information can be entered directly.
  • the user may connect an external storage medium such as a universal serial bus (USB) memory or a memory card to the UI providing apparatus 100 to transfer user information stored in the external storage medium to the UI providing apparatus 100.
  • an external storage medium such as a universal serial bus (USB) memory or a memory card
  • the user information may be transmitted to the UI providing device 100 by using the other terminal device.
  • the UI providing apparatus 100 receives the corresponding information from the server 200 and corresponding to The UI may be output, and together with reference to FIG. 3 for a more detailed description.
  • FIG. 3 is a sequence diagram illustrating a UI providing method of a UI providing system according to an exemplary embodiment.
  • the UI providing apparatus 100 receives the user information from the communication device 300 storing the user information (S21).
  • the UI providing apparatus 100 when the user information received from the communication device 300 does not include information on the type of failure and the degree of failure of the user, that is, the UI providing apparatus 100 receives only user identification information from the communication device 300. In one case, the UI providing apparatus 100 transmits user identification information to the server 200 (S22).
  • the server 200 transmits information on the type of failure and the degree of failure corresponding to the user identification information to the UI providing apparatus 100 (S23), and the UI providing apparatus 100 is received from the server 200.
  • the UI corresponding to the failure type and the degree of the failure of the user may be output.
  • the server 200 stores information on the type of failure and the degree of failure of the user for each user identification information.
  • the server 200 is matched with the received user identification information and stored. And information about the degree of failure to the UI providing apparatus 100.
  • the server 200 may be provided to a government agency, a national public hospital, a private hospital, or the like, and may communicate with the UI providing apparatus 100 through an internet network.
  • the UI providing apparatus 100 when the UI providing apparatus 100 does not store the information about the UI output according to the type of failure and the degree of failure of the user, the UI providing apparatus 100 receives the corresponding information from the server 200 and uses it The UI corresponding to the type of failure and the degree of failure of the user can be output. Refer to FIG. 4 together for more detailed description.
  • FIG. 4 is a sequence diagram illustrating a UI providing method of a UI providing system according to an exemplary embodiment.
  • the UI providing apparatus 100 receives the user information from the communication device 300 storing the user information (S31).
  • the UI providing apparatus 100 when the UI providing apparatus 100 does not store the information on the UI output according to the type of failure and the degree of failure of the user, the UI providing apparatus 100 is a server to the user information received from the communication device 300 Transfer to step 200 (S32). In this case, the UI providing apparatus 100 may transmit information on the type of failure and the degree of failure of the user, transmit user identification information, or transmit all of them to the server 200.
  • the server 200 transmits the UI output information to the UI providing apparatus 100 so that the UI providing apparatus 100 outputs a UI corresponding to the type of failure and the degree of the user's failure (S33).
  • the UI output information may include information about the UI type output from the UI providing apparatus 100, the size of the graphic UI, and the output volume size of the voice UI according to the type of failure and the degree of the user's failure.
  • the UI providing apparatus 100 uses the UI output information received from the server 200 to determine the UI type, the size of the graphic UI, the output volume size of the voice UI, etc. according to the type of the user's failure and the degree of the failure.
  • the control unit may output a UI corresponding to the type of failure and the degree of failure of the user (S34).
  • the UI providing apparatus 100 stores information about the changed UI when a user operation for changing the output state of the UI is input. Thereafter, when the UI providing apparatus 100 receives the information on the type and the degree of the failure of the user, the UI providing apparatus 100 may output a UI corresponding to the type and the degree of the failure based on the changed information on the UI. Refer to FIG. 5 for a more detailed description.
  • FIG. 5 is a sequence diagram for explaining a UI providing method of a UI providing system according to an exemplary embodiment.
  • the UI providing apparatus 100 receives the user information from the communication device 300 storing the user information (S41). In operation S42, the UI providing apparatus 100 outputs a UI corresponding to the type of failure and the degree of failure of the user using the user information received from the communication device 300.
  • the UI providing apparatus 100 stores information about the changed UI accordingly (S44).
  • the UI providing apparatus 100 may store information about the changed UI in accordance with the type of failure and the degree of failure set to output the UI before the output state is changed.
  • the UI providing apparatus 100 may output a UI corresponding to the type of failure and the degree of failure based on the changed information on the UI.
  • the UI providing apparatus 100 adjusts the user operation Information about the size of the graphical UI can be stored.
  • the adjusted size of the graphical UI may be stored in correspondence with the corresponding disability type and the degree of disability, that is, the level 4 visual disability.
  • the UI providing apparatus 100 may output a graphic UI having an adjusted size.
  • the size of the graphic UI is adjusted, this is only an example. That is, the size of the output volume of the voice UI as well as the size of the graphic UI may be changed to be stored according to the type of failure and the degree of failure.
  • the UI providing apparatus 100 may determine the UI. According to a user manipulation for changing the output state, information about the changed UI is transmitted to the server 200, and the server 200 may store information about the changed UI. Refer to FIG. 6 together for a more detailed description.
  • FIG. 6 is a sequence diagram illustrating a UI providing method of a UI providing system according to an exemplary embodiment.
  • the UI providing apparatus 100 receives user information from the communication device 300 that stores the user information (S51). Information for outputting the UI corresponding to the user's type of failure and the degree of the failure to the UI providing apparatus 100, that is, the UI type outputted according to the type and the degree of the user's failure, the size of the graphical UI, and the output volume size of the voice UI
  • the UI providing apparatus 100 may transmit user information to the server 200 (S52), and receive UI output information from the server 200 (S53).
  • the UI providing apparatus 100 uses the UI output information received from the server 200 to determine the UI type, the size of the graphic UI, the output volume size of the voice UI, etc. according to the type of the user's failure and the degree of the failure.
  • the control unit may output a UI corresponding to the type of failure and the degree of failure of the user (S54).
  • the UI providing apparatus 100 transmits the information about the changed UI to the server 200 (S56). ). Accordingly, the server 200 stores information about the changed UI received from the UI providing apparatus 100 (S57). In this case, the server 200 may store the changed UI information by matching the user information.
  • the server 200 transmits information about the changed UI to the UI providing apparatus 100, and the UI providing apparatus 100 provides information on the changed UI. Based on the failure type and the degree of failure can be output to the UI.
  • the UI providing apparatus 100 While outputting the graphic UI according to the size set to be provided to the fourth-class visually impaired by the UI providing apparatus 100, if a user operation for adjusting the size of the output graphic UI is input, the UI providing apparatus 100 is provided. ) May transmit information about the size of the graphic UI adjusted according to a user's operation to the server 200.
  • the server 200 may match the size of the adjusted graphic UI with user information, that is, user identification information, information about a failure type and a degree of failure of the corresponding user. Accordingly, when the same user information is received from the UI providing apparatus 100, the server 200 may transmit information about the adjusted size of the graphic UI to the UI providing apparatus 100, and the UI providing apparatus 100 may A graphical UI with a adjusted size can be output.
  • the UI providing apparatus 100 may configure and output the UI differently according to the type of disability and the degree of the disability of the user. 100 can be conveniently used.
  • the UI providing apparatus 100 includes a receiver 110, a controller 120, and an outputter 130.
  • the receiver 110 may receive the user information through short-range wireless communication with the communication device (300 of FIG. 1) storing the user information.
  • the receiver 110 may include an NFC tag that stores user information and an NFC reader that receives user information through tagging.
  • the receiver 110 accesses the communication device 300 to which the near field communication tag is attached, the receiver 110 reads the information recorded in the tag and provides it to the controller 120.
  • the receiver 110 may be composed of a radio frequency module and an antenna coil.
  • the receiver 110 emits electromagnetic waves through the antenna coil. Accordingly, in the short range wireless communication tag (not shown) attached to the communication device 300 located within the electromagnetic wave reaching distance with respect to the UI providing apparatus 100, current is induced according to the electromagnetic induction method. Accordingly, the integrated circuit in the near field communication tag is driven to transmit an RF signal including the stored data.
  • the radio frequency module in the receiver 110 receives an RF signal through an antenna coil, performs demodulation and decoding on the received RF signal, and detects data carried in the RF signal.
  • the receiver 110 has been described as including an NFC reader. However, if necessary, the receiver 110 may include a short range wireless communication module including a short range wireless communication tag.
  • the receiver 110 may receive user information from the communication device 300 through a bar code method, a QR code method, WiFi, Zigbee, Bluetooth, etc. which are other short range wireless communication methods other than NFC.
  • the user information may include at least one of the type of failure of the user, the degree of failure according to the type of failure and the user identification information.
  • the type of disability may include information on types of disabilities classified according to characteristics such as visual impairment, hearing impairment, and the like
  • the degree of disability may include information on disability grades classified for each disability type.
  • the user identification information is information for distinguishing a user and may include information such as a name, a social security number, a disability registration number, and the like.
  • various pieces of information constituting user information may be stored in each field of data received from the communication device 300.
  • the failure type, the degree of failure, and the user identification information may be stored in each field of data used in the NFC communication method.
  • the information on the type of failure may be stored in the first data field
  • the information on the degree of failure may be stored in the second data field
  • the user identification information may be stored in the third data field.
  • the controller 120 may set the UI to correspond to the information on the type of disability and the degree of disability of the user acquired based on the user information.
  • the output unit 130 outputs the set UI.
  • the controller 120 extracts a failure type, a degree of failure and user identification information from each field of the data received through the receiver 110, and determines the type of failure and the degree of failure of the user according to the extracted information. For example, the controller 120 determines that the user is visually impaired when the bit extracted from the first data field is 1, and determines that the user is deaf when the bit extracted from the first data field is 0. Can be. However, this is merely an example, and information to indicate the type of failure may be recorded in the data in various ways.
  • the controller 120 determines the UI type output from the UI providing apparatus 100, the size of the graphic UI, and the output volume size of the voice UI according to the type of the user's disability and the degree of the disability.
  • the UI providing apparatus 100 may store information on the UI type, the size of the graphic UI, and the output volume size of the voice UI, which are output according to the type of failure and the degree of the user's failure.
  • the UI output device 100 may store information that the UI type to be output is a voice UI when the degree of visual impairment of the user is a level at which the object cannot be recognized at all.
  • the UI output device 100 may provide information such as a graphic UI or a graphic UI + voice UI and information about a size of the graphic UI to be output. Can be stored.
  • the UI output device 100 may store information that the UI type output is a graphic UI.
  • the UI output device 100 may output information such as a voice UI or a graphic UI + voice UI and an output volume size of the voice UI. It can store information about.
  • the UI output device 100 may store various types of graphic UIs and voice UIs.
  • the UI output apparatus 100 may include a feedback UI for a function selected by the UI providing apparatus 100, a UI indicating a function performed by the UI providing apparatus 100, and a function provided by the UI providing apparatus 100.
  • the UI for receiving a user command for controlling the data may be stored in a graphic form and a voice form.
  • the controller 120 may determine a UI corresponding to the type of failure and the degree of failure of the user based on the information stored in the UI output device 100, and output the same through the output unit 130.
  • the controller 120 may control the output unit 130 to output at least one of a graphic UI and a voice UI according to the degree of visual impairment when the type of disability of the user is visually impaired.
  • the controller 120 may control the output unit 130 to output a graphic UI corresponding to the level when the degree of visual impairment is greater than or equal to a preset level and to output a voice UI when the degree of visual impairment is less than the preset level. have.
  • the controller 120 determines whether the degree of visual impairment of the user belongs to a level that cannot recognize the object at all or a level that can recognize the object.
  • the controller 120 may determine the output UI as the voice UI when the degree of visual impairment of the user belongs to a level at which the object is not recognized at all, and output the voice UI through the output unit 130.
  • the controller 120 may determine the output UI as a graphic UI or a graphic UI + voice UI and output the same through the output unit 130. have.
  • the voice UI may be provided in various forms according to the degree of visual impairment.
  • the controller 120 may output a voice UI for receiving a user command for controlling a function provided by the UI providing apparatus 100.
  • the controller 120 may operate in a voice recognition mode that analyzes a user voice input through a microphone (not shown) provided in the UI providing apparatus 100 and performs a control operation according to the analyzed user voice. have.
  • the controller 120 outputs a voice UI "tell me the channel number" through the output unit 130 for channel selection, and collects the user. The channel corresponding to the voice can be tuned.
  • the voice UI may be implemented in a form of reading a predetermined text in order to receive a user command for controlling a function provided by the UI providing apparatus 100.
  • the controller 120 may output a voice UI corresponding to text included in a specific menu, such as "menu, 1. channel management, 2. external input management, ##.
  • the controller 120 may output the voice UI in a feedback form for the selected function through the graphic UI. That is, the controller 120 may output a notification sound or a voice for indicating whether a function corresponding to a user manipulation is correctly performed.
  • the controller 120 may output a voice UI such as “ding dong dang” or “menu is selected”.
  • a voice UI such as “beep” or "unselectable menu”. That is, when the voice UI is output together with the graphic UI, the voice UI may perform a function for assisting the graphic UI.
  • the voice UI may be in a form for describing the graphic UI.
  • the voice UI may be implemented to read text included in the graphic UI. That is, the controller 120 may output a voice UI corresponding to text included in the graphic UI on which the graphic UI selected by the user, the cursor or the highlight menu, etc. are located. For example, when the graphic UI for selecting channel ⁇ is selected by the user, the controller 120 may output a voice UI such as "channel ⁇ is selected".
  • the graphic UI may be provided in various forms according to the degree of visual impairment.
  • the controller 120 may output a graphic UI including UI components of a predetermined size or more according to the degree of visual impairment of the user. That is, the controller 120 may output a graphical UI including a UI component having a size that can be recognized by the user according to the degree of visual impairment.
  • the UI component may include text, a cursor, an image, etc. constituting the graphical UI.
  • controller 120 may change the color of the UI component, highlight a specific portion, and output the highlight, or change the display position, layout, and the like of the UI component.
  • the graphic UI and the voice UI corresponding to the degree of visual impairment of the user may be generated in various ways.
  • the controller 120 may change the size, color, position, layout, etc. of the graphical UI set as a default in the UI providing apparatus 100 to generate a graphical UI corresponding to the visual impairment degree.
  • the graphic UI and the voice UI may be pre-stored in the UI providing apparatus 100 for each visual impairment or may be received from the server 200.
  • the controller 120 may control the output unit 130 to output at least one of a graphic UI and a voice UI according to the degree of hearing impairment when the user's disability type is hearing impaired.
  • the controller 120 may output a voice UI corresponding to the level when the degree of hearing impairment is greater than or equal to a preset level, and output a graphic UI when the degree of hearing impairment is less than the preset level.
  • the controller 120 determines whether the degree of hearing impairment of the user belongs to a level where no sound can be heard at all or a level that can hear a sound having a predetermined size or more. .
  • the controller 120 may determine the output UI as the graphic UI and output the graphic UI through the output unit 130.
  • the controller 120 determines the output UI as a voice UI or a graphic UI + voice UI and outputs the same through the output unit 130.
  • the controller 120 may output a graphic UI set as a default to the UI providing apparatus 100, but the voice UI may be provided in various forms according to the degree of hearing impairment.
  • the controller 120 may output the voice UI at a volume of a predetermined size or more according to the degree of hearing impairment of the user. That is, the controller 120 may output the voice UI at a volume such that a user who is deaf may be recognized according to the degree of hearing impairment.
  • the voice UI may include a voice UI for receiving a user command for controlling a function provided by the UI providing apparatus 100, a voice UI in a feedback form for a function selected through a graphic UI, and a graphic UI.
  • Voice UI in the form.
  • the voice UI corresponding to the degree of hearing impairment of the user may be generated in various ways.
  • the controller 120 may amplify a voice UI to be set as a default in the UI providing apparatus 100 to generate a voice UI having a size that a user who is hearing impaired can recognize according to the degree of hearing impairment.
  • the voice UI may be pre-stored in the UI providing apparatus 100 for each degree of hearing impairment or may be received from the server 200.
  • the UI providing apparatus 100 may differentially output a UI for a user having a different type of disability.
  • the controller 120 may output a voice UI instead of the graphic UI set as a default.
  • the UI providing apparatus 100 includes a video output unit 131, an audio output unit 133, a video processor 135, an audio processor 137, and a communication unit 140 in addition to the components illustrated in FIG. 7. , Detection unit 150, storage unit 160, input unit 170, GPS receiver 181, DMB receiver 183, button 185, USB port 187, camera 189, microphone 191 It includes.
  • the storage unit 160 may store various information.
  • the storage 160 may store information for outputting a UI corresponding to the type of failure and the degree of failure of the user.
  • the storage unit 160 may store information about an output UI type, a size of a graphic UI, and an output volume size of a voice UI corresponding to a type of failure and a degree of failure of the user.
  • the storage 160 may store various types of UI.
  • the storage unit 160 may store a graphic UI and a voice UI set as a default in the UI providing apparatus 100, and may store a graphic UI and a voice UI corresponding to the type and level of the user's disability.
  • the corresponding UIs control a UI for providing feedback on a function selected according to a user's operation, a UI for indicating a function performed in the UI providing apparatus 100, and a function provided in the UI providing apparatus 100. It may include various contents such as a UI for receiving a user command.
  • the storage unit 160 may include a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD memory). Etc.), RAM, and ROM may include at least one type of storage medium.
  • the controller 120 may control to output a UI corresponding to the type of failure and the degree of failure of the user by using various information stored in the storage 160.
  • the controller 120 may read out the graphic UI and the voice UI corresponding to the type of failure and the degree of the user's failure from the storage unit 160, process the signal, and output the signal through the output unit 130.
  • the controller 120 may change the size of the UI component included in the graphic UI set as a default or amplify the voice UI and output the same through the output unit 130.
  • the communication unit 140 is a configuration for performing communication with the server (200 of FIG. 2).
  • the communicator 140 may include a network interface card 141 to communicate with the server 200 through an internet network.
  • the controller 120 may transmit the user identification information to the server 200 and control the communication unit 140 to receive information on the type of failure and the degree of failure corresponding to the user identification information from the server 200. . That is, the controller 120 transmits the user identification information to the server 200 when there is no information on the type of failure and the degree of failure in the data received from the communication device 300 through the receiver 110. Information about the type of failure and the degree of failure corresponding to the information may be received from the server 200.
  • the controller 120 determines the output UI type, the size of the graphic UI, and the output volume size of the voice UI corresponding to the type of failure and the degree of the user's failure received from the server 200, and the user's failure type and The UI corresponding to the degree of failure may be output through the output unit 130.
  • the controller 120 transmits the user information to the server 200 when the information for outputting the UI corresponding to the type of failure and the degree of failure is not stored in the UI providing apparatus 100, and the type of failure and the degree of failure.
  • the communication unit 140 may be controlled to receive UI output information corresponding to the server 200 from the server 200. That is, if the information about the output UI type, the size of the graphic UI, and the output volume size of the voice UI corresponding to the type of failure and the degree of the user's failure is not stored in the storage unit 160, Information may be received from the server 200.
  • the UI output information received from the server 200 may include information about the UI type output from the UI providing apparatus 100, the size of the graphic UI, and the output volume size of the voice UI according to the type of failure and the degree of failure. Can be.
  • the UI output information received from the server 200 is a UI provided to the level 4 visually impaired is a graphical UI, for the size of the UI component included in the graphical UI May contain information.
  • the controller 120 determines the UI type corresponding to the user's failure type and the degree of the failure, the size of the graphic UI and the output volume of the voice UI based on the UI output information received from the server 200.
  • the UI corresponding to the type of failure and the degree of the failure of the user may be output through the output unit 130.
  • the communication unit 140 may include a Wi-Fi chip 142, a Bluetooth chip 143, and a wireless communication chip 144.
  • the Wi-Fi chip 142 and the Bluetooth chip 143 communicate with each other by WiFi and Bluetooth.
  • various connection information such as SSID and session key may be first transmitted and received, and then various communication information may be transmitted and received using the same.
  • the wireless communication chip 144 refers to a chip that performs communication according to various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evoloution (LTE), and the like.
  • various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evoloution (LTE), and the like.
  • the communication unit 140 may transmit and receive various information by performing wireless communication with external devices according to various communication methods.
  • the sensing unit 150 includes a geomagnetic sensor 151, a gyro sensor 152, an acceleration sensor 153, a touch sensor 154, and a pressure sensor 155.
  • the detector 150 may detect various user manipulations such as a touch, rotation, tilt, and pressure on the UI providing apparatus 100.
  • the geomagnetic sensor 151 is a sensor for detecting a rotation state and a moving direction of the UI providing apparatus 100.
  • the gyro sensor 152 is a sensor for detecting a rotation angle of the UI providing apparatus 100. Both the geomagnetic sensor 151 and the gyro sensor 152 may be provided, but even if only one of them is provided, the UI providing apparatus 100 may detect a rotation state.
  • the acceleration sensor 153 is a sensor for detecting an inclination degree of the UI providing apparatus 100.
  • the touch sensor 154 may be implemented as capacitive or pressure sensitive.
  • the capacitive type uses a dielectric coated on the surface of the video output unit 131 to calculate touch coordinates by detecting fine electricity excited by the user's human body when a part of the user's body is touched on the surface of the video output unit 131. to be.
  • the pressure sensitive type includes two electrode plates, and when the user touches the screen, the touch plate is calculated by detecting that the upper and lower plates of the touched point are in contact with the current to flow.
  • the touch sensor 154 may be implemented in various forms.
  • the pressure sensor 155 detects the magnitude of the pressure applied to the UI providing apparatus 100 when the user performs a touch operation and provides the pressure sensor 155 to the controller 120.
  • the pressure sensor 155 may include a piezo film embedded in the video output unit 131 to output an electric signal corresponding to the magnitude of the pressure.
  • the touch sensor 154 and the pressure sensor 155 are illustrated as separate in FIG. 5, when the touch sensor 154 is implemented as a pressure sensitive touch sensor, the pressure sensitive touch sensor serves as the pressure sensor 155. You can also do it together.
  • the controller 120 analyzes various detection signals sensed by the detector 150, determines the intention of the user, and performs an operation corresponding to the intention.
  • the controller 120 may perform a control operation according to various input methods such as touch manipulation, motion input, voice input, and button input.
  • Touch operations may include various operations such as simple touch, tap, touch and hold, move, flick, drag and drop, pinch in, pinch out, and the like.
  • the controller 120 may execute an application stored in the storage 160 to configure and display an execution screen, and may play various contents stored in the storage 160.
  • the content may mean various multimedia contents such as an image, text, a photo, a video, and the like.
  • the controller 120 may communicate with external devices through the communication unit 140 to receive content.
  • the controller 120 may change the display direction of the content displayed on the output unit 130 based on the rotation state of the UI providing apparatus 100. For example, when the UI providing apparatus 100 is rotated by 90 ° to the left, the controller 120 may control the content to be rotated by 90 ° to the left and displayed.
  • the input unit 170 receives various user operations, and the controller 120 performs an operation corresponding to various user operations input through the input unit 170. For example, when a user operation for turning on the power of the UI providing apparatus 100 is input through the input unit 170, the controller 120 may supply power to each component of the UI providing apparatus 100.
  • the input unit 170 may be implemented as a remote control receiver, an input port, etc. for receiving a user operation from an input means such as a remote controller, a keyboard, a mouse, or the like, or may be implemented as a touch screen, a touch pad, etc. together with the output unit 130. Can be.
  • the input unit 170 may receive a user operation for changing the output state of the UI.
  • the controller 120 may control the output unit 130 to output the changed UI when the user information is received after the output state of the UI is changed according to the user's manipulation.
  • the controller 120 displays a UI screen for changing the output state of the UI according to a user manipulation through the output unit 130.
  • the controller 120 inputs a user operation for changing the size of a component of the UI included in the graphical UI on the UI screen or a user operation for changing the output volume size of the voice UI. Accordingly, the changed information about the UI is stored in the storage 160.
  • the controller 120 may store information about the changed UI in accordance with the type of failure and the degree of failure set to output the UI before the output state is changed. Accordingly, when the information about the same type of failure and the degree of failure is received, the controller 120 may output at least one of a graphic UI of which the size is changed and a voice UI of which the size of the output volume is changed.
  • the controller 120 adjusts the graphic adjusted according to the user operation.
  • Information about the size of the UI may be stored in the storage 160.
  • the controller 120 may match the size of the adjusted graphic UI with a corresponding disability type and a degree of disability, that is, a level 4 visual disability. Accordingly, when information on the type of disability and the degree of disability corresponding to the fourth-class visual disability is received, the controller 120 may output the graphic UI having the adjusted size through the output unit 130.
  • the changed UI information is described as being stored in accordance with the type of failure and the degree of failure, but this is only an example. That is, the controller 120 may normalize the information about the UI corresponding to the type of failure and the degree of failure and the changed UI information, and store the averaged information on the UI according to the type of failure and the degree of failure. . In this case, when the information on the same type of failure and the degree of failure is received thereafter, the controller 120 may output a UI corresponding to the type of failure and the degree of failure based on the information on the averaged UI.
  • the controller 120 may average the size set to be provided to the fourth-class visually impaired and the size adjusted by the user's operation, and store information about the averaged size of the graphical UI in the storage 160. .
  • the controller 120 may match the size of the averaged graphical UI with the corresponding failure type and the degree of failure and store the same. That is, if the size set to be provided to the fourth-class visually impaired is 7 and the size adjusted by the user's operation is 9, the average value thereof 8 may be matched to the fourth-class visually impaired and stored.
  • the controller 120 may output a graphic UI having an averaged size through the output unit 130.
  • the control unit 120 receives the UI output information received from the server 200 The UI corresponding to the type of failure and the degree of failure of the user may be output.
  • the controller 120 may control the communication unit 140 to transmit the information about the changed UI to the server 200.
  • the server 200 may store information on the changed UI by matching the user information.
  • the controller 120 transmits the user information to the server 200, and the server 200 matches UI information stored in accordance with the user information, that is, for the changed UI.
  • Information may be transmitted to the UI providing apparatus 100. Accordingly, the controller 120 may output a UI corresponding to the type of failure and the degree of failure of the user based on the changed information about the UI.
  • the controller 120 adjusts the graphic adjusted according to the user operation.
  • Information about the size of the UI may be transmitted to the server 200. Thereafter, when the same user information is received, the control unit 120 transmits the same user information to the server 200.
  • the control unit 120 receives information about the adjusted size of the graphic UI from the server 200, and adjusts the adjusted size.
  • the graphic UI having the same may be output through the output unit 130.
  • the information about the changed UI is stored in the server 200, but this is only an example. That is, the server 200 may normalize the UI output information corresponding to the type of failure and the degree of failure and the changed UI information, and may store the averaged UI information with the user information. Accordingly, when the same user information is received, the server 200 may transmit information about the averaged UI to the UI providing apparatus 100, and the controller 120 may use the information on the averaged UI to determine the user's information. The UI corresponding to the type of failure and the degree of failure may be output.
  • the GPS receiver 181 is a component for receiving a GPS signal from a GPS satellite and calculating a current position of the UI providing apparatus 100.
  • the DMB receiving unit 183 is a component that receives and processes a digital multimedia broadcasting (DMB) signal.
  • DMB digital multimedia broadcasting
  • the video processor 135 is a component that performs processing on video data.
  • the video processor 135 may perform various image processing such as decoding, scaling, noise filtering, frame rate conversion, resolution conversion, and the like on the video data.
  • the video processor 135 may process a graphic UI corresponding to a type of failure and a degree of failure in a form that can be output from the video output unit 131.
  • the video processor 135 may change the size of the graphic UI stored in the default and the UI elements constituting the graphic UI to be processed by the video output unit 131.
  • the audio processor 137 is a component that processes audio data.
  • the audio processor 137 may perform various processing such as decoding, amplification, noise filtering, or the like on the audio data.
  • the audio processor 137 may process the voice UI corresponding to the type of failure and the degree of the failure in a form that can be output from the audio output unit 133.
  • the audio processor 137 may amplify the voice UI and the corresponding voice UI, which are stored as a default, to be output from the audio output unit 133.
  • the output unit 130 includes a video output unit 131 for outputting an image and an audio output unit 133 for outputting audio.
  • the video output unit 131 may display the video data processed by the video processor 135 as an image.
  • the video output unit 131 may be implemented in the form of a liquid crystal display (LCD), an organic light emitting diode (OLED), or a plasma display panel (PDP). Can be.
  • LCD liquid crystal display
  • OLED organic light emitting diode
  • PDP plasma display panel
  • the audio output unit 133 may output audio data processed by the audio processor 137 as audio.
  • the audio output unit 133 may output various notification sounds or voice messages.
  • the audio output unit 133 may be implemented as an output port such as a jack, a speaker, or the like.
  • the controller 120 may output various screens or objects through the video output unit 131 and the audio output unit 133.
  • the controller 120 performs signal processing on a variety of images, texts, photos, and videos stored in the storage 160 in a form that can be processed by the video processor 135 and the audio processor 137 to perform video processing. It may be output through the output unit 131 and the audio output unit 133.
  • the controller 120 may display a screen for receiving various user commands on the video output unit 131.
  • the controller 120 may display a menu screen for changing the UI output state on the video output unit 131 according to a user operation.
  • controller 120 outputs a graphic UI corresponding to the type and the degree of the user's disorder through the video output unit 131, and outputs a voice UI corresponding to the type and the degree of the user's disorder. You can also output via
  • the button 185 may be various types of buttons such as a mechanical button, a touch pad, a wheel, and the like formed in an arbitrary area such as a front portion, a side portion, a rear portion, etc. of the main body of the UI providing apparatus 100. As such, various user operations for controlling the operation of the UI providing apparatus 100 such as a power on / off command may be input through the button 185.
  • the USB port 187 refers to a port to which a USB memory or a USB connector can be connected, and through this, various contents can be received from an external device and transmitted to the external device.
  • the camera 189 is a component for capturing a still image or a moving image under the control of a user.
  • the camera 189 may be implemented in plurality, such as a front camera and a rear camera.
  • the microphone 191 is configured to receive a user voice or other sound and convert the same into audio data.
  • the controller 120 may use the user's voice input through the microphone 191 in a call process or convert the user voice into audio data and store the converted audio data in the storage 160.
  • the controller 120 may perform a control operation according to a user voice input through the microphone 191 or a user motion recognized by the camera 189. That is, the UI providing apparatus 100 may operate in a motion control mode or a voice control mode.
  • the controller 120 when operating in the motion control mode, the controller 120 activates the camera 189 to photograph the user, and tracks the motion change of the user to perform a control operation such as power on or off.
  • the controller 120 when operating in the voice control mode, the controller 120 may operate in a voice recognition mode that analyzes a user voice input through a microphone and performs a control operation according to the analyzed user voice.
  • various external input ports may be further included for connecting to various external terminals such as a headset, a mouse, a LAN, and the like.
  • the above-described operation of the controller 130 may be performed by a program stored in the storage 160.
  • the storage unit 160 may store various data such as O / S (Operating System) software for driving the UI providing apparatus 100, various applications, various data input or set during application execution, and contents.
  • O / S Operating System
  • the controller 120 controls the overall operation of the UI providing apparatus 100 using various programs stored in the storage 160.
  • the controller 120 includes a RAM 121, a ROM 122, a main CPU 123, a graphics processor 124, first to n interface 125-1 to 125-n, and a bus 126.
  • the RAM 121, the ROM 122, the main CPU 123, and the first to n-th interfaces 125-1 to 125-n may be connected to each other through the bus 136.
  • the first to n interfaces 125-1 to 125-n are connected to the various components described above.
  • One of the interfaces may be a network interface connected to an external device via a network.
  • the main CPU 123 accesses the storage 160 and performs booting using an operating system stored in the storage 160. In addition, various operations are performed using various programs, contents, data, etc. stored in the storage 160.
  • the ROM 122 stores a command set for system booting.
  • the main CPU 123 copies the O / S stored in the storage unit 160 to the RAM 121 according to the command stored in the ROM 122 and executes O / S.
  • the main CPU 123 copies various application programs stored in the storage unit 160 to the RAM 121 and executes the application programs copied to the RAM 121 to perform various operations.
  • the graphic processor 124 configures various screens under the control of the main CPU 123. Specifically, the graphic processing unit 124 also calculates a display state value for the screen.
  • the display state value may be a coordinate value of a position where an object is to be displayed on the screen, an attribute value indicating the shape, size, color, etc. of the object.
  • the graphic processor 124 performs rendering based on the value to generate a screen.
  • the configuration of the UI providing apparatus 100 illustrated in FIG. 8 is merely an example, some of the components illustrated in FIG. 8 may be omitted or changed, and other components may be further added. May be
  • the controller 120 may execute a program stored in the storage 160 to perform various operations.
  • the storage 160 includes a base module 161, a sensing module 162, a communication module 163, a presentation module 164, a web browser module 165, and a content processing module 166. Include.
  • the base module 161 refers to a base module that processes and transmits signals transmitted from hardware provided in the UI providing apparatus 100 to an upper layer module.
  • the base module 161 includes a storage module 161-1, a location based module 161-2, a security module 161-3, a network module 161-4, and the like.
  • the storage module 161-1 is a program module that manages a database (DB) or a registry.
  • the main CPU 123 may access a database in the storage unit 160 using the storage module 161-1 to read various data.
  • the location-based module 161-2 is a program module that supports location-based services by interworking with various hardware such as a GPS chip.
  • the security module 161-3 is a program module that supports authentication, request permission, and secure storage of hardware.
  • the network module 161-4 is a network module for supporting network connection. Modules include DNET module and UPnP module.
  • the sensing module 162 is a module for managing information about an external input and an external device and using the same.
  • the sensing module 162 includes a rotation recognition module, a voice recognition module, a touch recognition module, and a gesture recognition module.
  • the rotation recognition module is a program that calculates a rotation angle and a rotation direction by using sensing values sensed by sensors such as the geomagnetic sensor 151 and the gyro sensor 152.
  • the voice recognition module is a program for analyzing a voice signal collected by the microphone 191 to extract a user's voice
  • the touch detection module is a program for detecting touch coordinates by using a sensing value detected by the touch sensor 154.
  • the gesture recognition module is a program that analyzes an image captured by the camera 189 to recognize a gesture of a user.
  • the communication module 163 is a module for communicating with the outside.
  • the communication module 163 may be a messaging module 163-1 such as a messenger program, a short message service (SMS) & multimedia message service (MMS) program, an e-mail program, a call info aggregator program module, a VoIP module, or the like. It may include a telephone module 163-2 including a.
  • the presentation module 164 is a module for configuring a display screen.
  • the presentation module 164 includes a multimedia module 164-1 for reproducing and outputting content, and a UI & graphics module 164-2 for performing UI and graphic processing.
  • the multimedia module 164-1 may include a player module, a camcorder module, a sound processing module, and the like. Accordingly, an operation of reproducing and reproducing a screen and sound by reproducing various contents is performed.
  • the UI & graphics module 164-2 includes an image compositor module for combining images, a coordinate combination module for generating coordinates on the screen to display an image, an X11 module for receiving various events from hardware, 2D or And a 2D / 3D UI toolkit that provides a tool for constructing a 3D UI.
  • the web browser module 165 refers to a module that performs web browsing to access a web server.
  • the web browser module 165 may include various modules such as a web view module constituting a web page, a download agent module performing a download, a bookmark module, a webkit module, and the like.
  • the content processing module 166 refers to software for processing content stored in the storage 160.
  • the reproduction capability determination module 166-1 is a program that operates with an algorithm for comparing reproduction capability information and content attributes.
  • the parser 166-2 and the codec 166-3 are software provided to the video processor 135 for content processing.
  • the parser 166-2 is typically implemented only in software, and the codec 166-3 may be implemented in software or in hardware.
  • various application modules such as a navigation service module and a game module may be further included.
  • the various program modules illustrated in FIG. 9 may be partially omitted, modified, or added according to the type and characteristics of the UI providing apparatus 100.
  • the UI providing apparatus 100 is a smartphone
  • an e-book application, a game application, and other utility programs may be further included.
  • some of the program modules of FIG. 9 may be omitted.
  • the server 200 includes a communication unit 210, a storage unit 220, and a control unit 230.
  • the communicator 210 may perform communication with the UI providing apparatus 100.
  • the communication unit 210 may communicate with the UI providing apparatus 100 through an internet network, and may transmit and receive various information.
  • the communication unit 210 may transmit / receive information on the type of failure and the degree of the user's failure, UI output information, information on the changed UI, and the like with the UI providing apparatus 100.
  • the storage unit 220 stores various information.
  • the storage unit 220 may store information about a failure type and a degree of failure matched for each user. That is, the storage unit 220 may store information about the type of failure and the degree of failure of the user for each user identification information.
  • the storage unit 220 may store information on the UI that is output according to the type of failure and the degree of failure of the user.
  • the storage unit 220 may include information about a UI type output from the UI providing apparatus 100, a size of a graphic UI, an output volume size of a voice UI, and the like according to a type of failure and a degree of failure.
  • the storage unit 220 may store information that the UI type output is a voice UI when the degree of visual impairment of the user is a level at which the object can not be recognized at all.
  • the storage unit 220 may store the information about the size of the graphical UI or the size of the graphical UI and the information such as the graphical UI or the graphical UI + voice UI. have.
  • the storage unit 220 may store information that the UI type output is a graphic UI when the degree of hearing impairment of the user is a level at which no sound can be heard at all. In addition, the storage unit 220, if the degree of hearing impairment of the user is a grade that can hear the sound more than a predetermined size is the UI type that is output to the voice UI, or information such as graphical UI + voice UI and the volume of the output volume of the voice UI Can store information about
  • the storage unit 220 may store information about the changed UI. That is, when the size of the graphic UI and the size of the output volume of the voice UI in the UI providing apparatus 100 change according to a user manipulation, the UI providing apparatus 100 transmits information about the changed UI to the server 200. Accordingly, the storage unit 220 may store information about the changed UI received from the UI providing apparatus 100. In this case, the storage unit 220 may match and store information about the changed UI for each user information.
  • the controller 230 controls the overall operation of the server 200.
  • the controller 230 detects information on a failure type and a degree of failure corresponding to the user identification information and transmits the detected information to the UI providing apparatus 100.
  • the identification information is transmitted to the server 200.
  • the controller 230 detects information from the storage 220 about a failure type and a degree of failure of the user corresponding to the user identification information received from the UI providing apparatus 100, and the UI is communicated through the communication unit 210. It may transmit to the providing device 100.
  • the controller 230 may control the communicator 210 to transmit UI output information corresponding to a failure type and a degree of failure to the UI output apparatus 100. .
  • the controller 230 uses the information stored in the storage 210, that is, information about the UI output according to the type of failure and the degree of failure of the user, to provide UI output information corresponding to the user information. 100). For example, if it is determined that the user is a level 4 visually impaired based on the user information received from the UI providing apparatus 100, the controller 230 is a level 4 time based on the UI output information stored in the storage 220.
  • the UI provided to the disabled is a graphic UI and may transmit information about the size of the UI component constituting the graphic UI to the UI providing apparatus 100.
  • the controller 230 matches and stores the changed UI information for each user, and when the user information is received, provides the UI with the changed UI information.
  • the communication unit 210 may be controlled to transmit to the device 100.
  • the UI providing apparatus 100 when the UI providing apparatus 100 does not previously store information for outputting the UI corresponding to the type of failure and the degree of failure of the user, the UI providing apparatus 100 is received from the server 200. Using the UI output information, the UI corresponding to the type of failure and the degree of failure of the user is output. In such a case, when the output state of the UI is changed by a user manipulation, the UI providing apparatus 100 transmits the information about the changed UI to the server 200.
  • the controller 230 matches the information about the changed UI received from the UI providing apparatus 100 to the user information and stores the information in the storage 220, and when the user information is received from the UI providing apparatus 100.
  • the communication unit 210 may be controlled to transmit the changed information about the UI to the UI providing apparatus 100.
  • the controller 230 may average the information on the UI corresponding to the user information and the changed UI information, and may store the averaged UI information on the user information. For example, the controller 230 may average the size set to be provided to the level 4 visually impaired and the size adjusted by a user's operation, and store information about the averaged size of the graphical UI in the storage 160. In this case, the controller 230 may match the size of the averaged graphical UI with the corresponding user information and store the same. That is, if the size set to be provided to the fourth-class visually impaired is 7 and the size adjusted by the user's operation is 9, the average value thereof 8 may be matched to the fourth-class visually impaired and stored.
  • 11 to 15 are diagrams for describing a method of providing a UI according to an embodiment of the present invention.
  • FIGS. 11 and 12 are diagrams for describing a case in which it is determined that a user is visually impaired according to user information received from the communication device 300.
  • the UI providing apparatus 100 may output a voice UI.
  • the UI providing apparatus 100 does not output the environment setting menu 410 as a graphic UI set as a default, and reads the menu in order to receive a user command for selecting the menu.
  • the voice UI 420 may be output.
  • the UI providing apparatus 100 may output a graphical UI including a UI component having a size that the user can recognize according to the degree of visual impairment.
  • the UI providing apparatus 100 may display the environment setting menu 410 set as a default in a larger size.
  • the UI providing apparatus 100 may adjust the size of the graphical UI according to the visual impairment of the user. That is, the UI providing apparatus 100 may output a larger size of the environment setting menu 440 when the degree of visual impairment is relatively greater than the environment setting menu 430 provided when the degree of visual impairment is relatively small. .
  • 13 and 14 are diagrams for describing a case in which it is determined that the user is a hearing impaired user according to the user information received from the communication device 300.
  • the UI providing apparatus 100 may output a graphic UI. For example, as shown in FIG. 13, even when the UI providing apparatus 100 outputs the environment setting menu in the voice form 510 by default, when it is determined that the user is deaf, the environment setting menu 520 may be displayed in the graphic form. Can provide.
  • the UI providing apparatus 100 may output a voice UI having a volume size that a user can hear according to the degree of hearing impairment. For example, as illustrated in FIG. 14, the UI providing apparatus 100 may output a voice UI set as a default at a larger volume. In this case, the UI providing apparatus 100 may increase the output volume size of the voice UI 540 when the hearing impairment degree is relatively larger than the voice UI 530 provided when the degree of hearing impairment is relatively small. .
  • the UI providing apparatus 100 may output the graphic UI and the voice UI together according to the user's type of disability and the degree of disability. For example, when it is determined that the user is visually impaired, the UI providing apparatus 100 may output a voice UI along with a graphic UI having a size that can be recognized by the user. In addition, when it is determined that the user is a hearing impaired, the UI providing apparatus 100 may output a graphic UI along with a voice UI of a size that the user can hear.
  • 15 is a diagram for describing a method of outputting a UI based on information on the changed UI when the output state of the UI is changed.
  • the UI providing apparatus 100 displays a UI screen 610 for changing an output state of the UI based on a user's manipulation.
  • the UI screen 610 may include a GUI 611 indicating a failure type and a degree of failure to be changed, a GUI 612 for receiving a user operation for adjusting the size of the graphical UI, and an output volume of the voice UI. It may include a GUI (613) for receiving an input of the user operation to adjust.
  • the user can select the up / down buttons provided in the GUI 611 to change the type of failure and the degree of failure to be changed.
  • the UI screen may receive a user operation for changing the graphic UI and the voice UI set for the 5th grade visually impaired user. If the lower button is selected, the UI screen may receive a user operation for changing the graphic UI and the voice UI set for the level 6 visually impaired person.
  • the user may select the up / down buttons provided in the GUI 612 and the GUI 613 to adjust the size of the graphic UI and the output volume of the voice UI.
  • the UI providing apparatus 100 stores the information on the changed UI, and the information on the changed UI By using this, a UI corresponding to the type of failure and the degree of failure of the user may be provided.
  • FIG. 15B is a diagram for explaining a graphic UI output before and after the size of the graphic UI is changed by the user. That is, the environment setting menu 620 having the size corresponding to the fourth-class visually impaired is displayed before it is changed by the user operation as shown in the left side of FIG. 15 (b).
  • the emergency visually impaired may display an environment setting menu 630 having a size changed by a user.
  • 16 is a flowchart illustrating a UI providing method of a UI providing apparatus according to an exemplary embodiment.
  • user information is received through short-range wireless communication with the communication device 300 storing the user information (S710).
  • the user information may be received through tagging and NFC tag storing the user information using the NFC reader.
  • the user information may include at least one of a type of failure, a degree of failure according to the type of failure, and user identification information.
  • the user identification information may be transmitted to the server, and information about a failure type and a degree of failure corresponding to the user identification information may be received from the server. That is, when information on the type of failure and the degree of failure of the user is not stored in the user information received from the communication device 300, the corresponding information may be received from the server.
  • a UI User Interface
  • S720 the set UI
  • At least one of the graphic UI and the voice UI may be output according to the degree of visual impairment. More specifically, when the degree of visual impairment is greater than or equal to a preset level, the graphical UI corresponding to the level may be output. When the degree of visual impairment is less than the preset level, the voice UI may be output.
  • At least one of the graphical UI and the voice UI may be output according to the degree of hearing impairment. More specifically, when the degree of hearing impairment is greater than or equal to a predetermined level, the voice UI corresponding to the level may be output, and when the degree of hearing impairment is less than the predetermined level, the graphic UI may be output.
  • the user information is transmitted to the server 200 and corresponding to the failure type and the degree of failure
  • the UI output information may be received from the server 200. Accordingly, based on the information received from the server 200, the UI corresponding to the type of failure and the degree of failure of the user may be output.
  • the changed UI when a user operation for changing the output state of the UI is input and user information is received after the output state of the UI is changed according to the user operation, the changed UI may be output. That is, when the size of the UI component included in the graphical UI is adjusted or the output volume size of the voice UI is adjusted, the information about the changed UI is stored, and when the user information is received again, the changed UI is used to use the changed UI information.
  • the UI corresponding to the type of failure and the degree of failure of the user may be output.
  • information about the changed UI may be transmitted to the server 200.
  • the UI providing apparatus receives the UI output information from the server 200, the type and failure of the user Outputs the UI corresponding to the degree.
  • the UI output device transmits information about the changed UI to the server 200.
  • 200 may store information about the changed UI.
  • a non-transitory computer readable medium may be provided in which a program for sequentially performing a control method according to the present invention is stored.
  • the non-transitory readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like.
  • a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.
  • the display device may further include a processor such as a CPU, a microprocessor, or the like that performs the above-described various steps.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Epidemiology (AREA)
  • General Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

UI 제공 장치가 개시된다. 본 UI 제공 장치는 사용자 정보를 저장한 통신 기기와의 근거리 무선 통신을 통해 사용자 정보를 수신하는 수신부, 사용자 정보를 기초로 획득된 사용자의 장애 유형 및 장애 정도에 대한 정보에 대응하도록 UI(User Interface)를 설정하는 제어부 및, 설정된 UI를 출력하는 출력부를 포함한다.

Description

UI 제공 장치 및 그의 UI 제공 방법
본 발명은 UI 제공 장치 및 그의 UI 제공 방법에 관한 것으로, 더욱 상세하게는 사용자 인터페이스를 제공할 수 있는 UI 제공 장치 및 그의 UI 제공 방법에 관한 것이다.
일반적으로, 각종 전자 장치는 사용자와의 의사 소통을 중계하기 위해 다양한 형태의 인터페이스를 제공한다. 예를 들어, 전자 장치들은 다양한 메뉴 화면을 디스플레이하여, 사용자로부터 특정 메뉴를 선택받을 수 있다.
하지만, 종래에는 전자 장치를 사용하는 사용자의 장애 여부와는 무관하게, 제조시 설정된 인터페이스를 사용자에게 제공하였다. 일반적으로 제조시 설정된 인터페이스는 비장애인을 기준으로 제공된다는 점에서, 장애인들은 전자 장치에서 제공되는 인터페이스를 통해 전자 장치를 제어하는데 다소 어려움이 있다.
이에 따라, 장애인들에게 용이한 인터페이스를 제공할 수 있는 방안의 모색이 요청된다.
본 발명은 상술한 필요성에 따른 것으로 본 발명의 목적은 사용자의 장애 유형 및 장애 정도를 고려하여 UI(User Interface)를 제공할 수 있는 UI 제공 장치 및 그의 UI 제공 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른, UI 제공 장치는, 사용자 정보를 저장한 통신 기기와의 근거리 무선 통신을 통해 상기 사용자 정보를 수신하는 수신부, 상기 사용자 정보를 기초로 획득된 사용자의 장애 유형 및 장애 정도에 대한 정보에 대응하도록 UI(User Interface)를 설정하는 제어부 및, 상기 설정된 UI를 출력하는 출력부를 포함한다.
이 경우, 상기 수신부는, 상기 사용자 정보를 저장한 NFC 태그와 태깅을 통해 상기 사용자 정보를 수신하는 NFC 리더를 포함할 수 있다.
또한, 상기 사용자 정보는, 장애 유형, 장애 유형에 따른 장애 정도 및, 사용자 식별 정보 중 적어도 하나를 포함할 수 있다.
이 경우, 본 실시 예에 따른 UI 제공 장치는 서버와 통신을 수행하기 위한 통신부를 더 포함하고, 상기 제어부는, 상기 사용자 식별 정보를 상기 서버로 전송하고, 상기 사용자 식별 정보에 대응되는 장애 유형 및 장애 정도에 대한 정보를 상기 서버로부터 수신하도록 상기 통신부를 제어할 수 있다.
또한, 상기 출력부는, 영상을 출력하기 위한 비디오 출력부 및, 음성을 출력하기 위한 오디오 출력부를 포함하며, 상기 제어부는, 상기 사용자의 장애 유형이 시각 장애인 경우, 시각 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력하도록 상기 출력부를 제어할 수 있다.
이 경우, 상기 제어부는, 상기 시각 장애 정도가 기설정된 레벨 이상인 경우 해당 레벨에 대응되는 그래픽 UI를 출력하고, 상기 시각 장애 정도가 기설정된 레벨 미만인 경우 상기 음성 UI를 출력하도록 상기 출력부를 제어할 수 있다.
또한, 상기 출력부는, 영상을 출력하기 위한 비디오 출력부 및, 음성을 출력하기 위한 오디오 출력부를 포함하며, 상기 제어부는, 상기 사용자의 장애 유형이 청각 장애인 경우, 청각 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력하도록 상기 출력부를 제어할 수 있다.
이 경우, 상기 제어부는, 상기 청각 장애 정도가 기설정된 레벨 이상인 경우 해당 레벨에 대응되는 음성 UI를 출력하고, 상기 청각 장애 정도가 기설정된 레벨 미만인 경우 상기 그래픽 UI를 출력하도록 상기 출력부를 제어할 수 있다.
한편, 본 실시 예에 따른 UI 제공 장치는, 서버와 통신을 수행하는 통신부를 더 포함하며, 상기 제어부는, 상기 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보가 상기 UI 제공 장치에 저장되어 있지 않은 경우, 상기 사용자 정보를 상기 서버로 전송하고 상기 장애 유형 및 장애 정도에 대응되는 UI 출력 정보를 상기 서버로부터 수신하도록 상기 통신부를 제어할 수 있다.
또한, 본 실시 예에 따른 UI 제공 장치는, 상기 UI의 출력 상태를 변경하기 위한 사용자 조작을 입력받는 입력부를 더 포함하며, 상기 제어부는, 상기 사용자 조작에 따라 상기 UI의 출력 상태가 변경된 후 상기 사용자 정보가 수신되면, 상기 변경된 UI를 출력하도록 상기 출력부를 제어할 수 있다.
이 경우, 본 실시 예에 따른 UI 제공 장치는, 서버와 통신을 수행하는 통신부를 더 포함하며, 상기 제어부는, 상기 사용자 조작에 따라 상기 UI의 출력 상태가 변경되면, 상기 변경된 UI 에 대한 정보를 상기 서버로 전송하도록 상기 통신부를 제어할 수 있다.
한편, 본 발명의 일 실시 예에 따른 UI 제공 장치의 UI 제공 방법은 사용자 정보를 저장한 통신 기기와의 근거리 무선 통신을 통해 상기 사용자 정보를 수신하는 단계, 상기 사용자 정보를 기초로 획득된 사용자의 장애 유형 및 장애 정도에 대한 정보에 대응하도록 UI(User Interface)를 설정하는 단계 및, 상기 설정된 UI를 출력하는 단계를 포함한다.
이 경우, 상기 수신하는 단계는, NFC 리더를 이용하여 상기 사용자 정보를 저장한 NFC 태그와 태깅을 통해 상기 사용자 정보를 수신할 수 있다.
또한, 상기 사용자 정보는, 장애 유형, 장애 유형에 따른 장애 정도 및, 사용자 식별 정보 중 적어도 하나를 포함할 수 있다.
이 경우, 본 실시 예에 따른 UI 제공 방법은 상기 사용자 식별 정보를 상기 서버로 전송하는 단계 및, 상기 사용자 식별 정보에 대응되는 장애 유형 및 장애 정도에 대한 정보를 서버로부터 수신하는 하는 단계를 더 포함할 수 있다.
또한, 상기 출력하는 단계는, 상기 사용자의 장애 유형이 시각 장애인 경우, 시각 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력할 수 있다.
이 경우, 상기 출력하는 단계는, 상기 시각 장애 정도가 기설정된 레벨 이상인 경우 해당 레벨에 대응되는 그래픽 UI를 출력하고, 상기 시각 장애 정도가 기설정된 레벨 미만인 경우 상기 음성 UI를 출력할 수 있다.
또한, 상기 출력하는 단계는, 상기 사용자의 장애 유형이 청각 장애인 경우, 청각 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력할 수 있다.
이 경우, 상기 출력하는 단계는, 상기 청각 장애 정도가 기설정된 레벨 이상인 경우 해당 레벨에 대응되는 음성 UI를 출력하고, 상기 청각 장애 정도가 기설정된 레벨 미만인 경우 상기 그래픽 UI를 출력할 수 있다.
한편, 본 실시 예에 따른 UI 제공 방법은, 상기 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보가 상기 UI 제공 장치에 저장되어 있지 않은 경우, 상기 사용자 정보를 상기 서버로 전송하고 상기 장애 유형 및 장애 정도에 대응되는 UI 출력 정보를 상기 서버로부터 수신하는 단계를 더 포함할 수 있다.
또한, 상기 출력하는 단계는, 상기 UI의 출력 상태를 변경하기 위한 사용자 조작을 입력받는 단계 및, 상기 사용자 조작에 따라 상기 UI의 출력 상태가 변경된 후 상기 사용자 정보가 수신되면, 상기 변경된 UI를 출력하는 단계를 더 포함할 수 있다.
이 경우, 본 실시 예에 따른 UI 제공 장치는, 상기 사용자 조작에 따라 상기 UI의 출력 상태가 변경되면, 상기 변경된 UI 에 대한 정보를 상기 서버로 전송하는 단계를 더 포함할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면 사용자는 장애 유형 및 장애 정도에 따라 차별적인 UI를 제공받을 수 있게 되므로, 사용자의 편의성이 향상될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 UI 제공 시스템의 일 예를 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따라 UI 제공 시스템의 UI 제공 방법을 설명하기 위한 시퀀스도,
도 3은 본 발명의 일 실시 예에 따른 UI 제공 시스템의 UI 제공 방법을 설명하기 위한 시퀀스도,
도 4는 본 발명의 일 실시 예에 따른 UI 제공 시스템의 UI 제공 방법을 설명하기 위한 시퀀스도,
도 5는 본 발명의 일 실시 예에 따른 UI 제공 시스템의 UI 제공 방법을 설명하기 위한 시퀀스도,
도 6은 본 발명의 일 실시 예에 따른 UI 제공 시스템의 UI 제공 방법을 설명하기 위한 시퀀스도,
도 7은 본 발명의 일 실시 예에 따른 UI 제공 장치의 구성을 설명하기 위한 블록도,
도 8은 본 발명의 일 실시 예에 따른 UI 제공 장치의 세부 구성을 설명하기 위한 블록도,
도 9는 본 발명의 일 실시 예에 따라 저장부에 저장된 소프트웨어의 계층을 설명하기 위한 도면,
도 10은 본 발명의 일 실시 예에 따른 서버의 구성을 설명하기 위한 블록도,
도 11 내지 도 15는 본 발명의 일 실시 예에 따라 UI를 제공하는 방법을 설명하기 위한 도면들, 그리고
도 16은 본 발명의 일 실시 예에 따른 UI 제공 장치의 UI 제공 방법을 설명하기 위한 흐름도이다.
-
이하에서는 첨부된 도면을 참조하여 본 발명을 더욱 상세하게 설명한다.
도 1은 본 발명의 일 실시 예에 따른 UI 제공 시스템의 일 예를 설명하기 위한 도면이다. 도 1에 따르면, UI 제공 시스템은 UI 제공 장치(100), 서버(200) 및 통신 기기(300)를 포함할 수 있다. 도 1에 도시된 바와 같이, UI 제공 장치(100)는 TV로 구현될 수 있으나 이에 한정되는 것은 아니며, 휴대폰, 모니터, PDA, 태블릿 PC, MP3 플레이어 등과 같은 다양한 유형의 전자 장치로 구현될 수 있음은 물론이다.
UI 제공 장치(100)는 사용자의 장애 유형과 장애 정도에 대응되는 UI(User Interface)를 출력할 수 있다. 여기에서, UI는 UI 제공 장치(100)와 사용자 간의 의사 소통을 중계할 수 있는 모든 인터페이스로, 가령, UI 제공 장치(100)에서 제공되는 기능을 제어하거나, UI 제공 장치(100)에서 수행된 기능을 나타내기 위한 인터페이스 등을 포함할 수 있다.
구체적으로, UI 제공 장치(100)는 일반 모드에서는 디폴트로 설정된 UI를 출력하지만, 장애인에게 적용되는 모드에서는 음성 UI 또는 그래픽 UI를 출력할 수 있으며, 경우에 따라 음성 UI와 그래픽 UI를 함께 출력할 수도 있다. 여기서, 일반 모드에서 디폴트로 설정된 UI는 일반적으로 그래픽 UI가 될 수 있지만, UI 제공 장치(100)에서 수행되는 기능에 따라 음성 UI가 디폴트로 설정되는 것도 가능하다.
이를 위해, UI 제공 장치(100)는 통신 기기(300)로부터 사용자 정보를 수신할 수 있다. 여기에서, 사용자 정보는 장애 유형, 장애 유형에 따른 장애 정도 및 사용자 식별 정보 중 적어도 하나를 포함할 수 있다.
즉, UI 제공 장치(100)는 통신 기기(300)로부터 사용자 정보를 수신하고, 수신된 사용자 정보를 이용하여 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다. 보다 구체적인 설명을 위해 도 2를 함께 참조하도록 한다.
도 2는 본 발명의 일 실시 예에 따라 UI 제공 시스템의 UI 제공 방법을 설명하기 위한 시퀀스도이다.
UI 제공 장치(100)는 통신 기기(300)로부터 사용자 정보를 수신한다(S11). 이 경우, UI 제공 장치(100)에서의 사용자 정보 수집은 다양한 방식으로 이루어질 수 있다.
일 예로, UI 제공 장치(100)는 근거리 무선 통신 방식으로 사용자 정보를 수집할 수 있다. 이 경우, UI 제공 장치(100)는 근거리 무선 통신 리더를 포함할 수 있다. 이에 따라, 근거리 무선 통신 태그를 포함하는 통신 기기(300)와 근거리 액세스되어 데이터를 리딩할 수 있다. 여기서, 근거리 액세스란 근거리 무선 통신 태그 및 리더가 중 적어도 하나가 상대 측으로 이동하여, 통신 가능 범위 이내에 위치하게 되는 행위를 의미한다. 다르게는 태깅(tagging)이라 칭할 수도 있다. 통신 가능 범위 이내에 위치하게 되면, 근거리 무선 통신 리더에서는 근거리 무선 통신 태그에 기록된 데이터를 독출(reading)할 수 있다.
근거리 무선 통신 방식의 예로는, NFC(Near Field Communication)가 사용될 수 있다. NFC란 13.56Mz 주파수 대역을 사용하는 비접촉식 근거리 무선통신 방식이다. NFC 기술을 이용하면, 복수의 단말기가 약 10 cm 이내와 같이 근거리로 접근하였을 때 데이터가 송수신될 수 있다. 또한, 근거리 무선 통신 방식의 다른 예로 바코드 방식, QR 코드 방식, WiFi, 지그비, 블루투스 등이 사용될 수도 있다.
한편, 통신 기기(300)는 사용자 정보를 저장하고, 다양한 통신 방식으로 사용자 정보를 UI 제공 장치(100)로 전송할 수 있다. 예를 들어, 통신 기기(300)는 사용자 정보가 기록된 근거리 무선 통신 태그로 구현되어, 태깅을 통해 UI 제공 장치(100)에 마련된 근거리 무선 통신 리더로 사용자 정보를 제공할 수 있다. 이 경우, 통신 기기(300)는 근거리 무선 통신 태그가 부착된 장애인 카드 등과 같은 형태로 구현될 수 있다.
한편, UI 제공 장치(100)는 통신 기기(300)로부터 수신된 사용자 정보를 이용하여, 사용자의 장애 유형과 장애 정도에 대응되는 UI를 출력한다(S12).
구체적으로, UI 제공 장치(100)는 통신 장치(300)로부터 수신된 사용자 정보에 기초하여 사용자의 장애 유형 및 장애 정도를 판단하고, 판단된 장애 유형과 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력할 수 있다.
예를 들어, UI 제공 장치(100)는 사용자가 시각 장애인인 것으로 판단되면, 시각 장애 정도에 따라 기설정된 크기 이상의 UI 구성요소를 포함하는 그래픽 UI를 출력할 수 있다. 여기에서, UI 구성요소는 텍스트, 이미지, 커서, 포인터 등을 포함한다. 뿐만 아니라, UI 제공 장치(100)는 그래픽 UI 대신 음성 UI를 출력하거나, 기설정된 크기 이상의 UI 구성요소를 포함하는 그래픽 UI와 음성 UI를 함께 출력할 수도 있다.
또한, UI 제공 장치(100)는 사용자가 청각 장애인인 것으로 판단되면, 청각 장애 정도에 따라 기설정된 볼륨 이상으로 음성 UI를 출력할 수 있다. 뿐만 아니라, UI 제공 장치(100)는 음성 UI 대신 그래픽 UI를 출력하거나, 그래픽 UI와 함께 기설정된 볼륨 이상으로 음성 UI를 출력할 수 있다.
이를 위해, UI 출력 장치(100)는 사용자의 장애 유형 및 장애 정도에 따라 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기에 대한 정보를 저장할 수 있다.
이에 따라, UI 출력 장치(100)는 통신 기기(300)로부터 수신된 장애 유형 및 장애 정도에 대응되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기 등을 판단하고, 그에 대응되는 UI를 출력할 수 있게 된다.
한편, 상술한 실시 예에서는 UI 제공 장치(100)가 사용자 정보를 통신 기기(300)로부터 수신하는 것으로 설명하였으나 이는 일 예에 불과하다.
구체적으로, 사용자는 UI 제공 장치(100)에서 사용자 정보를 직접 입력할 수도 있다. 가령, UI 제공 장치(100)가 터치 스크린, 터치 패드, 버튼 등과 같은 입력 수단을 구비하거나, 리모콘, 키보드, 마우스 등과 같은 입력 수단과 연결되는 경우, 사용자는 이러한 입력 수단을 통해 자신의 장애 유형, 장애 정도 및 사용자 식별 정보를 직접 입력할 수 있다.
다른 예로, 사용자는 UI 제공 장치(100)에 USB(Universal Serial Bus) 메모리나 메모리 카드 등과 같은 외부 저장 매체를 연결하여, 외부 저장 매체에 저장된 사용자 정보를 UI 제공 장치(100)로 전달할 수도 있다.
또한, PC, 노트북 PC, 태블릿 PC, 휴대폰 등과 같은 타 단말 장치와 UI 제공 장치(100) 간의 통신을 연결하여, 이러한 타 단말 장치를 이용하여 UI 제공 장치(100)로 사용자 정보를 전송하여 줄 수도 있다.
한편, 통신 기기(300)로부터 수신된 사용자 정보에 사용자의 장애 유형 및 장애 정도에 대한 정보가 포함되어 있지 않은 경우, UI 제공 장치(100)는 해당 정보를 서버(200)로부터 수신하여 그에 대응되는 UI를 출력할 수 있으며, 보다 구체적인 설명을 위해 도 3을 함께 참조하도록 한다.
도 3은 본 발명의 일 실시 예에 따른 UI 제공 시스템의 UI 제공 방법을 설명하기 위한 시퀀스도이다.
UI 제공 장치(100)는 사용자 정보를 저장한 통신 기기(300)로부터 사용자 정보를 수신한다(S21).
이때, 통신 기기(300)로부터 수신된 사용자 정보에 사용자의 장애 유형 및 장애 정도에 대한 정보가 포함되어 있지 않은 경우, 즉, UI 제공 장치(100)가 통신 기기(300)로부터 사용자 식별 정보만을 수신한 경우, UI 제공 장치(100)는 사용자 식별 정보를 서버(200)로 전송한다(S22).
이 경우, 서버(200)는 사용자 식별 정보에 대응되는 장애 유형 및 장애 정도에 대한 정보를 UI 제공 장치(100)로 전송하고(S23), UI 제공 장치(100)는 서버(200)로부터 수신된 사용자의 장애 유형 및 장애 정도에 대한 정보에 따라, 그에 대응되는 UI를 출력할 수 있다.
이를 위해, 서버(200)는 사용자 식별 정보별로 사용자의 장애 유형 및 장애 정도에 대한 정보를 저장하고, UI 제공 장치(100)로부터 사용자 식별 정보가 수신되면 수신된 사용자 식별 정보에 매칭되어 저장된 장애 유형 및 장애 정도에 대한 정보를 UI 제공 장치(100)로 전송할 수 있다.
한편, 서버(200)는 정부 기관, 국공립 병원, 사립 병원 등에 마련될 수 있으며, UI 제공 장치(100)와 인터넷 망을 통해 통신을 수행할 수 있다.
한편, UI 제공 장치(100)에 사용자의 장애 유형 및 장애 정도에 따라 출력되는 UI에 대한 정보가 저장되어 있지 않은 경우, UI 제공 장치(100)는 해당 정보들을 서버(200)로부터 수신하고 이를 이용하여 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다. 보다 구체적인 설명을 위해 도 4를 함께 참조하도록 한다.
도 4는 본 발명의 일 실시 예에 따른 UI 제공 시스템의 UI 제공 방법을 설명하기 위한 시퀀스도이다.
UI 제공 장치(100)는 사용자 정보를 저장한 통신 기기(300)로부터 사용자 정보를 수신한다(S31).
한편, UI 제공 장치(100)가 사용자의 장애 유형 및 장애 정도에 따라 출력되는 UI에 대한 정보를 저장하고 있지 않은 경우, UI 제공 장치(100)는 통신 기기(300)로부터 수신된 사용자 정보를 서버(200)로 전송한다(S32). 이때, UI 제공 장치(100)는 사용자의 장애 유형 및 장애 정도에 대한 정보를 전송하거나, 사용자 식별 정보를 전송하거나, 이들 모두를 서버(200)로 전송할 수 있다.
서버(200)는 UI 제공 장치(100)에서 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있도록, UI 출력 정보를 UI 제공 장치(100)로 전송한다(S33). 여기에서, UI 출력 정보는 사용자의 장애 유형 및 장애 정도에 따라 UI 제공 장치(100)에서 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기에 대한 정보를 포함할 수 있다.
이에 따라, UI 제공 장치(100)는 서버(200)로부터 수신된 UI 출력 정보를 이용하여 사용자의 장애 유형 및 장애 정도에 따라 출력되는 UI 타입, 그래픽 UI의 사이즈, 음성 UI의 출력 볼륨 크기 등을 판단하고, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다(S34).
한편, UI 제공 장치(100)는 UI의 출력 상태를 변경하고자 하는 사용자 조작이 입력되면, 변경된 UI에 대한 정보를 저장한다. 이후, UI 제공 장치(100)는 사용자의 장애 유형 및 장애 정도에 대한 정보가 수신되면, 변경된 UI에 대한 정보에 기초하여 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다. 보다 구체적인 설명을 위해 도 5를 참조하도록 한다.
도 5는 본 발명의 일 실시 예에 따른 UI 제공 시스템의 UI 제공 방법을 설명하기 위한 시퀀스도이다.
UI 제공 장치(100)는 사용자 정보를 저장한 통신 기기(300)로부터 사용자 정보를 수신한다(S41). 그리고, UI 제공 장치(100)는 통신 기기(300)로부터 수신된 사용자 정보를 이용하여, 사용자의 장애 유형과 장애 정도에 대응되는 UI를 출력한다(S42).
한편, UI 제공 장치(100)는 UI 출력 상태를 변경하기 위한 사용자 조작이 입력되면(S43-Y), 그에 따라 변경된 UI에 대한 정보를 저장한다(S44). 이때, UI 제공 장치(100)는 변경된 UI에 대한 정보를 출력 상태가 변경되기 전의 UI를 출력하도록 설정된 장애 유형 및 장애 정도에 매칭시켜 저장할 수 있다.
그리고, UI 제공 장치(100)는 동일한 장애 유형 및 장애 정도에 대한 정보가 수신되면 변경된 UI에 대한 정보에 기초하여 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다.
예를 들어, UI 제공 장치(100)에서 4급 시각 장애인에게 제공되도록 설정된 사이즈에 따라 그래픽 UI를 출력하던 도중, 출력되는 그래픽 UI의 사이즈를 조정하기 위한 사용자 조작이 입력되면, 사용자 조작에 따라 조정된 그래픽 UI의 사이즈에 대한 정보를 저장할 수 있다. 이 경우, 조정된 그래픽 UI의 사이즈는 해당 장애 유형 및 장애 정도 즉, 4급 시각 장애에 매칭되어 저장될 수 있다. 이후, 4급 시각 장애에 해당하는 장애 유형 및 장애 정도에 대한 정보가 수신되면, UI 제공 장치(100)는 조정된 사이즈를 갖는 그래픽 UI를 출력할 수 있다.
비록, 상술한 예에서는, 그래픽 UI의 사이즈가 조정되는 것을 설명하였으나 이는 일 예에 불과하다. 즉, 그래픽 UI의 사이즈뿐만 아니라 음성 UI의 출력 볼륨 크기 또한 변경되어 해당 장애 유형 및 장애 정도에 매칭되어 저장될 수 있음은 물론이다.
한편, 도 5에 도시된 실시 예는, UI 제공 장치(100)에 사용자의 장애 유형 및 장애 정도에 따라 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기에 대한 정보를 저장된 상태에서, UI 출력 상태를 변경하기 위한 사용자 조작이 입력된 경우를 설명하였다.
다만, UI 제공 장치(100)에 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보가 기저장되어 있지 않은 경우, 즉, 도 4와 같은 경우, UI 제공 장치(100)는 UI의 출력 상태를 변경하기 위한 사용자 조작에 따라 변경된 UI에 대한 정보를 서버(200)로 전송하며, 서버(200)는 변경된 UI에 대한 정보를 저장할 수 있다. 보다 구체적인 설명을 위해 도 6을 함께 참조하도록 한다.
도 6은 본 발명의 일 실시 예에 따른 UI 제공 시스템의 UI 제공 방법을 설명하기 위한 시퀀스도이다.
UI 제공 장치(100)는 사용자 정보를 저장한 통신 기기(300)로부터 사용자 정보를 수신한다(S51). UI 제공 장치(100)에 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보 즉, 사용자의 장애 유형 및 장애 정도에 따라 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기에 대한 정보가 저장되어 있지 않은 경우, UI 제공 장치(100)는 사용자 정보를 서버(200)로 전송하고(S52), 서버(200)로부터 UI 출력 정보를 수신할 수 있다(S53).
이에 따라, UI 제공 장치(100)는 서버(200)로부터 수신된 UI 출력 정보를 이용하여 사용자의 장애 유형 및 장애 정도에 따라 출력되는 UI 타입, 그래픽 UI의 사이즈, 음성 UI의 출력 볼륨 크기 등을 판단하고, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다(S54).
한편, UI 제공 장치(100)는 UI의 출력 상태를 변경하기 위한 사용자 조작이 입력되면(S55-Y), UI 제공 장치(100)는 변경된 UI에 대한 정보를 서버(200)로 전송한다(S56). 이에 따라, 서버(200)는 UI 제공 장치(100)로부터 수신된 변경된 UI에 대한 정보를 저장한다(S57). 이때, 서버(200)는 변경된 UI에 대한 정보를 사용자 정보에 매칭시켜 저장할 수 있다.
그리고, 서버(200)는 UI 제공 장치(100)로부터 동일한 사용자 정보가 수신되면 변경된 UI에 대한 정보를 UI 제공 장치(100)로 전송하며, UI 제공 장치(100)는 변경되 UI에 대한 정보에 기초하여 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다.
예를 들어, UI 제공 장치(100)에서 4급 시각 장애인에게 제공되도록 설정된 사이즈에 따라 그래픽 UI를 출력하던 도중, 출력되는 그래픽 UI의 사이즈를 조정하기 위한 사용자 조작이 입력되면, UI 제공 장치(100)는 사용자 조작에 따라 조정된 그래픽 UI의 사이즈에 대한 정보를 서버(200)로 전송할 수 있다.
이 경우, 서버(200)는 조정된 그래픽 UI의 사이즈를 사용자 정보 즉, 사용자 식별 정보, 해당 사용자의 장애 유형 및 장애 정도에 대한 정보에 매칭시켜 저장할 수 있다. 이에 따라, 서버(200)는 동일한 사용자 정보가 UI 제공 장치(100)로부터 수신되면, 조정된 그래픽 UI의 사이즈에 대한 정보를 UI 제공 장치(100)로 전송할 수 있으며, UI 제공 장치(100)는 조정된 사이즈를 갖는 그래픽 UI를 출력할 수 있다.
이상과 같이 본 발명의 다양한 실시 예에 따르면, UI 제공 장치(100)는 사용자의 장애 유형 및 장애 정도에 따라 차별적으로 UI를 구성하여 출력할 수 있다는 점에서, 몸이 불편한 사용자들도 UI 제공 장치(100)를 편리하게 사용할 수 있게 된다.
도 7은 본 발명의 일 실시 예에 따른 UI 제공 장치의 구성을 설명하기 위한 블록도이다. 도 7과 같이, UI 제공 장치(100)는 수신부(110), 제어부(120) 및 출력부(130)를 포함한다.
수신부(110)는 사용자 정보를 저장한 통신 기기(도 1의 300)와의 근거리 무선 통신을 통해 사용자 정보를 수신할 수 있다. 이를 위해, 수신부(110)는 사용자 정보를 저장한 NFC 태그와 태깅을 통해 사용자 정보를 수신하는 NFC 리더를 포함할 수 있다.
예를 들어, 수신부(110)는 근거리 무선 통신 태그가 부착된 통신 기기(300)와 근거리 액세스되면, 그 태그 내에 기록된 정보를 리딩하여 제어부(120)로 제공한다. 수신부(110)는 무선 주파수 모듈 및 안테나 코일로 구성될 수 있다. 수신부(110)는 안테나 코일을 통해 전자파를 발산한다. 이에 따라, UI 제공 장치(100)를 기준으로 전자파 도달 거리 이내에 위치한 통신 기기(300)에 부착된 근거리 무선 통신 태그(미도시)에서는 전자기 유도 방식에 따라 전류가 유도된다. 이에 따라, 근거리 무선 통신 태그 내의 집적회로가 구동되어, 저장된 데이터를 포함하는 RF 신호를 전송한다. 수신부(110) 내의 무선 주파수 모듈은 안테나 코일을 통해서 RF 신호를 수신하고, 수신된 RF 신호에 대해 복조 및 디코딩 작업을 수행하여, RF 신호에 실린 데이터를 검출한다.
한편, 상술한 실시 예에서는 수신부(110)가 NFC 리더를 포함하는 것으로 설명하였으나, 필요에 따라서는 근거리 무선 통신 태그까지 포함하는 근거리 무선 통신 모듈을 포함하는 형태로 구현될 수도 있다.
또한, 수신부(110)는 NFC 외의 다른 근거리 무선 통신 방식인 바코드 방식, QR 코드 방식, WiFi, 지그비, 블루투스 등을 통해 통신 기기(300)로부터 사용자 정보를 수신할 수도 있다.
한편, 사용자 정보는 사용자의 장애 유형, 장애 유형에 따른 장애 정도 및 사용자 식별 정보 중 적어도 하나를 포함할 수 있다. 여기에서, 장애 유형은 시각 장애, 청각 장애 등과 같이 특성에 따라 구분된 장애 종류에 대한 정보를 포함하고, 장애 정도는 각 장애 유형별로 구분된 장애 등급에 대한 정보를 포함할 수 있다. 그리고, 사용자 식별 정보는 사용자를 구분하기 위한 정보로, 이름, 주민등록번호, 장애인 등록번호 등과 같은 정보를 포함할 수 있다.
이와 같이, 사용자 정보를 구성하는 다양한 정보는 통신 기기(300)로부터 수신되는 데이터의 각 필드에 저장될 수 있다. 가령, 수신부(110)가 NFC 통신 방식에 의해 사용자 정보를 수신하는 경우, 장애 유형, 장애 정도 및 사용자 식별 정보는 NFC 통신 방식에서 사용되는 데이터의 각 필드에 저장될 수 있다. 예를 들어, 장애 유형에 대한 정보는 제1 데이터 필드, 장애 정도에 대한 정보는 제2 데이터 필드, 사용자 식별 정보는 제3 데이터 필드에 저장될 수 있다.
제어부(120)는 사용자 정보를 기초로 획득된 사용자의 장애 유형 및 장애 정도에 대한 정보에 대응하도록 UI를 설정할 수 있다. 그리고, 출력부(130)는 설정된 UI를 출력한다.
이를 위해, 제어부(120)는 수신부(110)를 통해 수신된 데이터의 각 필드로부터 장애 유형, 장애 정도 및 사용자 식별 정보를 추출하고, 추출된 정보에 따라 사용자의 장애 유형 및 장애 정도를 판단한다. 예를 들어, 제어부(120)는 제1 데이터 필드로부터 추출된 비트가 1인 경우 사용자가 시각 장애인인 것으로 판단하고, 제1 데이터 필드로부터 추출된 비트가 0인 경우 사용자가 청각 장애인인 것으로 판단할 수 있다. 하지만, 이는 일 예일 뿐, 장애 유형을 나타내기 위한 정보는 다양한 방식으로 데이터에 기록될 수 있다.
그리고, 제어부(120)는 사용자의 장애 유형 및 장애 정도에 따라 UI 제공 장치(100)에서 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기를 결정한다. 이를 위해, UI 제공 장치(100)는 사용자의 장애 유형 및 장애 정도에 따라 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기에 대한 정보를 저장할 수 있다.
예를 들어, UI 출력 장치(100)는 사용자의 시각 장애 정도가 사물을 전혀 인지할 수 없는 등급인 경우 출력되는 UI 타입이 음성 UI라는 정보를 저장할 수 있다. 또한, UI 출력 장치(100)는 사용자의 시각 장애 정도가 사물을 인지할 수 있는 등급인 경우 출력되는 UI 타입이 그래픽 UI 또는, 그래픽 UI + 음성 UI라는 정보 및 출력되는 그래픽 UI의 사이즈에 대한 정보를 저장할 수 있다.
그리고, UI 출력 장치(100)는 사용자의 청각 장애 정도가 소리를 전혀 들을 수 없는 등급인 경우 출력되는 UI 타입이 그래픽 UI라는 정보를 저장할 수 있다. 또한, UI 출력 장치(100)는 사용자의 청각 장애 정도가 기설정된 크기 이상의 소리를 들을 수 있는 등급인 경우 출력되는 UI 타입이 음성 UI 또는, 그래픽 UI + 음성 UI라는 정보 및 음성 UI의 출력 볼륨 크기에 대한 정보를 저장할 수 있다.
또한, UI 출력 장치(100)는 다양한 형태의 그래픽 UI 및 음성 UI를 저장할 수 있다. 구체적으로, UI 출력 장치(100)는 UI 제공 장치(100)에서 선택된 기능에 대한 피드백 형태의 UI, UI 제공 장치(100)에서 수행된 기능을 나타내는 UI, UI 제공 장치(100)에서 제공되는 기능을 제어하기 위한 사용자 명령을 입력받는 UI 등을 그래픽 형태 및 음성 형태로 저장할 수 있다.
한편, 제어부(120)는 UI 출력 장치(100)에 저장된 정보에 기초하여 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 결정하고, 이를 출력부(130)를 통해 출력할 수 있다.
예를 들어, 제어부(120)는 사용자의 장애 유형이 시각 장애인 경우 시각 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력하도록 출력부(130)를 제어할 수 있다. 구체적으로, 제어부(120)는 시각 장애 정도가 기설정된 레벨 이상인 경우 해당 레벨에 대응되는 그래픽 UI를 출력하고 시각 장애 정도가 기설정된 레벨 미만인 경우 음성 UI를 출력하도록 출력부(130)를 제어할 수 있다.
즉, 제어부(120)는 사용자가 시각 장애인인 것으로 판단된 경우 사용자의 시각 장애 정도가 사물을 전혀 인지할 수 없는 등급에 속하는지 또는 사물을 인지할 수 있는 등급에 속하는지 여부를 판단한다.
그에 따라, 제어부(120)는 사용자의 시각 장애 정도가 사물을 전혀 인지할 수 없는 등급에 속하는 경우 출력되는 UI를 음성 UI로 결정하고 출력부(130)를 통해 음성 UI를 출력할 수 있다. 또한, 제어부(120)는 사용자의 시각 장애 정도가 사물을 인지할 수 있는 등급에 속하는 경우 출력되는 UI를 그래픽 UI 또는 그래픽 UI + 음성 UI로 결정하고, 이를 출력부(130)를 통해 출력할 수 있다.
한편, 음성 UI는 시각 장애 정도에 따라 다양한 형태로 제공될 수 있다.
구체적으로, 사용자의 시각 장애 정도에 따라 음성 UI만이 출력되는 경우, 제어부(120)는 UI 제공 장치(100)에서 제공되는 기능을 제어할 수 있는 사용자 명령을 입력받기 위한 음성 UI를 출력할 수 있다. 이 경우, 제어부(120)는 UI 제공 장치(100)에 구비된 마이크(미도시)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행하는 음성 인식 모드로 동작할 수 있다. 예를 들어, UI 제공 장치(100)가 TV로 구현된 경우, 제어부(120)는 채널 선국을 위해 "채널 번호를 말씀하세요"라는 음성 UI를 출력부(130)를 통해 출력하고, 수집된 사용자 음성에 대응되는 채널을 선국할 수 있다.
또한, 음성 UI는 UI 제공 장치(100)에서 제공되는 기능을 제어할 수 있는 사용자 명령을 입력받기 위해 일정한 텍스트를 낭독하는 형태로 구현될 수도 있다. 예를 들어, 제어부(120)는 "메뉴, 1. 채널 관리, 2. 외부입력 관리,..."와 같이 특정 메뉴에 포함된 텍스트에 대응되는 음성 UI를 출력할 수 있다.
또한, 사용자의 시각 장애 정도에 따라 음성 UI가 그래픽 UI와 함께 출력되는 경우, 제어부(120)는 그래픽 UI를 통해 선택된 기능에 대한 피드백 형태의 음성 UI를 출력할 수 있다. 즉, 제어부(120)는 사용자 조작에 대응되는 기능이 올바르게 수행되었는지 여부를 나타내기 위한 알림음 또는 음성을 출력할 수 있다. 예를 들어, 제어부(120)는 사용자 조작에 따라 그래픽 UI에서 메뉴가 선택되는 경우 "딩동댕" 또는 "메뉴가 선택되었습니다"와 같은 음성 UI를 출력할 수 있으며, 그래픽 UI에서 선택할 수 없는 메뉴가 사용자에 의해 선택되는 경우 "삐익" 또는 "선택될 수 없는 메뉴입니다"와 같은 음성 UI를 출력할 수 있다. 즉, 음성 UI가 그래픽 UI와 함께 출력되는 경우, 음성 UI는 그래픽 UI를 보조하기 위한 기능을 수행할 수 있다.
또한, 음성 UI는 그래픽 UI를 설명하기 위한 형태일 수도 있다. 일 예로, 음성 UI는 그래픽 UI에 포함된 텍스트를 낭독하는 형태로 구현될 수 있다. 즉, 제어부(120)는 사용자에 의해 선택된 그래픽 UI, 커서 또는 하이라이트 메뉴 등이 위치한 그래픽 UI에 포함된 텍스트에 대응되는 음성 UI를 출력할 수 있다. 예를 들어, 제어부(120)는 ○○번 채널을 선국하기 위한 그래픽 UI가 사용자에 의해 선택된 경우, "○○번 채널이 선택되었습니다"와 같은 음성 UI를 출력할 수 있다.
한편, 그래픽 UI도 시각 장애 정도에 따라 다양한 형태로 제공될 수 있다.
구체적으로, 제어부(120)는 사용자의 시각 장애 정도에 따라 기설정된 크기 이상의 UI 구성요소를 포함하는 그래픽 UI를 출력할 수 있다. 즉, 제어부(120)는 시각 장애 정도에 따라 사용자가 인식할 수 있을 정도의 사이즈를 갖는 UI 구성요소를 포함하는 그래픽 UI를 출력할 수 있다. 여기에서, UI 구성요소는 그래픽 UI를 구성하는 텍스트, 커서, 이미지 등을 포함할 수 있다.
뿐만 아니라, 제어부(120)는 UI 구성요소의 색상을 변경하거나, 특정 부분을 하이라이트시켜 출력할 수도 있고, UI 구성요소의 표시 위치, 레이아웃 등을 변경하여 출력할 수도 있다.
한편, 사용자의 시각 장애 정도에 대응되는 그래픽 UI 및 음성 UI는 다양한 방식으로 생성될 수 있다. 예를 들어, 제어부(120)는 UI 제공 장치(100)에서 디폴트로 설정된 그래픽 UI의 사이즈, 색상, 위치, 레이아웃 등을 변경하여, 시각 장애 정도에 대응되는 그래픽 UI를 생성할 수 있다. 또한, 해당 그래픽 UI 및 음성 UI는 시각 장애 정도별로 UI 제공 장치(100)에 기저장되어 있거나, 서버(200)로부터 수신될 수 있다.
다른 예로, 제어부(120)는 사용자의 장애 유형이 청각 장애인 경우 청각 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력하도록 출력부(130)를 제어할 수 있다. 구체적으로, 제어부(120)는 청각 장애 정도가 기설정된 레벨 이상인 경우 해당 레벨에 대응되는 음성 UI를 출력하고, 청각 장애 정도가 기설정된 레벨 미만인 경우 그래픽 UI를 출력하도록 제어할 수 있다.
즉, 제어부(120)는 사용자가 청각 장애인인 것으로 판단된 경우 사용자의 청각 장애 정도가 소리를 전혀 들을 수 없는 등급에 속하는지 또는 기설정된 크기 이상의 소리를 들을 수 있는 등급에 속하는지 여부를 판단한다.
그에 따라, 제어부(120)는 사용자의 청각 장애 정도가 소리를 전혀 들을 수 없는 등급에 속하는 경우 출력되는 UI를 그래픽 UI로 결정하고 출력부(130)를 통해 그래픽 UI를 출력할 수 있다. 또한, 제어부(120)는 사용자의 청각 장애 정도가 기설정된 크기 이상의 소리를 들을 수 있는 등급에 속하는 경우 출력되는 UI를 음성 UI 또는, 그래픽 UI + 음성 UI로 결정하고 이를 출력부(130)를 통해 출력할 수 있다.
한편, 제어부(120)는 UI 제공 장치(100)에 디폴트로 설정된 그래픽 UI를 출력할 수 있으나, 음성 UI의 경우 청각 장애 정도에 따라 다양한 형태로 제공할 수 있다.
구체적으로, 사용자의 청각 정도에 따라 음성 UI가 출력되는 경우, 제어부(120)는 사용자의 청각 장애 정도에 따라 기설정된 크기 이상의 볼륨으로 음성 UI를 출력할 수 있다. 즉, 제어부(120)는 청각 장애인인 사용자가 청각 장애 정도에 따라 인식할 수 있을 정도의 볼륨으로 음성 UI를 출력할 수 있다.
이 경우, 음성 UI는 UI 제공 장치(100)에서 제공되는 기능을 제어할 수 있는 사용자 명령을 입력받기 위한 음성 UI, 그래픽 UI를 통해 선택된 기능에 대한 피드백 형태의 음성 UI, 그래픽 UI를 설명하기 위한 형태의 음성 UI 등이 될 수 있다.
한편, 사용자의 청각 장애 정도에 대응되는 음성 UI는 다양한 방식으로 생성될 수 있다. 예를 들어, 제어부(120)는 UI 제공 장치(100)에서 디폴트로 설정될 음성 UI를 증폭하여, 청각 장애인인 사용자가 청각 장애 정도에 따라 인지할 수 있는 크기의 음성 UI를 생성할 수 있다. 또한, 음성 UI는 청각 장애 정도별로 UI 제공 장치(100)에 기저장되어 있거나, 서버(200)로부터 수신될 수 있다.
한편, 상술한 실시 예에서는 사용자가 시각 장애인이거나 청각 장애인인 경우를 설명하였으나 이는 일 예에 불과하며, UI 제공 장치(100)는 다른 종류의 장애를 갖는 사용자를 위해 UI를 차별적으로 출력할 수 있음은 물론이다. 예를 들어, 제어부(120)는 사용자가 지체 장애와 같이 신체를 자유롭게 사용할 수 없는 장애인인 것으로 판단된 경우, 디폴트로 설정된 그래픽 UI 대신 음성 UI를 출력할 수 있다.
도 8은 본 발명의 일 실시 예에 따른 UI 제공 장치의 세부 구성을 설명하기 위한 블록도이다. 도 8에 따르면, UI 제공 장치(100)는 도 7에 도시된 구성요소 외에 비디오 출력부(131), 오디오 출력부(133), 비디오 처리부(135), 오디오 처리부(137), 통신부(140), 감지부(150), 저장부(160), 입력부(170), GPS 수신부(181), DMB 수신부(183), 버튼(185), USB 포트(187), 카메라(189), 마이크(191)를 포함한다.
저장부(160)는 다양한 정보를 저장할 수 있다.
구체적으로, 저장부(160)는 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보를 저장할 수 있다. 예를 들어, 저장부(160)는 사용자의 장애 유형 및 장애 정도에 대응되는 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기에 대한 정보를 저장할 수 있다.
또한, 저장부(160)는 다양한 형태의 UI를 저장할 수 있다. 예를 들어, 저장부(160)는 UI 제공 장치(100)에서 디폴트로 설정된 그래픽 UI 및 음성 UI를 저장할 수 있으며, 사용자의 장애 유형 및 장애 정도에 대응되는 그래픽 UI 및 음성 UI를 저장할 수 있다.
이 경우, 해당 UI들은 사용자 조작에 따라 선택된 기능에 대한 피드백을 제공하기 위한 UI, UI 제공 장치(100)에서 수행된 기능을 나타내기 위한 UI, UI 제공 장치(100)에서 제공되는 기능을 제어하기 위한 사용자 명령을 입력받는 UI 등과 같은 다양한 내용을 포함할 수 있다.
이를 위해, 저장부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
이에 따라, 제어부(120)는 저장부(160)에 저장된 다양한 정보를 이용하여, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력하도록 제어할 수 있다.
예를 들어, 제어부(120)는 사용자의 장애 유형 및 장애 정도에 대응되는 그래픽 UI 및 음성 UI를 저장부(160)로부터 독출하고 이를 신호처리하여 출력부(130)를 통해 출력할 수 있으며, 또한, 제어부(120)는 디폴트로 설정된 그래픽 UI에 포함된 UI 구성요소의 사이즈를 변경하거나 음성 UI를 증폭하여 출력부(130)를 통해 출력할 수도 있다.
통신부(140)는 서버(도 2의 200)와 통신을 수행하는 구성이다. 예를 들어, 통신부(140)는 네트워크 인터페이스 카드(141) 등을 구비하여 인터넷 망을 통해 서버(200)와 통신을 수행할 수 있다.
한편, 제어부(120)는 사용자 식별 정보를 서버(200)로 전송하고, 사용자 식별 정보에 대응되는 장애 유형 및 장애 정도에 대한 정보를 서버(200)로부터 수신하도록 통신부(140)를 제어할 수 있다. 즉, 제어부(120)는 수신부(110)를 통해 통신 기기(300)로부터 수신된 데이터에 장애 유형 및 장애 정도에 대한 정보가 존재하지 않는 경우, 사용자 식별 정보를 서버(200)로 전송하고 사용자 식별 정보에 대응되는 장애 유형 및 장애 정도에 대한 정보를 서버(200)로부터 수신할 수 있다.
이에 따라, 제어부(120)는 서버(200)로부터 수신된 사용자의 장애 유형 및 장애 정도에 대응되는 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기를 결정하고, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력부(130)를 통해 출력할 수 있다.
또한, 제어부(120)는 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보가 UI 제공 장치(100)에 저장되어 있지 않은 경우, 사용자 정보를 서버(200)로 전송하고 장애 유형 및 장애 정도에 대응되는 UI 출력 정보를 서버(200)로부터 수신하도록 통신부(140)를 제어할 수 있다. 즉, 제어부(120)는 사용자의 장애 유형 및 장애 정도에 대응되는 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기에 대한 정보가 저장부(160)에 저장되어 있지 않은 경우, 해당 정보들을 서버(200)로부터 수신할 수 있다.
이에 따라, 서버(200)로부터 수신되는 UI 출력 정보는 장애 유형 및 장애 정도에 따라 UI 제공 장치(100)에서 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기 등에 대한 정보를 포함할 수 있다.
예를 들어, 사용자가 4급 시각 장애인인 경우, 서버(200)로부터 수신된 UI 출력 정보는 4급 시각 장애인에게 제공되는 UI는 그래픽 UI이며, 해당 그래픽 UI에 포함된 UI 구성요소의 사이즈에 대한 정보를 포함할 수 있다.
이에 따라, 제어부(120)는 서버(200)로부터 수신된 UI 출력 정보에 기초하여, 사용자의 장애 유형 및 장애 정도에 대응되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기 등을 결정하고, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력부(130)를 통해 출력할 수 있다.
한편, 통신부(140)는 와이파이칩(142), 블루투스 칩(143), 무선 통신 칩(144)을 포함할 수 있다.
와이파이 칩(142), 블루투스 칩(143)은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 예를 들어, 와이파이 칩(142)이나 블루투스 칩(143)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다.
무선 통신 칩(144)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.
이와 같이, 통신부(140)는 다양한 통신 방식에 따라 외부 기기들과 무선 통신을 수행하여 다양한 정보를 송수신할 수 있다.
감지부(150)는 지자기 센서(151), 자이로 센서(152), 가속도 센서(153), 터치 센서(154), 압력 센서(155)를 포함한다. 감지부(150)는 UI 제공 장치(100)에 대한 터치, 회전, 기울기, 압력 등과 같은 다양한 사용자 조작을 감지할 수 있다.
지자기 센서(151)는 UI 제공 장치(100)의 회전 상태 및 이동 방향 등을 감지하기 위한 센서이다. 자이로 센서(152)는 UI 제공 장치(100)의 회전각을 감지하기 위한 센서이다. 지자기 센서(151) 및 자이로 센서(152)는 둘 다 구비될 수도 있으나, 이 중 하나만 구비되어 있더라도 UI 제공 장치(100)는 회전 상태를 감지할 수 있다.
가속도 센서(153)는 UI 제공 장치(100)의 기울어진 정도를 감지하기 위한 센서이다.
터치 센서(154)는 정전식 또는 감압식으로 구현될 수 있다. 정전식은 비디오 출력부(131) 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 비디오 출력부(131) 표면에 터치되었을 때 사용자의 인체로 여기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 이상과 같이 터치 센서(154)는 다양한 형태로 구현될 수 있다.
압력 센서(155)는 사용자가 터치 조작을 할 때 UI 제공 장치(100)에 가해지는 압력의 크기를 감지하여 제어부(120)로 제공한다. 압력 센서(155)는 비디오 출력부(131)에 내장되어 압력의 크기에 대응되는 전기 신호를 출력하는 압전 필름(piezo film)을 포함할 수 있다. 한편, 도 5에서는 터치 센서(154) 및 압력 센서(155)가 별개의 것으로 도시되어 있으나, 터치 센서(154)가 감압식 터치 센서로 구현된 경우, 그 감압식 터치 센서가 압력 센서(155)의 역할도 함께 할 수도 있다.
제어부(120)는 감지부(150)에서 감지된 각종 감지 신호를 분석하여, 사용자의 의도를 파악하고, 그 의도에 부합되는 동작을 수행한다.
예를 들어, 제어부(120)는 터치 조작, 모션 입력, 음성 입력, 버튼 입력 등과 같은 다양한 입력 방식에 따라 제어 동작을 수행할 수 있다. 터치 조작에는 단순 터치, 탭, 터치 앤 홀드, 무브, 플릭, 드래그 앤 드롭, 핀치 인, 핀치 아웃 등과 같은 다양한 조작이 있을 수 있다.
가령, 제어부(120)는 저장부(160)에 저장된 어플리케이션을 실행시켜 그 실행 화면을 구성하여 디스플레이할 수도 있으며, 저장부(160)에 저장된 각종 컨텐츠를 재생하여 줄 수도 있다. 여기에서, 컨텐츠란, 이미지, 텍스트, 사진, 동영상 등과 같은 다양한 멀티미디어 컨텐츠를 의미할 수 있다. 또한, 제어부(120)는 통신부(140)를 통해서 외부 기기들과 통신을 수행하여 컨텐츠를 수신할 수도 있다.
또한, 제어부(120)는 UI 제공 장치(100)의 회전 상태에 기초하여, 출력부(130)에 디스플레이되는 컨텐츠의 표시 방향을 변경할 수 있다. 가령, UI 제공 장치(100)가 좌측으로 90°만큼 회전된 경우, 제어부(120)는 컨텐츠를 좌측으로 90°만큼 회전시켜 디스플레이되도록 제어할 수 있다.
입력부(170)는 다양한 사용자 조작을 입력받으며, 제어부(120)는 입력부(170)를 통해 입력된 다양한 사용자 조작에 대응되는 동작을 수행한다. 예를 들어, 입력부(170)를 통해 UI 제공 장치(100)의 전원을 온 시키는 사용자 조작이 입력되면, 제어부(120)는 UI 제공 장치(100)의 각 구성에 전원을 공급할 수 있다.
이를 위해, 입력부(170)는 리모컨, 키보드, 마우스 등과 같은 입력 수단으로부터 사용자 조작을 수신하기 위한 리모컨 수신부, 입력 포트 등으로 구현되거나, 출력부(130)와 함께 터치 스크린, 터치 패드 등으로 구현될 수 있다.
또한, 입력부(170)는 UI의 출력 상태를 변경하기 위한 사용자 조작을 입력받을 수 있다. 이 경우, 제어부(120)는 사용자 조작에 따라 UI의 출력 상태가 변경된 후 사용자 정보가 수신되면 변경된 UI를 출력하도록 출력부(130)를 제어할 수 있다.
구체적으로, 제어부(120)는 사용자 조작에 따라 UI의 출력 상태를 변경하기 위한 UI 화면을 출력부(130)를 통해 디스플레이한다. 그리고, 제어부(120)는 UI 화면 상에서 그래픽 UI에 포함된 UI의 구성요소의 사이즈를 변경하기 위한 사용자 조작이 입력되거나, 음성 UI의 출력 볼륨 크기를 변경하기 위한 사용자 조작이 입력되면, 사용자 조작에 따라 변경된 UI에 대한 정보를 저장부(160)에 저장한다.
이 경우, 제어부(120)는 변경된 UI에 대한 정보를 출력 상태가 변경되기 전의 UI를 출력하도록 설정된 장애 유형 및 장애 정도에 매칭시켜 저장할 수 있다. 이에 따라, 제어부(120)는 동일한 장애 유형 및 장애 정도에 대한 정보가 수신되면, 사이즈가 변경된 그래픽 UI 및 출력 볼륨의 크기가 변경된 음성 UI 중 적어도 하나를 출력할 수 있다.
예를 들어, 4급 시각 장애인에게 제공되도록 설정된 사이즈에 따라 그래픽 UI를 출력하던 도중, 출력되는 그래픽 UI의 사이즈를 조정하기 위한 사용자 조작이 입력되면, 제어부(120)는 사용자 조작에 따라 조정된 그래픽 UI의 사이즈에 대한 정보를 저장부(160)에 저장할 수 있다. 이 경우, 제어부(120)는 조정된 그래픽 UI의 사이즈를 해당 장애 유형 및 장애 정도 즉, 4급 시각 장애에 매칭시켜 저장할 수 있다. 이에 따라, 4급 시각 장애에 해당하는 장애 유형 및 장애 정도에 대한 정보가 수신되면, 제어부(120)는 조정된 사이즈를 갖는 그래픽 UI를 출력부(130)를 통해 출력할 수 있다.
한편, 상술한 실시 예에서는 변경된 UI 정보를 장애 유형 및 장애 정도에 매칭시켜 저장하는 것으로 설명하였으나 이는 일 예에 불과하다. 즉, 제어부(120)는 장애 유형 및 장애 정도에 대응되는 UI에 대한 정보와 변경된 UI에 대한 정보를 평균화(normalize)하고, 평균화된 UI에 대한 정보를 장애 유형 및 장애 정도에 매칭시켜 저장할 수도 있다. 이 경우, 제어부(120)는 이후 동일한 장애 유형 및 장애 정도에 대한 정보가 수신되면, 평균화된 UI에 대한 정보에 기초하여 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다.
상술한 예에서, 제어부(120)는 4급 시각 장애인에 제공되도록 설정된 사이즈와 사용자 조작에 의해 조정된 사이즈를 평균화하고, 평균화된 그래픽 UI의 사이즈에 대한 정보를 저장부(160)에 저장할 수 있다. 이 경우, 제어부(120)는 평균화된 그래픽 UI의 사이즈를 해당 장애 유형 및 장애 정도에 매칭시켜 저장할 수 있다. 즉, 4급 시각 장애인에 제공되도록 설정된 사이즈가 7인 반면 사용자 조작에 의해 조정된 사이즈가 9라면, 이들의 평균치인 8을 4급 시각 장애인에 매칭시켜 저장할 수 있다.
이에 따라, 4급 시각 장애에 해당하는 장애 유형 및 장애 정도에 대한 정보가 수신되면, 제어부(120)는 평균화된 사이즈를 갖는 그래픽 UI를 출력부(130)를 통해 출력할 수 있다.
한편, 상술한 바와 같이, 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보가 저장부(160)에 저장되어 있지 않은 경우, 제어부(120)는 서버(200)로부터 수신된 UI 출력 정보를 이용하여 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다.
이 경우, 제어부(120)는 사용자 조작에 따라 UI의 출력 상태가 변경되면, 변경된 UI에 대한 정보를 서버(200)로 전송하도록 통신부(140)를 제어할 수 있다. 이때, 서버(200)는 사용자 정보에 매칭시켜 변경된 UI에 대한 정보를 저장할 수 있다. 이후, 제어부(120)는 동일한 사용자 정보가 수신부(110)를 통해 수신되면 사용자 정보를 서버(200)로 전송하며, 서버(200)는 사용자 정보에 매칭되어 저장된 UI 출력 정보 즉, 변경된 UI에 대한 정보를 UI 제공 장치(100)로 전송할 수 있다. 이에 따라, 제어부(120)는 변경된 UI에 대한 정보에 기초하여 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다.
예를 들어, 4급 시각 장애인에게 제공되도록 설정된 사이즈에 따라 그래픽 UI를 출력하던 도중, 출력되는 그래픽 UI의 사이즈를 조정하기 위한 사용자 조작이 입력되면, 제어부(120)는 사용자 조작에 따라 조정된 그래픽 UI의 사이즈에 대한 정보를 서버(200)로 전송할 수 있다. 이후, 제어부(120)는 동일한 사용자 정보가 수신되면 이를 서버(200)로 전송하게 되며, 제어부(120)는 서버(200)로부터 조정된 그래픽 UI의 사이즈에 대한 정보를 수신하여, 조정된 사이즈를 갖는 그래픽 UI를 출력부(130)를 통해 출력할 수 있다.
한편, 상술한 실시 예에서는 변경된 UI에 대한 정보가 서버(200)에 저장되는 것으로 설명하였으나 이는 일 예에 불과하다. 즉, 서버(200)는 장애 유형 및 장애 정도에 대응되는 UI 출력 정보와 변경된 UI에 대한 정보를 평균화(normalize)하고, 평균화된 UI에 대한 정보를 사용자 정보에 매칭시켜 저장할 수도 있다. 이에 따라, 서버(200)는 동일한 사용자 정보가 수신되면, 평균화된 UI에 대한 정보를 UI 제공 장치(100)로 전송할 수 있으며, 제어부(120)는 평균화된 UI에 대한 정보를 이용하여, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다.
GPS 수신부(181)는 GPS(Grobal Positioning System) 위성으로부터 GPS 신호를 수신하여, UI 제공 장치(100)의 현재 위치를 산출하기 위한 구성요소이다.
DMB 수신부(183)는 DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 구성요소이다.
비디오 처리부(135)는 비디오 데이터에 대한 처리를 수행하는 구성요소이다. 비디오 처리부(135)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다. 특히, 비디오 처리부(135)는 장애 유형 및 장애 정도에 대응되는 그래픽 UI를 비디오 출력부(131)에서 출력 가능한 형태로 처리할 수 있다. 구체적으로, 비디오 처리부(135)는 디폴트로 저장된 그래픽 UI 및 해당 그래픽 UI를 구성하는 UI 구성요소의 크기를 변경시켜 비디오 출력부(131)에서 출력 가능한 형태로 처리할 수도 있다.
오디오 처리부(137)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(137)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 특히, 오디오 처리부(137)는 장애 유형 및 장애 정도에 대응되는 음성 UI를 오디오 출력부(133)에서 출력 가능한 형태로 처리할 수 있다. 또한, 오디오 처리부(137)는 디폴트로 저장된 음성 UI 및 해당 음성 UI를 증폭시켜 오디오 출력부(133)에서 출력되도록 제어할 수 있다.
출력부(130)는 영상을 출력하기 위한 비디오 출력부(131)와 음성을 출력하기 위한 오디오 출력부(133)를 포함한다.
비디오 출력부(131)는 비디오 처리부(135)에서 처리된 비디오 데이터를 영상으로 표시할 수 있다. 이를 위해, 비디오 출력부(131)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 또는 플라즈마 표시 패널(Plasma Display Panel, PDP) 등의 형태로 구현될 수 있다.
한편, 오디오 출력부(133)는 오디오 처리부(137)에서 처리된 오디오 데이터를 오디오로 출력할 수 있다. 뿐만 아니라, 오디오 출력부(133)는 각종 알림 음이나 음성 메시지 등을 출력할 수도 있다. 이를 위해, 오디오 출력부(133)는 잭 등과 같은 출력 포트, 스피커 등으로 구현될 수 있다.
한편, 제어부(120)는 다양한 화면 또는 객체를 비디오 출력부(131) 및 오디오 출력부(133)를 통해 출력할 수 있다. 예를 들어, 제어부(120)는 저장부(160)에 저장된 각종 이미지, 텍스트, 사진, 동영상 등을 비디오 처리부(135) 및 오디오 처리부(137)를 통해 처리 가능한 형태로 신호 처리를 수행하여, 비디오 출력부(131) 및 오디오 출력부(133)를 통해 출력할 수 있다.
또한, 제어부(120)는 다양한 사용자 명령을 입력받기 위한 화면을 비디오 출력부(131)에 디스플레이할 수 있다. 특히, 제어부(120)는 사용자 조작에 따라, UI 출력 상태를 변경하기 위한 메뉴 화면을 비디오 출력부(131)에 디스플레이할 수 있다.
또한, 제어부(120)는 사용자의 장애 유형 및 장애 정도에 대응되는 그래픽 UI를 비디오 출력부(131)를 통해 출력하고, 사용자의 장애 유형 및 장애 정도에 대응되는 음성 UI를 오디오 출력부(133)를 통해 출력할 수도 있다.
버튼(185)은 UI 제공 장치(100)의 본체 외관의 전면부나 측면부, 후면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다. 이와 같은, 버튼(185)을 통해 전원 온오프 명령 등과 같은 UI 제공 장치(100)의 동작을 제어하기 위한 다양한 사용자 조작을 입력받을 수 있다.
USB 포트(187)는 USB 메모리나 USB 커넥터가 연결될 수 있는 포트를 의미하며, 이를 통해 각종 컨텐츠를 외부 장치로부터 수신하고, 외부 장치로 전송할 수 있다.
카메라(189)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬상하기 위한 구성이다. 카메라(189)는 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수 있다.
마이크(191)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다. 제어부(120)는 마이크(191)를 통해 입력되는 사용자 음성을 통화(call) 과정에서 이용하거나, 오디오 데이터로 변환하여 저장부(160)에 저장할 수 있다.
카메라(189) 및 마이크(191)가 마련된 경우, 제어부(120)는 마이크(191)를 통해 입력되는 사용자 음성이나 카메라(189)에 의해 인식되는 사용자 모션에 따라 제어 동작을 수행할 수도 있다. 즉, UI 제공 장치(100)는 모션 제어 모드나 음성 제어 모드로 동작할 수 있다.
예를 들어, 모션 제어 모드로 동작하는 경우, 제어부(120)는 카메라(189)를 활성화시켜 사용자를 촬상하고, 사용자의 모션 변화를 추적하여 전원 온 오프 등과 같은 제어 동작을 수행한다. 또한, 음성 제어 모드로 동작하는 경우 제어부(120)는 마이크를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행하는 음성 인식 모드로 동작할 수도 있다.
그 밖에, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트들이 더 포함될 수도 있다.
상술한 제어부(130)의 동작은 저장부(160)에 저장된 프로그램에 의해 이루어질 수 있다. 저장부(160)에는 UI 제공 장치(100)를 구동시키기 위한 O/S(Operating System) 소프트웨어, 각종 어플리케이션, 어플리케이션 실행 중에 입력되거나 설정되는 각종 데이터, 컨텐츠 등과 같이 다양한 데이터가 저장될 수 있다.
제어부(120)는 저장부(160)에 저장된 각종 프로그램을 이용하여 UI 제공 장치(100)의 동작을 전반적으로 제어한다.
제어부(120)는 RAM(121), ROM(122), 메인 CPU(123), 그래픽 처리부(124), 제1 내지 n 인터페이스(125-1 ~ 125-n), 버스(126)를 포함한다.
RAM(121), ROM(122), 메인 CPU(123), 제1 내지 n 인터페이스(125-1 ~ 125-n) 등은 버스(136)를 통해 서로 연결될 수 있다.
제1 내지 n 인터페이스(125-1 내지 125-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
메인 CPU(123)는 저장부(160)에 액세스하여, 저장부(160)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 저장부(160)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(122)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(123)는 ROM(122)에 저장된 명령어에 따라 저장부(160)에 저장된 O/S를 RAM(121)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(123)는 저장부(160)에 저장된 각종 어플리케이션 프로그램을 RAM(121)에 복사하고, RAM(121)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부(124)는 메인 CPU(123)의 제어에 따라 각종 화면을 구성한다. 구체적으로는, 또한, 그래픽 처리부(124)는 화면에 대한 표시 상태 값을 계산한다. 표시 상태 값이란 화면상에서 객체가 표시될 위치의 좌표값, 객체의 형태, 크기, 컬러 등을 나타내는 속성값 등이 될 수 있다. 그래픽 처리부(124)는 표시 상태 값이 계산되면, 그 값에 기초하여 렌더링을 수행하여, 화면을 생성한다.
한편, 도 8에 도시된 UI 제공 장치(100)의 구성은 일 예일 뿐이므로, 실시 예에 따라서는, 도 8에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성요소가 더 추가될 수도 있다.
한편, 상술한 바와 같이 제어부(120)는 저장부(160)에 저장된 프로그램을 실행시켜, 다양한 동작을 수행할 수 있다.
도 9는 저장부에 저장된 소프트웨어의 계층을 설명하기 위한 도면이다. 도 9에 따르면, 저장부(160)에는 베이스 모듈(161), 센싱 모듈(162), 통신 모듈(163), 프리젠테이션 모듈(164), 웹 브라우저 모듈(165), 컨텐츠 처리 모듈(166)을 포함한다.
베이스 모듈(161)이란 UI 제공 장치(100)에 구비된 각 하드웨어들로부터 전달되는 신호를 처리하여 상위 레이어 모듈로 전달하는 기초 모듈을 의미한다.
베이스 모듈(161)은 스토리지 모듈(161-1), 위치 기반 모듈(161-2), 보안 모듈(161-3), 네트워크 모듈(161-4) 등을 포함한다.
스토리지 모듈(161-1)이란 데이터베이스(DB)나 레지스트리를 관리하는 프로그램 모듈이다. 메인 CPU(123)는 스토리지 모듈(161-1)을 이용하여 저장부(160) 내의 데이터베이스에 액세스하여, 각종 데이터를 리딩(reading)할 수 있다. 위치 기반 모듈(161-2)이란 GPS 칩 등과 같은 각종 하드웨어와 연동하여 위치 기반 서비스를 지원하는 프로그램 모듈이다. 보안 모듈(161-3)이란 하드웨어에 대한 인증(Certification), 요청 허용(Permission), 보안 저장(Secure Storage) 등을 지원하는 프로그램 모듈이고, 네트워크 모듈(161-4)이란 네트워크 연결을 지원하기 위한 모듈로 DNET 모듈, UPnP 모듈 등을 포함한다.
센싱 모듈(162)은 외부 입력 및 외부 디바이스에 대한 정보를 관리하고, 이를 이용하기 위한 모듈이다. 센싱 모듈(162)은 회전 인식 모듈(Rotation Recognition), 음성 인식 모듈(Voice Recognition), 터치 감지 모듈(Touch Recognition), 제스쳐 인식 모듈(Gesture Recognition)을 포함한다. 회전 인식 모듈이란 지자기 센서(151), 자이로 센서(152) 등과 같은 센서에서 감지된 센싱 값을이용하여 회전 각도 및 회전 방향을 산출하는 프로그램이다. 음성 인식 모듈은 마이크(191)에서 수집된 음성 신호를 분석하여, 사용자의 음성을 추출하는 프로그램이며, 터치 감지 모듈은 터치 센서(154)에서 감지된 센싱 값을 이용하여 터치 좌표를 검출하는 프로그램이며, 제스쳐 인식 모듈은 카메라(189)에서 촬상된 이미지를 분석하여 사용자의 제스쳐를 인식하는 프로그램이다.
통신 모듈(163)은 외부와 통신을 수행하기 위한 모듈이다. 통신 모듈(163)은 메신저 프로그램, SMS(Short Message Service) & MMS(Multimedia Message Service) 프로그램, 이메일 프로그램 등과 같은 메시징 모듈(163-1), 전화 정보 수집기(Call Info Aggregator) 프로그램 모듈, VoIP 모듈 등을 포함하는 전화 모듈(163-2)을 포함할 수 있다.
프리젠테이션 모듈(164)은 디스플레이 화면을 구성하기 위한 모듈이다. 프리젠테이션 모듈(164)은 컨텐츠를 재생하여 출력하기 위한 멀티미디어 모듈(164-1), UI 및 그래픽 처리를 수행하는 UI & 그래픽 모듈(164-2)을 포함한다. 멀티미디어 모듈(164-1)은 플레이어 모듈, 캠코더 모듈, 사운드 처리 모듈 등을 포함할 수 있다. 이에 따라, 각종 컨텐츠를 재생하여 화면 및 음향을 생성하여 재생하는 동작을 수행한다. UI & 그래픽 모듈(164-2)은 이미지를 조합하는 이미지 합성기(Image Compositor module), 이미지를 디스플레이할 화면 상의 좌표를 조합하여 생성하는 좌표 조합 모듈, 하드웨어로부터 각종 이벤트를 수신하는 X11 모듈, 2D 또는 3D 형태의 UI를 구성하기 위한 툴(tool)을 제공하는 2D/3D UI 툴킷 등을 포함할 수 있다.
웹 브라우저 모듈(165)은 웹 브라우징을 수행하여 웹 서버에 액세스하는 모듈을 의미한다. 웹 브라우저 모듈(165)은 웹 페이지를 구성하는 웹 뷰(web view) 모듈, 다운로드를 수행하는 다운로드 에이전트 모듈, 북마크 모듈, 웹킷(Webkit) 모듈 등과 같은 다양한 모듈을 포함할 수 있다.
컨텐츠 처리 모듈(166)은 저장부(160)에 저장된 컨텐츠를 처리하기 위한 소프트웨어를 의미한다. 재생 능력 판단 모듈(166-1)은 재생 능력 정보와 컨텐츠 속성을 비교하는 알고리즘으로 동작하는 프로그램이다. 파서(166-2) 및 코덱(166-3)은 컨텐츠 처리를 위해서 비디오 처리부(135)로 제공되는 소프트웨어이다. 파서(166-2)는 통상적으로 소프트웨어로만 구현되고, 코덱(166-3)은 소프트웨어로 구현되는 경우도 있고 하드웨어로 구현되는 경우도 있다.
그 밖에, 네비게이션 서비스 모듈, 게임 모듈 등과 같은 다양한 어플리케이션 모듈이 더 포함될 수 있다.
도 9에 도시된 각종 프로그램 모듈들은 UI 제공 장치(100)의 종류 및 특성에 따라 일부 생략되거나 변형 또는 추가될 수도 있다. 가령, UI 제공 장치(100)가 스마트폰인 경우라면, 전자책 어플리케이션, 게임 어플리케이션 및 기타 유틸리티 프로그램이 더 포함될 수도 있다. 또한, 도 9의 프로그램 모듈들 중에서 일부는 생략될 수도 있다.
도 10은 본 발명의 일 실시 예에 따른 서버의 구성을 설명하기 위한 블록도이다. 도 10에 따르면, 서버(200)는 통신부(210), 저장부(220) 및 제어부(230)를 포함한다.
통신부(210)는 UI 제공 장치(100)와 통신을 수행할 수 있다. 예를 들어, 통신부(210)는 인터넷 망을 통해 UI 제공 장치(100)와 통신을 수행하며, 다양한 정보를 송수신할 수 있다. 이 경우, 통신부(210)는 사용자의 장애 유형 및 장애 정도에 대한 정보, UI 출력 정보, 변경된 UI에 대한 정보 등을 UI 제공 장치(100)와 송수신할 수 있다.
저장부(220)는 다양한 정보를 저장한다. 구체적으로, 저장부(220)는 사용자별로 매칭된 장애 유형 및 장애 정도에 대한 정보를 저장할 수 있다. 즉, 저장부(220)는 사용자 식별 정보별로 사용자의 장애 유형 및 장애 정도에 대한 정보를 저장할 수 있다.
또한, 저장부(220)는 사용자의 장애 유형 및 장애 정도에 따라 출력되는 UI에 대한 정보를 저장할 수 있다. 구체적으로, 저장부(220)는 장애 유형 및 장애 정도에 따라 UI 제공 장치(100)에서 출력되는 UI 타입, 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기 등에 대한 정보를 포함할 수 있다.
예를 들어, 저장부(220)는 사용자의 시각 장애 정도가 사물을 전혀 인지할 수 없는 등급인 경우 출력되는 UI 타입이 음성 UI라는 정보를 저장할 수 있다. 또한, 저장부(220)는 사용자의 시각 장애 정도가 사물을 인지할 수 있는 등급인 경우 출력되는 UI 타입이 그래픽 UI 또는, 그래픽 UI + 음성 UI라는 정보 및 그래픽 UI의 사이즈에 대한 정보를 저장할 수 있다.
또한, 저장부(220)는 사용자의 청각 장애 정도가 소리를 전혀 들을 수 없는 등급인 경우 출력되는 UI 타입이 그래픽 UI라는 정보를 저장할 있다. 또한, 저장부(220)는 사용자의 청각 장애 정도가 기설정된 크기 이상의 소리를 들을 수 있는 등급인 경우 출력되는 UI 타입이 음성 UI 또는, 그래픽 UI + 음성 UI라는 정보 및 음성 UI의 출력 볼륨 크기에 대한 정보를 저장할 수 있다.
또한, 저장부(220)는 변경된 UI에 대한 정보를 저장할 수 있다. 즉, UI 제공 장치(100)에서 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 크기가 사용자 조작에 따라 변경되면, UI 제공 장치(100)는 변경된 UI에 대한 정보를 서버(200)로 전송한다. 이에 따라, 저장부(220)는 UI 제공 장치(100)로부터 수신된 변경된 UI에 대한 정보를 저장할 수 있다. 이 경우, 저장부(220)는 사용자 정보별로 변경된 UI에 대한 정보를 매칭시켜 저장할 수 있다.
제어부(230)는 서버(200)의 전반적인 동작을 제어한다. 구체적으로, 제어부(230)는 UI 제공 장치(100)로부터 사용자 식별 정보가 수신되면, 사용자 식별 정보에 대응되는 장애 유형 및 장애 정도에 대한 정보를 검출하여 UI 제공 장치(100)로 전송하도록 제어할 수 있다. 즉, 상술한 바와 같이, UI 제공 장치(100)는 통신 기기(300)로부터 수신된 사용자 정보에 사용자의 장애 유형 및 장애 정도에 대한 정보가 포함되어 있지 않은 경우, UI 제공 장치(100)는 사용자 식별 정보를 서버(200)로 전송한다. 이 경우, 제어부(230)는 UI 제공 장치(100)로부터 수신된 사용자 식별 정보에 대응되는 사용자의 장애 유형 및 장애 정도에 정보를 저장부(220)로부터 검출하고, 이를 통신부(210)를 통해 UI 제공 장치(100)로 전송할 수 있다.
또한, 제어부(230)는 UI 제공 장치(100)로부터 사용자 정보가 수신되면, 장애 유형 및 장애 정도에 대응되는 UI 출력 정보를 UI 출력 장치(100)로 전송하도록 통신부(210)를 제어할 수 있다.
구체적으로, 제어부(230)는 저장부(210)에 저장된 정보 즉, 사용자의 장애 유형 및 장애 정도에 따라 출력되는 UI에 대한 정보를 이용하여, 사용자 정보에 대응되는 UI 출력 정보를 UI 제공 장치(100)로 전송하도록 제어할 수 있다. 예를 들어, 제어부(230)는 UI 제공 장치(100)로부터 수신된 사용자 정보에 기초하여 사용자가 4급 시각 장애인인 것으로 판단되면, 저장부(220)에 저장된 UI 출력 정보에 기초하여 4급 시각 장애인에게는 제공되는 UI는 그래픽 UI이며 해당 그래픽 UI를 구성하는 UI 구성요소의 사이즈에 대한 정보를 UI 제공 장치(100)로 전송할 수 있다.
또한, 제어부(230)는 UI 제공 장치(100)로부터 변경된 UI에 대한 정보가 수신되면, 변경된 UI에 대한 정보를 사용자별로 매칭시켜 저장하고, 이후 사용자 정보가 수신되면 변경된 UI에 대한 정보를 UI 제공 장치(100)로 전송하도록 통신부(210)를 제어할 수 있다.
상술한 바와 같이, UI 제공 장치(100)에서 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보가 기저장되어 있지 않은 경우, UI 제공 장치(100)는 서버(200)로부터 수신된 UI 출력 정보를 이용하여, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력한다. 이와 같은 경우에서, UI 제공 장치(100)는 사용자 조작에 의해 UI의 출력 상태가 변경된 경우, 변경된 UI에 대한 정보를 서버(200)로 전송하게 된다.
이에 따라, 제어부(230)는 UI 제공 장치(100)로부터 수신된 변경된 UI에 대한 정보를 사용자 정보에 매칭시켜 저장부(220)에 저장하고, 이후 UI 제공 장치(100)로부터 사용자 정보가 수신되면 변경된 UI에 대한 정보를 UI 제공 장치(100)로 전송하도록 통신부(210)를 제어할 수 있다.
이 경우, 제어부(230)는 사용자 정보에 대응되는 UI에 대한 정보와 변경된 UI에 대한 정보를 평균화하고, 평균화된 UI에 대한 정보를 사용자 정보에 매칭시켜 저장할 수도 있다. 예를 들어, 제어부(230)는 4급 시각 장애인에 제공되도록 설정된 사이즈와 사용자 조작에 의해 조정된 사이즈를 평균화하고, 평균화된 그래픽 UI의 사이즈에 대한 정보를 저장부(160)에 저장할 수 있다. 이 경우, 제어부(230)는 평균화된 그래픽 UI의 사이즈를 해당 사용자 정보에 매칭시켜 저장할 수 있다. 즉, 4급 시각 장애인에 제공되도록 설정된 사이즈가 7인 반면 사용자 조작에 의해 조정된 사이즈가 9라면, 이들의 평균치인 8을 4급 시각 장애인에 매칭시켜 저장할 수 있다.
도 11 내지 도 15는 본 발명의 일 실시 예에 따라 UI를 제공하는 방법을 설명하기 위한 도면들이다.
먼저, 도 11 및 도 12는 통신 기기(300)로부터 수신된 사용자 정보에 따라, 사용자가 시각 장애인인 것으로 판단된 경우를 설명하기 위한 도면들이다.
이와 같이, 사용자가 시각 장애인인 것으로 판단되면 UI 제공 장치(100)는 음성 UI를 출력할 수 있다. 가령, 도 11과 같이, UI 제공 장치(100)는 환경 설정 메뉴(410)를 디폴트로 설정된 그래픽 UI으로 출력하지 않고, 해당 메뉴를 선택하기 위한 사용자 명령을 입력받기 위해 해당 메뉴를 낭독하는 형태의 음성 UI(420)를 출력할 수 있다.
또한, UI 제공 장치(100)는 시각 장애 정도에 따라 사용자가 인지할 수 있는 사이즈를 갖는 UI 구성요소를 포함하는 그래픽 UI를 출력할 수 있다. 가령, 도 12와 같이, UI 제공 장치(100)는 디폴트로 설정된 환경 설정 메뉴(410)를 보다 큰 사이즈로 디스플레이할 수 있다. 이 경우, UI 제공 장치(100)는 사용자의 시각 장애 정도에 따라 그래픽 UI의 사이즈를 조정할 수 있다. 즉, UI 제공 장치(100)는 시각 장애 정도가 상대적으로 작은 경우에 제공되는 환경 설정 메뉴(430)보다 시각 장애 정도가 상대적 큰 경우에 환경 설정 메뉴(440)의 사이즈를 크게하여 출력할 수 있다.
한편, 도 13 및 도 14는 통신 기기(300)로부터 수신된 사용자 정보에 따라, 사용자가 청각 장애인이 것으로 판단된 경우를 설명하기 위한 도면들이다.
이와 같이, 사용자가 청각 장애인인 것으로 판단되면, UI 제공 장치(100)는 그래픽 UI를 출력할 수 있다. 가령, 도 13과 같이, UI 제공 장치(100)는 환경 설정 메뉴를 음성 형태(510)로 출력하는 것이 디폴트로 설정되었더라도, 사용자가 청각 장애인인 것으로 판단되면 환경 설정 메뉴(520)를 그래픽 형태로 제공할 수 있다.
또한, UI 제공 장치(100)는 청각 장애 정도에 따라 사용자가 들을 수 있는 볼륨 크기를 갖는 음성 UI를 출력할 수 있다. 가령, 도 14와 같이, UI 제공 장치(100)는 디폴트로 설정된 음성 UI를 보다 큰 볼륨으로 출력할 수 있다. 이 경우, UI 제공 장치(100)는 청각 장애 정도가 상대적으로 작은 경우 제공되는 음성 UI(530)보다 청각 장애 정도가 상대적으로 큰 경우 음성 UI(540)의 출력 볼륨 크기를 크게하여 출력할 수 있다.
한편, 상술한 실시 예에서는, 그래픽 UI 및 음성 UI 중 하나가 출력되는 것으로 설명하였으나 이는 일 예에 불과하다. 즉, UI 제공 장치(100)는 사용자의 장애 유형 및 장애 정도에 따라, 그래픽 UI 및 음성 UI를 함께 출력할 수 있음은 물론이다. 예를 들어, UI 제공 장치(100)는 사용자가 시각 장애인인 것으로 판단된 경우 사용자가 인식할 수 있는 크기의 사이즈를 갖는 그래픽 UI와 함께 음성 UI를 출력할 수 있다. 또한, UI 제공 장치(100)는 사용자가 청각 장애인인 것으로 판단된 경우 사용자가 들을 수 있는 크기의 음성 UI와 함께 그래픽 UI를 출력할 수 있다.
한편, 도 15는 UI의 출력 상태가 변경된 경우, 변경된 UI에 대한 정보에 기초하여 UI를 출력하는 방법을 설명하기 위한 도면이다.
먼저, 도 15(a)와 같이, UI 제공 장치(100)는 사용자 조작에 기초하여 UI의 출력 상태를 변경하기 위한 UI 화면(610)을 디스플레이한다. 예를 들어, UI 화면(610)은 변경 대상이 되는 장애 유형 및 장애 정도를 나타내는 GUI(611), 그래픽 UI의 사이즈를 조정하는 사용자 조작을 입력받기 위한 GUI(612), 음성 UI의 출력 볼륨을 조정하는 사용자 조작을 입력받기 위한 GUI(613)을 포함할 수 있다.
한편, 사용자는 GUI(611)에 마련된 상/하 버튼을 선택하여 변경 대상이 되는 장애 유형 및 장애 정도를 변경할 수 있다. 예를 들어, 사용자가 GUI(611)의 상 버튼을 선택하면, UI 화면은 5급 시각 장애인에게 설정된 그래픽 UI 및 음성 UI를 변경하기 위한 사용자 조작을 입력받을 수 있으며, 사용자가 GUI(611)의 하 버튼을 선택하면, UI 화면은 6급 시각 장애인에게 설정된 그래픽 UI 및 음성 UI를 변경하기 위한 사용자 조작을 입력받을 수 있다. 또한, 사용자는 GUI(612) 및 GUI(613)에 마련된 상/하 버튼을 선택하여 그래픽 UI의 사이즈, 음성 UI의 출력 볼륨을 조정할 수 있다.
이에 따라, 사용자가 UI 화면(610) 상에서 그래픽 UI의 사이즈 및 음성 UI의 출력 볼륨 중 적어도 하나를 변경하면, UI 제공 장치(100)는 변경된 UI에 대한 정보를 저장하고, 변경된 UI에 대한 정보를 이용하여 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 제공할 수 있다.
예를 들어, 도 15(b)는 사용자에 의해 그래픽 UI의 사이즈가 변경되기 전과 변경된 후, 출력되는 그래픽 UI를 설명하기 위한 도면이다. 즉, 도 15(b)의 좌측과 같이 사용자 조작에 의해 변경되기 전에는 4급 시각 장애인에 대응되는 사이즈를 갖는 환경 설정 메뉴(620)가 디스플레이되지만, 그래픽 UI의 사이즈가 사용자에 의해 변경된 경우 이후 4급 시각 장애인에게는 사용자에 의해 변경된 사이즈를 갖는 환경 설정 메뉴(630)가 디스플레이될 수 있다.
도 16은 본 발명의 일 실시 예에 따른 UI 제공 장치의 UI 제공 방법을 설명하기 위한 흐름도이다.
먼저, 사용자 정보를 저장한 통신 기기(300)와의 근거리 무선 통신을 통해 사용자 정보를 수신한다(S710). 이 경우, NFC 리더를 이용하여 사용자 정보를 저장한 NFC 태그와 태깅을 통해 사용자 정보를 수신할 수 있다. 여기에서, 사용자 정보는 장애 유형, 장애 유형에 따른 장애 정도 및 사용자 식별 정보 중 적어도 하나를 포함할 수 있다.
한편, 본 실시 예에 따르면, 사용자 식별 정보를 서버로 전송하고, 사용자 식별 정보에 대응되는 장애 유형 및 장애 정도에 대한 정보를 서버로부터 수신할 수 있다. 즉, 통신 기기(300)로부터 수신된 사용자 정보에 사용자의 장애 유형 및 장애 정도에 대한 정보가 저장되어 있지 않은 경우, 해당 정보들을 서버로부터 수신할 수도 있다.
이후, 사용자 정보를 기초로 획득된 사용자의 장애 유형 및 장애 정도에 대한 정보에 대응하도록 UI(User Interface)를 설정한다(S720). 그리고, 설정된 UI를 출력한다(S730).
구체적으로, 사용자의 장애 유형이 시각 장애인 경우, 시각 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력할 수 있다. 보다 구체적으로는, 시각 장애 정도가 기설정된 레벨 이상인 경우 해당 레벨에 대응되는 그래픽 UI를 출력하고, 시각 장애 정도가 기설정된 레벨 미만인 경우 음성 UI를 출력할 수 있다.
다른 한편, 사용자의 장애 유형이 청각 장애인 경우, 청각 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력할 수 있다. 보다 구체적으로는, 청각 장애 정도가 기설정된 레벨 이상인 경우 해당 레벨에 대응되는 음성 UI를 출력하고, 청각 장애 정도가 기설정된 레벨 미만인 경우 그래픽 UI를 출력할 수 있다.
한편, 본 실시 예에 따르면, 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보가 UI 제공 장치에 저장되어 있지 않은 경우, 사용자 정보를 서버(200)로 전송하고 장애 유형 및 장애 정도에 대응되는 UI 출력 정보를 서버(200)로부터 수신할 수 있다. 이에 따라, 서버(200)로부터 수신된 정보에 기초하여, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다.
한편, 본 실시 예에 따르면, UI의 출력 상태를 변경하기 위한 사용자 조작을 입력받고, 사용자 조작에 따라 UI의 출력 상태가 변경된 후 사용자 정보가 수신되면, 변경된 UI를 출력할 수 있다. 즉, 그래픽 UI에 포함된 UI 구성요소의 사이즈가 조정되거나 음성 UI의 출력 볼륨 크기가 조정되면, 변경된 UI에 대한 정보를 저장하고, 이후 사용자 정보가 재차 수신되면 변경된 UI에 대한 정보를 이용하여, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력할 수 있다.
이 경우, 사용자 조작에 따라 UI의 출력 상태가 변경되면, 변경된 UI 에 대한 정보를 서버(200)로 전송할 수도 있다. 상술한 바와 같이, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보가 저장되어 있지 않은 경우, UI 제공 장치는 서버(200)로부터 UI 출력 정보를 수신하여, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력한다. 이와 같이, 서버(200)로부터 UI 출력 정보를 이용하여, 사용자의 장애 유형 및 장애 정도에 대응되는 UI를 출력하는 경우, UI 출력 장치는 서버(200)로 변경된 UI 에 대한 정보를 전송하며, 서버(200)는 변경된 UI에 대한 정보를 저장할 수 있다.
또한, 본 발명에 따른 제어 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 디스플레이 장치에 대해 도시한 블록도에서는 버스(bus)를 미도시하였으나, 디스플레이 장치에서 각 구성요소 간의 통신은 버스를 통해 이루어질 수도 있다. 또한, 디스플레이 장치에는 상술한 다양한 단계를 수행하는 CPU, 마이크로 프로세서 등과 같은 프로세서가 더 포함될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (15)

  1. UI 제공 장치에 있어서,
    사용자 정보를 저장한 통신 기기와의 근거리 무선 통신을 통해 상기 사용자 정보를 수신하는 수신부;
    상기 사용자 정보를 기초로 획득된 사용자의 장애 유형 및 장애 정도에 대한 정보에 대응하도록 UI(User Interface)를 설정하는 제어부; 및,
    상기 설정된 UI를 출력하는 출력부;를 포함하는 UI 제공 장치.
  2. 제1항에 있어서,
    상기 수신부는,
    상기 사용자 정보를 저장한 NFC 태그와 태깅을 통해 상기 사용자 정보를 수신하는 NFC 리더를 포함하는 것을 특징으로 하는 UI 제공 장치.
  3. 제1항에 있어서,
    상기 사용자 정보는,
    장애 유형, 장애 유형에 따른 장애 정도 및, 사용자 식별 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 UI 제공 장치.
  4. 제3항에 있어서,
    서버와 통신을 수행하기 위한 통신부;를 더 포함하고,
    상기 제어부는,
    상기 사용자 식별 정보를 상기 서버로 전송하고, 상기 사용자 식별 정보에 대응되는 장애 유형 및 장애 정도에 대한 정보를 상기 서버로부터 수신하도록 상기 통신부를 제어하는 것을 특징으로 하는 UI 제공 장치.
  5. 제3항에 있어서,
    상기 출력부는,
    영상을 출력하기 위한 비디오 출력부; 및,
    음성을 출력하기 위한 오디오 출력부;를 포함하며,
    상기 제어부는,
    상기 사용자의 장애 유형이 시각 장애인 경우, 시각 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 UI 제공 장치.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 시각 장애 정도가 기설정된 레벨 이상인 경우 해당 레벨에 대응되는 그래픽 UI를 출력하고, 상기 시각 장애 정도가 기설정된 레벨 미만인 경우 상기 음성 UI를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 UI 제공 장치.
  7. 제3항에 있어서,
    상기 출력부는,
    영상을 출력하기 위한 비디오 출력부; 및,
    음성을 출력하기 위한 오디오 출력부;를 포함하며,
    상기 제어부는,
    상기 사용자의 장애 유형이 청각 장애인 경우, 청각 장애 정도에 따라 그래픽 UI 및 음성 UI 중 적어도 하나를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 UI 제공 장치.
  8. 제7항에 있어서,
    상기 제어부는,
    상기 청각 장애 정도가 기설정된 레벨 이상인 경우 해당 레벨에 대응되는 음성 UI를 출력하고, 상기 청각 장애 정도가 기설정된 레벨 미만인 경우 상기 그래픽 UI를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 UI 제공 장치.
  9. 제1항에 있어서,
    서버와 통신을 수행하는 통신부;를 더 포함하며,
    상기 제어부는,
    상기 장애 유형 및 장애 정도에 대응되는 UI를 출력하기 위한 정보가 상기 UI 제공 장치에 저장되어 있지 않은 경우, 상기 사용자 정보를 상기 서버로 전송하고 상기 장애 유형 및 장애 정도에 대응되는 UI 출력 정보를 상기 서버로부터 수신하도록 상기 통신부를 제어하는 것을 특징으로 하는 UI 제공 장치.
  10. 제1항에 있어서,
    상기 UI의 출력 상태를 변경하기 위한 사용자 조작을 입력받는 입력부;를 더 포함하며,
    상기 제어부는,
    상기 사용자 조작에 따라 상기 UI의 출력 상태가 변경된 후 상기 사용자 정보가 수신되면, 상기 변경된 UI를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 UI 제공 장치.
  11. 제10항에 있어서,
    서버와 통신을 수행하는 통신부;를 더 포함하며,
    상기 제어부는,
    상기 사용자 조작에 따라 상기 UI의 출력 상태가 변경되면, 상기 변경된 UI 에 대한 정보를 상기 서버로 전송하도록 상기 통신부를 제어하는 것을 특징으로 하는 UI 제공 장치.
  12. UI 제공 장치의 UI 제공 방법에 있어서,
    사용자 정보를 저장한 통신 기기와의 근거리 무선 통신을 통해 상기 사용자 정보를 수신하는 단계;
    상기 사용자 정보를 기초로 획득된 사용자의 장애 유형 및 장애 정도에 대한 정보에 대응하도록 UI(User Interface)를 설정하는 단계; 및,
    상기 설정된 UI를 출력하는 단계;를 포함하는 UI 제공 방법.
  13. 제12항에 있어서,
    상기 수신하는 단계는,
    NFC 리더를 이용하여 상기 사용자 정보를 저장한 NFC 태그와 태깅을 통해 상기 사용자 정보를 수신하는 것을 특징으로 하는 UI 제공 방법.
  14. 제12항에 있어서,
    상기 사용자 정보는,
    장애 유형, 장애 유형에 따른 장애 정도 및, 사용자 식별 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 UI 제공 방법.
  15. 제14항에 있어서,
    상기 사용자 식별 정보를 상기 서버로 전송하는 단계; 및,
    상기 사용자 식별 정보에 대응되는 장애 유형 및 장애 정도에 대한 정보를 서버로부터 수신하는 하는 단계;를 더 포함하는 것을 특징으로 하는 UI 제공 방법.
PCT/KR2013/011678 2013-12-16 2013-12-16 Ui 제공 장치 및 그의 ui 제공 방법 Ceased WO2015093636A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/105,422 US10365800B2 (en) 2013-12-16 2013-12-16 User interface (UI) providing apparatus and UI providing method thereof
PCT/KR2013/011678 WO2015093636A1 (ko) 2013-12-16 2013-12-16 Ui 제공 장치 및 그의 ui 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2013/011678 WO2015093636A1 (ko) 2013-12-16 2013-12-16 Ui 제공 장치 및 그의 ui 제공 방법

Publications (1)

Publication Number Publication Date
WO2015093636A1 true WO2015093636A1 (ko) 2015-06-25

Family

ID=53402969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/011678 Ceased WO2015093636A1 (ko) 2013-12-16 2013-12-16 Ui 제공 장치 및 그의 ui 제공 방법

Country Status (2)

Country Link
US (1) US10365800B2 (ko)
WO (1) WO2015093636A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3318969A1 (en) * 2016-11-02 2018-05-09 Samsung Electronics Co., Ltd. Display apparatus and method for controlling display apparatus

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3253066B1 (en) * 2015-01-30 2021-06-09 Sony Corporation Information processing device
US10430567B2 (en) * 2017-01-18 2019-10-01 International Business Machines Corporation Customizable firmware based on access attributes
EP3642704B1 (en) * 2017-06-23 2021-12-29 Dynamic Controls Methods and systems for configuration of a touch screen of a wheelchair on the basis of the user's disease state
US10805676B2 (en) * 2017-07-10 2020-10-13 Sony Corporation Modifying display region for people with macular degeneration
US10650702B2 (en) * 2017-07-10 2020-05-12 Sony Corporation Modifying display region for people with loss of peripheral vision
US10845954B2 (en) 2017-07-11 2020-11-24 Sony Corporation Presenting audio video display options as list or matrix
US10303427B2 (en) 2017-07-11 2019-05-28 Sony Corporation Moving audio from center speaker to peripheral speaker of display device for macular degeneration accessibility
US10789108B2 (en) * 2019-01-29 2020-09-29 Microsoft Technology Licensing, Llc Cross-platform remote user experience accessibility
US10776775B1 (en) * 2019-10-14 2020-09-15 Capital One Services, Llc NFC enabled card for consumer accessibility
JP7497652B2 (ja) * 2020-09-08 2024-06-11 コニカミノルタ株式会社 音声設定システム、音声設定支援装置および音声設定支援プログラム
CN113038285B (zh) * 2021-03-12 2022-09-06 拉扎斯网络科技(上海)有限公司 一种资源信息播放的控制方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009505264A (ja) * 2005-08-15 2009-02-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ パーソナルヘルスケア環境のためのユーザインタフェースシステム
KR20090038078A (ko) * 2007-10-15 2009-04-20 엘지이노텍 주식회사 개인용 컴퓨터 네트워크 시스템 및 개인용 컴퓨터 네트워크시스템의 관리 방법
US20120029808A1 (en) * 2010-07-30 2012-02-02 Shin Kangsoo Apparatus and method for displaying service information provided in service zone
WO2012026642A1 (ko) * 2010-08-27 2012-03-01 엘지전자 주식회사 서비스 존에 해당하는 서비스 정보를 표시하기 위한 장치 및 방법
WO2013024922A1 (ko) * 2011-08-17 2013-02-21 엘지전자 주식회사 전자기기 및 전자기기의 동작 방법

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2839797B2 (ja) 1992-08-25 1998-12-16 片瓜 幸雄 音声誘導案内システム
JP2917201B2 (ja) 1994-06-16 1999-07-12 株式会社田村電機製作所 点字表示装置
JPH0962870A (ja) 1995-08-28 1997-03-07 Nippon Signal Co Ltd:The 自動券売機
US6963937B1 (en) * 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
JP2000305746A (ja) 1999-04-16 2000-11-02 Mitsubishi Electric Corp 画面制御方式
KR20010028791A (ko) 1999-09-22 2001-04-06 김종원 알에프-아이디 시스템에 플래쉬 메모리 카드 및 엠피3
JP2001331846A (ja) 2000-05-18 2001-11-30 Hitachi Ltd 携帯電話を用いた現金自動取引装置の視覚障害者操作誘導方式
JP2004302832A (ja) 2003-03-31 2004-10-28 Nippon Signal Co Ltd:The 非接触式自動改札機
US6992592B2 (en) 2003-11-06 2006-01-31 International Business Machines Corporation Radio frequency identification aiding the visually impaired with sound skins
US6977579B2 (en) 2003-11-06 2005-12-20 International Business Machines Corporation Radio frequency identification aiding the visually impaired
US7199725B2 (en) 2003-11-06 2007-04-03 International Business Machines Corporation Radio frequency identification aiding the visually impaired with synchronous sound skins
US7983920B2 (en) * 2003-11-18 2011-07-19 Microsoft Corporation Adaptive computing environment
KR20060057152A (ko) 2004-11-23 2006-05-26 (주)유비테크놀로지스 시각장애인 보행 음성 안내 시스템
KR20070054315A (ko) 2005-11-23 2007-05-29 박정은 전시품 정보 제공 방법 및 시스템
KR20070101481A (ko) 2006-04-11 2007-10-17 박재철 전자태그를 이용한 장애인 시설 관리시스템 및 그 방법
US20070244825A1 (en) 2006-04-14 2007-10-18 Gilbert Semmer Item, accessory kit, and method for software based medical resource activation
KR100908734B1 (ko) 2007-07-30 2009-07-22 단국대학교 산학협력단 시각장애인을 위한 교통 안내 시스템 및 그 방법
KR20100008278A (ko) 2008-07-15 2010-01-25 주식회사 푸른기술 출입문 자동 개폐 장치 및 방법
KR20100082513A (ko) 2009-01-09 2010-07-19 주식회사 비즈모델라인 장애인 대상 버스 단말 운영 방법 및 버스 단말과 이를 위한 기록매체
KR101051036B1 (ko) 2009-07-20 2011-07-21 김시중 사용자 개개인의 청력에 맞추어 오디오 기기의 음질을 제어하는 장치 및 방법
US8671137B2 (en) * 2011-05-31 2014-03-11 Google Inc. Personalized access using near field communication
US9549060B2 (en) * 2013-10-29 2017-01-17 At&T Intellectual Property I, L.P. Method and system for managing multimedia accessiblity

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009505264A (ja) * 2005-08-15 2009-02-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ パーソナルヘルスケア環境のためのユーザインタフェースシステム
KR20090038078A (ko) * 2007-10-15 2009-04-20 엘지이노텍 주식회사 개인용 컴퓨터 네트워크 시스템 및 개인용 컴퓨터 네트워크시스템의 관리 방법
US20120029808A1 (en) * 2010-07-30 2012-02-02 Shin Kangsoo Apparatus and method for displaying service information provided in service zone
WO2012026642A1 (ko) * 2010-08-27 2012-03-01 엘지전자 주식회사 서비스 존에 해당하는 서비스 정보를 표시하기 위한 장치 및 방법
WO2013024922A1 (ko) * 2011-08-17 2013-02-21 엘지전자 주식회사 전자기기 및 전자기기의 동작 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3318969A1 (en) * 2016-11-02 2018-05-09 Samsung Electronics Co., Ltd. Display apparatus and method for controlling display apparatus
US10678563B2 (en) 2016-11-02 2020-06-09 Samsung Electronics Co., Ltd. Display apparatus and method for controlling display apparatus

Also Published As

Publication number Publication date
US20160320935A1 (en) 2016-11-03
US10365800B2 (en) 2019-07-30

Similar Documents

Publication Publication Date Title
WO2015093636A1 (ko) Ui 제공 장치 및 그의 ui 제공 방법
WO2015119480A1 (en) User terminal device and displaying method thereof
WO2016167503A1 (en) Display apparatus and method for displaying
WO2017095040A1 (en) User terminal device and displaying method thereof
WO2015199453A1 (en) Foldable electronic apparatus and interfacing method thereof
EP3105657A1 (en) User terminal device and displaying method thereof
WO2017146301A1 (en) Wireless device
WO2015137580A1 (en) Mobile terminal
WO2017003222A1 (en) Notification apparatus and object position notification method thereof
WO2016093459A1 (en) Mobile terminal and control method thereof
WO2016076570A1 (en) Display apparatus and display method
EP3403175A1 (en) Electronic device and method of application data display therefor
WO2012020863A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2014065554A1 (en) Device and method for transmitting electronic key thereof
WO2016122151A1 (ko) 싱크 디바이스 및 그 제어 방법
WO2017018551A1 (ko) 이동 단말기 및 이동 단말기의 제어 방법
WO2012020864A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2015126121A1 (ko) 요청 정보에 따른 장치 제어 방법 및 이를 지원하는 장치
WO2017073811A1 (ko) 이동 단말기 및 그의 동작 방법
WO2014092469A1 (en) Content playing apparatus, method for providing ui of content playing apparatus, network server, and method for controlling by network server
WO2012133980A1 (ko) 영상처리장치 및 영상처리방법
WO2017022931A1 (ko) 이동단말기 및 그 제어방법
WO2016108547A1 (en) Display apparatus and display method
WO2016122240A1 (en) Electronic apparatus and method of setting network of audio device
WO2015125993A1 (ko) 이동 단말기 및 이동 단말기의 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13899651

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15105422

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 13899651

Country of ref document: EP

Kind code of ref document: A1