WO2019135433A1 - 디스플레이 장치 및 디스플레이 장치를 포함하는 시스템 - Google Patents
디스플레이 장치 및 디스플레이 장치를 포함하는 시스템 Download PDFInfo
- Publication number
- WO2019135433A1 WO2019135433A1 PCT/KR2018/000372 KR2018000372W WO2019135433A1 WO 2019135433 A1 WO2019135433 A1 WO 2019135433A1 KR 2018000372 W KR2018000372 W KR 2018000372W WO 2019135433 A1 WO2019135433 A1 WO 2019135433A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display device
- intention
- information
- server
- voice command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
Definitions
- the present invention relates to a system including a display device and a display device.
- Digital TV services using wired or wireless communication networks are becoming popular.
- the digital TV service can provide various services that can not be provided by the existing analog broadcasting service.
- IPTV Internet Protocol Television
- smart TV service which is a kind of digital TV service
- a bidirectionality is provided so that a user can actively select a type of viewing program and a viewing time.
- IPTV and smart TV services can provide various additional services such as Internet search, home shopping, online games and the like based on the bidirectionality.
- the functions of the TV include basic functions such as channel change and volume change, but there are functions associated with information of the program.
- the form of the voice command can be configured in a complex form.
- the display device becomes difficult to handle such a user's request.
- An object of the present invention is to control the operation of a display device by processing voice commands that require information of a program or information suited to a user's personal taste.
- a display device includes a display unit for displaying a content image, a microphone for receiving a voice command of the user, a network interface unit for communicating with the natural language processing server and the search server, And a controller for receiving the intention analysis result information indicating the intention of the user corresponding to the voice command from the natural language processing server and performing the function of the display device according to the received intent analysis result information .
- a system includes a natural language processing server for generating intent analysis result information indicating a result of analyzing a intention of a voice command and a voice recognition server for transmitting the voice command to a natural language processing server, And a display device that receives the corresponding intention analysis result information and performs the function of the display device corresponding to the intention according to the received intent analysis result information.
- the user can effectively process the voice command and provide the improved service to the user.
- FIG. 1 is a block diagram illustrating a configuration of a display apparatus according to an embodiment of the present invention.
- FIG. 2 is a block diagram of a remote control device according to an embodiment of the present invention.
- FIG. 3 shows an example of an actual configuration of a remote control apparatus according to an embodiment of the present invention.
- FIG. 4 shows an example of utilizing a remote control device according to an embodiment of the present invention.
- FIG. 5 is a block diagram illustrating a configuration of a system according to an embodiment of the present invention.
- FIG. 6 is a view for explaining a detailed configuration of a system according to an embodiment of the present invention.
- FIG. 7 is a ladder diagram for a method of operating a system according to an embodiment of the present invention.
- FIG. 8 is a view for explaining an example of executing a function of a display device without going through a search server through an intention analysis of a voice command according to an embodiment of the present invention.
- 9 to 13 are diagrams for explaining an example of providing search information through a search server through an intention analysis of a voice command according to an embodiment of the present invention.
- the display device is an intelligent display device that adds a computer support function to a broadcast reception function, for example, and is equipped with a function of inputting a handwriting, a touch screen Or an interface that is more convenient to use than a space remote controller or the like. Also, it can be connected to the Internet and a computer by the support of a wired or wireless Internet function, and can perform functions such as e-mail, web browsing, banking or game. A standardized general-purpose OS can be used for these various functions.
- the display device described in the present invention can freely add or delete various applications, for example, on a general-purpose OS kernel, so that various user-friendly functions can be performed.
- the display device may be, for example, a network TV, an HBBTV, a smart TV, an LED TV, an OLED TV, or the like, and may be applied to a smartphone as the case may be.
- FIG. 1 is a block diagram illustrating a configuration of a display apparatus according to an embodiment of the present invention.
- the display device 100 includes a broadcast receiver 130, an external device interface 135, a storage 140, a user input interface 150, a controller 170, a wireless communication unit 173, A display unit 180, an audio output unit 185, and a power supply unit 190.
- the broadcast receiving unit 130 may include a tuner 131, a demodulation unit 132, and a network interface unit 133.
- the tuner 131 can tune to a specific broadcast channel according to the channel tuning command.
- the tuner 131 may receive a broadcast signal for the selected broadcast channel.
- the demodulator 132 can separate the received broadcast signal into a video signal, an audio signal, and a data signal related to a broadcast program, and can restore the separated video signal, audio signal, and data signal into a form capable of outputting.
- the external device interface unit 135 may receive an application or application list in an adjacent external device and may transmit the received application or application list to the control unit 170 or the storage unit 140.
- the external device interface unit 135 may provide a connection path between the display device 100 and an external device.
- the external device interface unit 135 may receive at least one of video and audio output from an external device connected to the display device 100 wirelessly or by wire, and may transmit the received video and audio to the controller 170.
- the external device interface unit 135 may include a plurality of external input terminals.
- the plurality of external input terminals may include an RGB terminal, one or more HDMI (High Definition Multimedia Interface) terminals, and a component terminal.
- the video signal of the external device input through the external device interface unit 135 may be output through the display unit 180.
- the audio signal of the external device input through the external device interface unit 135 may be output through the audio output unit 185.
- the external device that can be connected to the external device interface unit 135 may be any one of a set top box, a Blu-ray player, a DVD player, a game machine, a sound bar, a smart phone, a PC, a USB memory and a home theater, .
- the network interface unit 133 may provide an interface for connecting the display device 100 to a wired / wireless network including the Internet network.
- the network interface unit 133 can transmit or receive data to another user or another electronic device via the network connected thereto or another network linked to the connected network.
- some content data stored in the display device 100 can be transmitted to another user registered in the display device 100 or a selected one of the other electronic devices or selected electronic devices.
- the network interface unit 133 can access a predetermined web page through the connected network or another network linked to the connected network. That is, it is possible to access a predetermined web page through a network and transmit or receive data with the server.
- the network interface unit 133 may receive content or data provided by the content provider or the network operator. That is, the network interface unit 133 can receive contents such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network.
- the network interface unit 133 can receive update information and an update file of the firmware provided by the network operator, and can transmit data to the Internet or a content provider or a network operator.
- the network interface unit 133 can select and receive a desired application among applications open to the public via the network.
- the storage unit 140 stores programs for signal processing and control in the controller 170, and can store image-processed video, audio, or data signals.
- the storage unit 140 may perform a function for temporarily storing video, audio, or data signals input from the external device interface unit 135 or the network interface unit 133, It may also store information about the image.
- the storage unit 140 may store a list of applications or applications input from the external device interface unit 135 or the network interface unit 133.
- the display apparatus 100 may reproduce and provide a content file (a moving picture file, a still picture file, a music file, a document file, an application file, etc.) stored in the storage unit 140 to a user.
- a content file a moving picture file, a still picture file, a music file, a document file, an application file, etc.
- the user input interface unit 150 may transmit a signal input by the user to the control unit 170 or may transmit a signal from the control unit 170 to the user.
- the user input interface unit 150 may be implemented by various communication methods such as Bluetooth, Ultra Wideband (WB), ZigBee, RF (Radio Frequency) communication, and infrared (IR) It is possible to receive and process control signals such as power on / off, channel selection, screen setting, and the like from the remote control device 200, or transmit control signals from the control unit 170 to the remote control device 200.
- WB Ultra Wideband
- ZigBee ZigBee
- RF Radio Frequency
- IR infrared
- the user input interface unit 150 may transmit a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.
- a local key such as a power key, a channel key, a volume key, and a set value
- the video signal processed by the controller 170 may be input to the display unit 180 and displayed as an image corresponding to the video signal.
- the video signal processed by the controller 170 may be input to the external output device through the external device interface 135.
- the audio signal processed by the control unit 170 may be output to the audio output unit 185 through audio.
- the voice signal processed by the control unit 170 may be input to the external output device through the external device interface unit 135.
- control unit 170 can control the overall operation in the display device 100.
- the control unit 170 may control the display device 100 according to a user command or an internal program input through the user input interface unit 150.
- the control unit 170 accesses the network and displays a list of applications or applications desired by the user, So that it can be downloaded into the portable terminal 100.
- the control unit 170 can output the video or audio signal processed through the channel information selected by the user through the display unit 180 or the audio output unit 185.
- the control unit 170 controls the operation of the external device through the external device interface unit 135 according to an external device video playback command received through the user input interface unit 150. For example, So that a video signal or a voice signal can be output through the display unit 180 or the audio output unit 185.
- the control unit 170 may control the display unit 180 to display an image and may output the broadcast image input through the tuner 131 or the external input through the external device interface unit 135,
- the image input through the network interface unit or the image stored in the storage unit 140 may be displayed on the display unit 180.
- the image displayed on the display unit 180 may be a still image or a moving image, and may be a 2D image or a 3D image.
- the controller 170 may control the content stored in the display device 100, the received broadcast content, or external input content input from the outside to be reproduced, and the content may be a broadcast image, an external input image, , A still image, a connected web screen, and a document file.
- the wireless communication unit 173 can perform communication with an external device through wired or wireless communication.
- the wireless communication unit 173 may perform short range communication with an external device.
- the wireless communication unit 173 may be a wireless communication unit such as a Bluetooth TM, a Radio Frequency Identification (RFID), an Infrared Data Association (IrDA), a UWB (Ultra Wideband), a ZigBee, (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technology.
- the wireless communication unit 173 may communicate with the display device 100 and the wireless communication system through the wireless area networks or between the display device 100 and the other display device 100 or between the display device 100 and the display device 100. [ And can support wireless communication between networks in which the display device 100 (or an external server) is located.
- the short-range wireless communication network may be a short-range wireless personal area network.
- the other display device 100 is a wearable device (e.g., a smartwatch, smart glass, etc.) capable of interchanging data with the display device 100 according to the present invention a smart glass, an HMD (head mounted display), or a smart phone.
- the wireless communication unit 173 can detect (or recognize) a wearable device that can communicate with the display device 100.
- the control unit 170 controls the wireless communication unit 173 to transmit at least a part of the data processed in the display device 100 To the wearable device. Therefore, the user of the wearable device can use the data processed in the display device 100 through the wearable device.
- the display unit 180 converts the video signal, the data signal, the OSD signal, the video signal, the data signal, and the like received from the external device interface unit 135 into R, G, and B signals, respectively, Signal can be generated.
- the display device 100 shown in FIG. 1 is only an embodiment of the present invention. Some of the components shown may be integrated, added, or omitted depending on the specifications of the display device 100 actually implemented.
- constituent elements may be combined into one constituent element, or one constituent element may be constituted by two or more constituent elements, if necessary.
- the functions performed in each block are intended to illustrate the embodiments of the present invention, and the specific operations and apparatuses do not limit the scope of the present invention.
- the display apparatus 100 may include a tuner 131 and a demodulator 132 and may include a network interface unit 133 or an external device interface unit (not shown) 135 to reproduce the image.
- the display apparatus 100 may be divided into an image processing apparatus such as a set-top box for receiving broadcast signals or contents according to various network services, and a content reproducing apparatus for reproducing contents inputted from the image processing apparatus Can be implemented.
- an image processing apparatus such as a set-top box for receiving broadcast signals or contents according to various network services
- a content reproducing apparatus for reproducing contents inputted from the image processing apparatus Can be implemented.
- the operation method of the display device according to the embodiment of the present invention to be described below may be applied not only to the display device 100 as described with reference to FIG. 1, but also to the image processing device such as the separated set- 180, and an audio output unit 185.
- the content playback apparatus may be implemented by any one of the above-described content playback apparatuses.
- FIG. 2 is a block diagram of a remote control apparatus according to an embodiment of the present invention
- FIG. 3 shows an example of an actual configuration of a remote control apparatus 200 according to an embodiment of the present invention.
- the remote control apparatus 200 includes a fingerprint recognition unit 210, a wireless communication unit 220, a user input unit 230, a sensor unit 240, an output unit 250, a power supply unit 260 A storage unit 270, a control unit 280, and a voice acquiring unit 290.
- the wireless communication unit 225 transmits / receives a signal to / from any one of the display devices according to the embodiments of the present invention described above.
- the remote control device 200 includes an RF module 221 capable of transmitting and receiving signals to and from the display device 100 according to the RF communication standard and is capable of transmitting and receiving signals with the display device 100 according to the IR communication standard And an IR module 223.
- the remote control device 200 may include a Bluetooth module 225 capable of transmitting and receiving signals with the display device 100 according to the Bluetooth communication standard.
- the remote control apparatus 200 is provided with an NFC module 227 capable of transmitting and receiving signals to and from the display apparatus 100 in accordance with a NFC (Near Field Communication) communication standard.
- a WLAN Wireless LAN
- a WLAN module 229 that can send and receive signals to and from the device 100.
- the remote control device 200 transmits a signal containing information on the motion and the like of the remote control device 200 to the display device 100 through the wireless communication unit 220.
- the remote control device 200 can receive a signal transmitted from the display device 100 through the RF module 221 and can transmit power to the display device 100 via the IR module 223, Off, channel change, volume change, and the like.
- the user input unit 230 may include a keypad, a button, a touch pad, or a touch screen.
- the user can input a command related to the display device 100 to the remote control device 200 by operating the user input unit 230.
- the user input unit 230 has a hard key button, the user can input a command related to the display device 100 to the remote control device 200 through the push operation of the hard key button. This will be described with reference to FIG.
- the remote control apparatus 200 may include a plurality of buttons.
- the plurality of buttons include a fingerprint recognition button 212, a power button 231, a home button 232, a live button 233, an external input button 234, a volume control button 235, a voice recognition button 236, A channel change button 237, an OK button 238, and a back button 239.
- the fingerprint recognition button 212 may be a button for recognizing the fingerprint of the user. In one embodiment, the fingerprint recognition button 212 is capable of a push operation and may receive a push operation and a fingerprint recognition operation.
- the power button 231 may be a button for turning on / off the power of the display device 100.
- the home button 232 may be a button for moving to the home screen of the display device 100.
- the live button 233 may be a button for displaying a real time broadcast program.
- the external input button 234 may be a button for receiving an external input connected to the display device 100.
- the volume control button 235 may be a button for controlling the volume of the volume output by the display device 100.
- the voice recognition button 236 may be a button for receiving the user's voice and recognizing the received voice.
- the channel change button 237 may be a button for receiving a broadcast signal of a specific broadcast channel.
- the confirmation button 238 may be a button for selecting a specific function, and the back button 239 may
- the user input unit 230 When the user input unit 230 has a touch screen, the user can touch a soft key of the touch screen to input a command related to the display device 100 to the remote control device 200.
- the user input unit 230 may include various types of input means such as a scroll key, a jog key, and the like that can be operated by the user, and the present invention does not limit the scope of the present invention.
- the sensor unit 240 may include a gyro sensor 241 or an acceleration sensor 243 and the gyro sensor 241 may sense information on the motion of the remote control device 200.
- the gyro sensor 241 may sense information about the operation of the remote control device 200 on the basis of the x, y, and z axes, and the acceleration sensor 243 may sense the movement speed of the remote control device 200 And the like can be sensed.
- the remote control device 200 may further include a distance measuring sensor to sense the distance from the display unit 180 of the display device 100.
- the output unit 250 may output an image or voice signal corresponding to the operation of the user input unit 235 or corresponding to the signal transmitted from the display device 100. [ The user can recognize whether the user input unit 235 is operated or whether the display apparatus 100 is controlled through the output unit 250.
- the output unit 250 may include an LED module 251 that is turned on when the user input unit 235 is operated or a signal is transmitted to and received from the display device 100 through the wireless communication unit 225, a vibration module 253 for outputting sound, an acoustic output module 255 for outputting sound, or a display module 257 for outputting an image.
- the power supply unit 260 supplies power to the remote control device 200, and if the remote control device 200 is not moved for a predetermined time, the power supply is interrupted to reduce power consumption.
- the power supply unit 260 may resume power supply when a predetermined key provided in the remote control device 200 is operated.
- the storage unit 270 may store various types of programs, application data, and the like necessary for the control or operation of the remote control apparatus 200. [ If the remote control device 200 wirelessly transmits and receives signals through the display device 100 and the RF module 221, the remote control device 200 and the display device 100 transmit and receive signals through a predetermined frequency band .
- the control unit 280 of the remote control device 200 stores information on a frequency band and the like capable of wirelessly transmitting and receiving a signal with the display device 100 paired with the remote control device 200 in the storage unit 270, can do.
- the control unit 280 controls various matters related to the control of the remote control device 200.
- the control unit 280 transmits a signal corresponding to a predetermined key operation of the user input unit 235 or a signal corresponding to the motion of the remote control device 200 sensed by the sensor unit 240 through the wireless communication unit 225 100).
- the voice acquisition unit 290 of the remote control device 200 can acquire voice.
- the voice acquisition unit 290 may include at least one microphone 291 and may acquire voice through the microphone 291.
- FIG. 4 shows an example of utilizing a remote control device according to an embodiment of the present invention.
- FIG. 4A illustrates that the pointer 205 corresponding to the remote control device 200 is displayed on the display unit 180.
- FIG. 4A illustrates that the pointer 205 corresponding to the remote control device 200 is displayed on the display unit 180.
- the user can move or rotate the remote control device 200 up, down, left or right.
- the pointer 205 displayed on the display unit 180 of the display device 100 corresponds to the movement of the remote control device 200.
- this remote control device 200 since the pointer 205 is moved according to the movement in the 3D space, it can be called a space remote controller.
- FIG. 4B illustrates that when the user moves the remote controller 200 to the left, the pointer 205 displayed on the display unit 180 of the display apparatus 100 moves to the left correspondingly.
- the display device 100 can calculate the coordinates of the pointer 205 from the information about the motion of the remote control device 200. [ The display device 100 can display the pointer 205 so as to correspond to the calculated coordinates.
- 4C illustrates a case where the user moves the remote control device 200 away from the display unit 180 while the specific button in the remote control device 200 is depressed. Thereby, the selected area in the display unit 180 corresponding to the pointer 205 can be zoomed in and displayed.
- the selection area within the display unit 180 corresponding to the pointer 205 may be zoomed out and displayed.
- the selected area is zoomed out, and when the remote control device 200 approaches the display unit 180, the selected area may be zoomed in.
- the recognition of the upward, downward, and leftward / rightward movement can be excluded when a specific button in the remote control device 200 is pressed. That is, when the remote control device 200 moves away from or approaches the display unit 180, it is not recognized that the up, down, left, and right movements are recognized, and only the forward and backward movements are recognized. Only the pointer 205 is moved in accordance with the upward, downward, leftward, and rightward movement of the remote control device 200 in a state where the specific button in the remote control device 200 is not pressed.
- the moving speed and moving direction of the pointer 205 may correspond to the moving speed and moving direction of the remote control device 200.
- the pointer in the present specification means an object displayed on the display unit 180 in correspondence with the operation of the remote control device 200.
- various shapes of objects other than the arrow shapes shown in the drawings are possible with the pointer 205.
- it can be a concept that includes points, cursors, prompts, thick outlines, and so on.
- the pointer 205 may be displayed corresponding to a point on a horizontal axis or a vertical axis on the display unit 180 or may be displayed corresponding to a plurality of points such as a line or a surface Do.
- FIG. 5 is a block diagram illustrating a configuration of a system according to an embodiment of the present invention.
- a system may include a Natural Language Processing (NLP) server 10, a search server 30, and a display device 100.
- NLP Natural Language Processing
- the NLP server 10 can perform the intent analysis based on the voice data received from the display device 100. [ The NLP server 10 may transmit the intent analysis result information indicating the result of the intent analysis to the display device 100. [
- the search server 30 may receive an information request message requesting retrieval of information from the display device 100.
- the search server 30 can search specific information based on the information request message and transmit the retrieved search information to the display device 100.
- the display apparatus 100 may further include an NLP client 50 and an EPG management unit 70 in addition to the components illustrated in FIG.
- the NLP client 50 and the EPG management unit 70 may be included in the configuration of the control unit 170.
- the NLP client 50 of the display device 100 can receive the voice command of the user and send the voice data corresponding to the voice command to the NLP server 10.
- the NLP client 50 of the display device 100 may receive the intent analysis result information indicating the result of performing the intent analysis on the voice command from the NLP server 10.
- the NLP client 50 of the display device 100 can determine whether or not it can perform a function corresponding to the intention of the user based on the received intention analysis result information.
- the NLP client 50 of the display device 100 determines that the function corresponding to the user's intention can be performed, the NLP client 50 can perform a function corresponding to the intention of the user.
- a case where the display apparatus 100 determines that the display apparatus 100 can perform a function corresponding to the intention of the user can be realized by using EPG (electronic program guide) information stored in the storage unit 140, It is possible to control the function.
- EPG electronic program guide
- the NLP client 50 of the display apparatus 100 may request the EPG management unit 70 for information about the program.
- the EPG management unit 70 can extract information about the program from the EPG information and transmit the extracted information to the NLP client 50.
- the NLP client 50 of the display device 100 determines that it can not perform a function corresponding to the intention of the user, the NLP client 50 sends an information request message requesting information corresponding to the user's intention to the search server 30 Lt; / RTI >
- the NLP client 50 of the display device 100 can receive an information response message in response to the information request message from the search server 30.
- FIG. 6 is a view for explaining a detailed configuration of a system according to an embodiment of the present invention.
- FIG. 6 is a diagram for explaining the detailed configuration of FIG. 5, description of the contents overlapping with FIG. 5 will be omitted.
- the system may further include a Speech To Text (STT) server 90.
- STT Speech To Text
- the STT server 90 can convert the voice data received from the NLP client 50 of the display device 100 into text data.
- the STT server 90 can transmit the converted text data to the NLP server 10.
- the NLP server 10 may include a syndication agent 11, a first service server 13, and a second service server 15.
- the syndication agent 11 can control the operations of the first service server 13 and the second service server 15.
- the first service server 13 may be a server for a natural language processing service provided by a manufacturer other than the manufacturer of the display device 100.
- the second service server 15 may be a server for a natural language processing service provided by the manufacturer of the display device 100.
- the NLP server 10 may not include the syndication agent 11 and the first service server 13.
- the display device 100 may further include a voice agent 51 and a renderer 52.
- the voice agent 51 and the renderer 52 may also be included in the control unit 170 described in FIG.
- the voice agent 51 can receive a signal for entering the voice recognition mode from the remote control device 200 and activate the operation of the microphone provided in the display device 100 according to the received signal.
- the voice agent 51 may transmit a voice command received from the microphone provided in the display device 100 or a voice command received from the remote control device 200 to the NLP client 50.
- the voice agent 51 can receive the intention analysis result information or the search information received from the NLP server 10 from the NLP client 50.
- the voice agent 51 can execute an application or perform a function corresponding to a button key of the remote control device 200 based on the intention analysis result information.
- the voice agent 51 may be included in the configuration of the NLP client 50.
- the renderer 52 may generate the UI through the GUI module and display the generated UI on the display unit 170 in order to display the received search information on the display unit 170.
- FIG. 7 is a ladder diagram for a method of operating a system according to an embodiment of the present invention.
- FIG. 5 An operation method of the system according to the embodiment of the present invention will be described with reference to FIGS. 5 and 6.
- the display apparatus 100 receives a voice command (S701).
- the display device 100 may have a microphone and receive voice commands of the user via the microphone.
- the wireless communication unit 173 of the display device 100 may receive a voice command from the remote control device 200.
- the user may utter a voice command through the remote control device 200, and the uttered voice command may be transmitted to the display device 100 through the remote control device 200.
- the control unit 170 of the display device 100 may have a function of performing natural language processing on its own. If the intention analysis of the voice command is possible through the natural language processing module provided in the control unit 170, the control unit 170 does not transmit the voice data corresponding to the voice command to the NLP server 10 .
- the controller 170 analyzes the intention of the voice command and turns off the power of the display apparatus 100 according to the analysis result.
- control unit 170 when the converted text data of the voice command is stored in the storage unit 140, the control unit 170 can perform the function of the display apparatus 100 corresponding to the text data by itself.
- Examples of the functions of the display device 100 that the control unit 170 can perform based on natural language processing of voice commands include one or more of power on / off, channel change, and volume control of the display device 100 can do.
- the display apparatus 100 transmits the voice data corresponding to the received voice command to the NLP server 10 (S703).
- the control unit 170 of the display device 100 may transmit the voice data corresponding to the voice command to the NLP server 10 through the network interface unit 133.
- the NLP server 10 may convert the voice data received from the display device 100 into text data, and perform an intent analysis based on the converted text data.
- the NLP server 10 may analyze the text data according to the natural language processing technique and perform the user's intention analysis.
- the natural language processing technique is a technique of mechanically analyzing a natural language, outputting a result of a form that a computer can understand, or outputting a language that can be understood by humans.
- the display apparatus 100 receives the intent analysis result information indicating the result of the intent analysis of the voice data from the NLP server 10 (S705).
- the control unit 170 of the display device 100 can receive the result of the intent analysis through the network interface unit 133.
- the display apparatus 100 determines whether the function of the display apparatus 100 corresponding to the voice command can be performed by itself (S707).
- control unit 170 of the display device 100 can determine whether the display device 100 can provide information corresponding to the voice command based on the received intention analysis result information.
- the control unit 170 can determine that the function corresponding to the voice command can not be performed by itself if the content included in the intention analysis result information requests the information stored in the display device 100.
- control unit 170 can determine that the function corresponding to the voice command can not be performed by itself have.
- the display apparatus 100 determines that the function of the display apparatus 100 corresponding to the voice command can be performed by itself, the display apparatus 100 performs the function of the display apparatus 100 corresponding to the voice command (S709).
- the controller 170 uses the EPG information stored in the storage unit 140 , The function of the display device 100 can be controlled. A specific example of this will be described later.
- the display device 100 transmits an information request message based on the intention analysis result to the search server 30 (S711).
- the control unit 170 of the display device 100 may control the search server 30 through the network interface unit 133 when the user's intention corresponding to the voice command is a function that can not be performed using the information stored in the storage unit 140.
- the information request message may be transmitted to the mobile terminal.
- the information request message may be a request message for retrieving specific information reflecting the intention of the user.
- the search server 30 transmits an information response message including the search result to the display device 100 (S713).
- the display device 100 displays the received information based on the information response message received from the search server 30 (S715).
- the controller 170 of the display apparatus 100 may display the search information on the display unit 170 reflecting the intention of the user included in the information response message.
- FIG. 8 is a view for explaining an example of executing a function of a display device without going through a search server through an intention analysis of a voice command according to an embodiment of the present invention.
- the display apparatus 100 may display a broadcast program image 800 on the display unit 180.
- the display unit 180 may further display a pop-up window 801 guiding the user's voice command request in the voice recognition mode.
- the microphone provided in the remote control device 200 can receive a voice command of " Turn off the TV when the program is finished ".
- the wireless communication unit 220 of the remote control device 200 can transmit a voice command to the wireless communication unit 173 of the display device 100.
- the display device 100 when the display device 100 is equipped with a microphone, the display device 100 itself can receive voice commands of the user.
- the NLP client 50 of the display device 100 can transmit the received voice command to the NLP server 10.
- the NLP client 50 of the display device 100 can receive the intent analysis result information including the result of the intention analysis of the voice command from the NLP server 10.
- the NLP client 50 of the display device 100 can determine whether or not the function according to the user's intent can be performed without going through the search server 30 based on the intention analysis result information.
- the NLP client 50 of the display device 100 intends to turn off the power of the display device 100 after the end of the program currently being watched by the intention analysis result, , It can be determined that it can perform the function according to the intention itself.
- the NLP client 50 of the display device 100 acquires information on the program currently being watched by using the EPG information in accordance with the intention to turn off the display device 100 after the end of the program being watched .
- the NLP client 50 of the display device 100 may request the information on the currently playing program to the EPG management unit 70 described in FIG. 5, and in response to the request, obtain information on the program.
- the information about the program may include a broadcast time including a start point and a end point of the program, a name of the program, and a channel of the program.
- the NLP client 50 of the display device 100 can obtain the end time of the program using the broadcast time of the program.
- the NLP client 50 of the display device 100 can turn off the power of the display device 100 when the current point of time reaches the end point of the program using the end point of the acquired program.
- the display apparatus 100 may display a pop-up window 813 on the display unit 180 informing that the power of the display apparatus 100 is turned off after a predetermined time.
- the operation of the display device 100 can be easily controlled by analyzing complex voice commands of the user.
- FIG. 9 is a view for explaining an example of providing search information via a search server through an intention analysis of a voice command according to an embodiment of the present invention.
- the display apparatus 100 may display an image 800 of a broadcast program on the display unit 180.
- FIG. The display unit 180 may further display a pop-up window 801 guiding the user's voice command request in the voice recognition mode.
- the microphone provided in the remote control device 200 can receive a voice command of " Tell the story of this program "
- the wireless communication unit 220 of the remote control device 200 can transmit a voice command to the wireless communication unit 173 of the display device 100.
- the display device 100 when the display device 100 is equipped with a microphone, the display device 100 itself can receive voice commands of the user.
- the NLP client 50 of the display device 100 can transmit the received voice command to the NLP server 10.
- the NLP client 50 of the display device 100 can receive the intent analysis result information including the result of the intention analysis of the voice command from the NLP server 10.
- the plot of the program is not stored in the storage unit 140 (i.e., It can be judged that the function according to the intention can not be performed.
- the NLP client 50 of the display device 100 may transmit an information request message to the search server 30 requesting a plot of the program.
- the information request message may include a name of the program, information on the number of times of the program. This can be obtained from the EPG information.
- the search server 30 can search the plot of the program based on the information request message received from the display device 100. [ The search server 30 may transmit an information response message including the searched plot to the display device 100. [
- the display apparatus 100 can display the plot 910 of the program received from the search server 30 on the display unit 180.
- the user can easily confirm information that can not be obtained from the EPG information through intention analysis of a simple voice command.
- FIG. 10 is a view for explaining an example of providing search information via a search server through an intention analysis of a voice command according to another embodiment of the present invention.
- the display apparatus 100 may display an image 800 of a broadcast program on the display unit 180.
- the display unit 180 may further display a pop-up window 801 guiding the user's voice command request in the voice recognition mode.
- the microphone provided in the remote control apparatus 200 can receive a voice command of the user " Who is this person? &Quot;.
- the wireless communication unit 220 of the remote control device 200 can transmit a voice command to the wireless communication unit 173 of the display device 100.
- the display device 100 when the display device 100 is equipped with a microphone, the display device 100 itself can receive voice commands of the user.
- the NLP client 50 of the display device 100 can transmit the received voice command to the NLP server 10.
- the NLP client 50 of the display device 100 can receive the intent analysis result information including the result of the intention analysis of the voice command from the NLP server 10.
- the NLP client 50 of the display device 100 intends to inform the detailed information of the person displayed in the scene currently being viewed by the intention analysis result information
- the detailed information of the person is not stored in the storage unit 140 (I.e., it is not included in the EPG information), it can be determined that the function according to the intention can not be performed.
- the display apparatus 100 may capture the image 800 of the program at the time of receiving the voice command, and may transmit the captured image to the Auto Content Recognition (ACR) server.
- ACR Auto Content Recognition
- the automatic content recognition server can extract the object (person) included in the image and obtain information about the extracted object using the captured image.
- the information about the object may include information identifying the object.
- Display device 100 may receive information identifying a person from an Auto Content Recognition (ACR) server.
- the information identifying the person may include the name of the person.
- the display device 100 may transmit an information request message including the name of the person to the search server 30.
- the search server 30 may transmit detailed information about the person received from the display device 100 to the display device.
- the content automatic recognition server may be the search server 30.
- the content automatic recognition server may transmit to the display device 100 detailed information of the person including the work or the person's history, in addition to the information for identifying the person.
- the display apparatus 100 can display the detailed information 1010 of the person received from the search server 30 on the display unit 180. [
- FIG. 11 is a view for explaining an example of providing search information via a search server through intention analysis of a voice command according to another embodiment of the present invention.
- the display apparatus 100 may display the content image 1100 on the display unit 180.
- FIG. The display unit 180 may further display a pop-up window 801 guiding the user's voice command request in the voice recognition mode.
- the content video 1100 may include a bag 1101.
- the microphone provided in the remote control device 200 can receive a voice command of the user " Who is this? &Quot;.
- the wireless communication unit 220 of the remote control device 200 can transmit a voice command to the wireless communication unit 173 of the display device 100.
- the display device 100 when the display device 100 is equipped with a microphone, the display device 100 itself can receive voice commands of the user.
- the NLP client 50 of the display device 100 can transmit the received voice command to the NLP server 10.
- the NLP client 50 of the display device 100 can receive the intent analysis result information including the result of the intention analysis of the voice command from the NLP server 10.
- the NLP client 50 of the display device 100 intends to inform the detailed information of the object displayed in the scene currently being viewed by the intention analysis result information
- the detail information of the object is not stored in the storage unit 140 (I.e., it is not included in the EPG information), it can be determined that the function according to the intention can not be performed.
- the display apparatus 100 may capture the image 800 of the program at the time of receiving the voice command, and may transmit the captured image to the Auto Content Recognition (ACR) server.
- the content automatic recognition server may be the search server 30.
- the content automatic recognition server can extract the bag 1101 included in the image and obtain information on the extracted bag 1101 using the captured image.
- the information on the bag 1101 may include the model name of the bag, the price of the bag, and the name of the shopping mall where the bag can be purchased.
- the display apparatus 100 may receive information on a bag included in the image from an Auto Content Recognition (ACR) server.
- ACR Auto Content Recognition
- the display apparatus 100 can display information 1110 on the received bag on the display unit 180.
- the user can check the information about the objects included in the image without complicated process by only a simple voice command while watching the content video.
- FIG. 12 is a view for explaining an example of providing search information via a search server through intention analysis of a voice command according to another embodiment of the present invention.
- the display device 100 may display a program image 800 on the display unit 180.
- FIG. The display unit 180 may further display a pop-up window 801 guiding the user's voice command request in the voice recognition mode.
- the microphone provided in the remote control apparatus 200 can receive a voice command of the user " What is this music? &Quot;.
- the wireless communication unit 220 of the remote control device 200 can transmit a voice command to the wireless communication unit 173 of the display device 100.
- the display device 100 when the display device 100 is equipped with a microphone, the display device 100 itself can receive voice commands of the user.
- the NLP client 50 of the display device 100 can transmit the received voice command to the NLP server 10.
- the NLP client 50 of the display device 100 can receive the intent analysis result information including the result of the intention analysis of the voice command from the NLP server 10.
- the NLP client 50 of the display apparatus 100 stores the detailed information of the music in the storage unit 140 when the intention analysis result information is intended to inform the detailed information of the music to be output together with the image currently being viewed (I.e., it is not included in the EPG information), it can be judged that the function according to the intention can not be performed.
- the display apparatus 100 can receive the audio being output through the audio output unit 185 via the microphone.
- the display device 100 can transmit the received audio to the sound source analysis server.
- the sound source analysis server can acquire the title of the music based on the received audio and transmit the title of the obtained music to the display device 100.
- the display device 100 can transmit the title of the received music to the search server 30.
- the search server 30 can search the detailed information of the music using the title of the received music and transmit the detailed information of the searched music to the display device 100.
- the detailed information of the music may include one or more of music singer, music composer, music album, and music genre.
- the display device 100 can display the received detailed music information 1210 on the display unit 180. [
- the user can easily check the detailed information of the music simultaneously output while viewing the program video with only a simple voice command.
- FIG. 13 is a view for explaining an example of providing search information via a search server through an intention analysis of a voice command according to another embodiment of the present invention.
- FIG. 13 is a view for explaining a scenario that may occur when a user is viewing a still image (or an image).
- the display apparatus 100 may receive a first voice command of the user, " Show Artwork ".
- the display apparatus 100 may display an image 1300 representing the art work stored in the storage unit 140 on the display unit 180.
- the display apparatus 100 can receive a second voice command " Who is it work? &Quot;.
- the display device 100 can transmit the voice data corresponding to the second voice command to the NLP server 10.
- the display apparatus 100 can stop the reproduction of the slide show before transmitting the second voice command to the NLP server 10 when the images are output in the slide show.
- the NLP server 10 can generate the intention analysis result information of the second voice command based on the voice data corresponding to the second voice command and transmit the generated intention analysis result information to the display device 100.
- the display device 100 transmits an information request message requesting information on the work to the search server 30 when the content included in the information of the result of the intention analysis is determined to inform the work of the image 1300, Lt; / RTI >
- the display apparatus 100 may include the image 1300 in the information request message and transmit the image 1300 to the search server 30.
- the search server 30 may retrieve detailed information about the work and transmit the retrieved detailed information to the display device 100 based on the information request message.
- the display device 100 can output the detailed information of the received work ⁇ It is a starry night of gogh> via the audio output unit 185 by voice.
- the detailed information of the work may include the author's name of the work and the name of the work.
- the display apparatus 100 can resume playback of the stopped slide show.
- the above-described method can be implemented as a code readable by a processor on a medium on which a program is recorded.
- Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .
- the above-described display device is not limited to the configuration and method of the above-described embodiments, but the embodiments may be configured such that all or some of the embodiments are selectively combined so that various modifications can be made. It is possible.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명의 실시 예에 따른 디스플레이 장치는 컨텐트 영상을 표시하는 디스플레이부와 사용자의 음성 명령을 수신하는 마이크와 자연어 처리 서버 및 검색 서버와 통신을 위한 네트워크 인터페이스부 및 상기 수신된 음성 명령을 상기 자연어 처리 서버에 전송하고, 상기 자연어 처리 서버로부터 상기 음성 명령에 대응하는 상기 사용자의 의도를 나타내는 의도 분석 결과 정보를 수신하고, 수신된 의도 분석 결과 정보에 따라 상기 디스플레이 장치의 기능을 수행하는 제어부를 포함할 수 있다.
Description
본 발명은 디스플레이 장치 및 디스플레이 장치를 포함하는 시스템에 관한 것이다.
유선 또는 무선 통신망을 이용한 디지털 TV 서비스가 보편화되고 있다. 디지털 TV 서비스는 기존의 아날로그 방송 서비스에서는 제공할 수 없었던 다양한 서비스를 제공할 수 있다.
예를 들어, 디지털 TV 서비스의 종류인 IPTV(Internet Protocol Television), smart TV 서비스의 경우 사용자로 하여금 시청 프로그램의 종류, 시청 시간 등을 능동적으로 선택할 수 있도록 하는 양방향성을 제공한다. IPTV, smart TV서비스는 이러한 양방향성을 기반으로 하여 다양한 부가 서비스, 예컨대 인터넷 검색, 홈쇼핑, 온라인 게임 등을 제공할 수도 있다.
TV의 기능은 채널 변경, 볼륨 변경과 같이, 기본적인 기능이 있지만, 프로그램의 정보와 연관된 기능도 존재한다.
사용자의 음성 명령에 따라, 디스플레이 장치가 프로그램의 정보와 연관된 기능 및 기본 기능을 동시에 제공하는 경우, 음성 명령의 형태는 복합적인 형태로 구성될 수 있다.
더욱이, 사용자의 개인 취향에 맞는 정보를 요청하는 기능까지 요구하는 음성 명령이 수신된 경우, 디스플레이 장치는 이러한 사용자의 요구를 처리하기 어려워진다.
본 발명은 프로그램의 정보 또는 사용자의 개인 취향에 맞는 정보를 요구하는 음성 명령을 처리하여, 디스플레이 장치의 동작을 제어하는 것에 그 목적이 있다.
본 발명의 실시 예에 따른 디스플레이 장치는 컨텐트 영상을 표시하는 디스플레이부와 사용자의 음성 명령을 수신하는 마이크와 자연어 처리 서버 및 검색 서버와 통신을 위한 네트워크 인터페이스부 및 상기 수신된 음성 명령을 상기 자연어 처리 서버에 전송하고, 상기 자연어 처리 서버로부터 상기 음성 명령에 대응하는 상기 사용자의 의도를 나타내는 의도 분석 결과 정보를 수신하고, 수신된 의도 분석 결과 정보에 따라 상기 디스플레이 장치의 기능을 수행하는 제어부를 포함할 수 있다.
본 발명의 실시 예에 따른 시스템은 음성 명령의 의도를 분석한 결과를 나타내는 의도 분석 결과 정보를 생성하는 자연어 처리 서버 및 상기 음성 명령을 자연어 처리 서버에 전송하고, 상기 자연어 처리 서버로부터 상기 음성 명령에 대응하는 상기 의도 분석 결과 정보를 수신하고, 수신된 의도 분석 결과 정보에 따라 상기 의도에 맞는 상기 디스플레이 장치의 기능을 수행하는 디스플레이 장치를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 사용자의 개인 취향 또는 프로그램의 정보와 연관된 복잡한 음성 명령을 수신하더라도, 이를 효과적으로 처리하여, 보다 향상된 서비스를 사용자에게 제공할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 5는 본 발명의 일 실시 예에 따른 시스템의 구성을 설명하는 블록도이다.
도 6은 본 발명의 일 실시 예에 따른 시스템의 상세 구성을 설명하는 도면이다.
도 7은 본 발명의 일 실시 예에 따른 시스템의 동작 방법을 위한 래더 다이어 그램이다.
도 8은 본 발명의 일 실시 예에 따라 음성 명령의 의도 분석을 통해 검색 서버를 거치지 않고, 디스플레이 장치의 기능을 실행하는 예를 설명하는 도면이다.
도 9 내지 도 13은 본 발명의 일 실시 예에 따라 음성 명령의 의도 분석을 통해 검색 서버를 거쳐, 검색 정보를 제공하는 예를 설명하는 도면이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명의 실시예에 따른 디스플레이 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 디스플레이 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.
따라서, 본 발명에서 기술되는 디스플레이 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 디스플레이 장치는, 보다 구체적으로 예를 들면, 네트워크 TV, HBBTV, 스마트 TV, LED TV, OLED TV 등이 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 1을 참조하면, 디스플레이 장치(100)는 방송 수신부(130), 외부장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 무선 통신부(173), 디스플레이부(180), 오디오 출력부(185), 전원공급부(190)를 포함할 수 있다.
방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다.
튜너(131)는 채널 선국 명령에 따라 특정 방송 채널을 선국할 수 있다. 튜너(131)는 선국된 특정 방송 채널에 대한 방송 신호를 수신할 수 있다.
복조부(132)는 수신한 방송 신호를 비디오 신호, 오디오 신호, 방송 프로그램과 관련된 데이터 신호로 분리할 수 있고, 분리된 비디오 신호, 오디오 신호 및 데이터 신호를 출력이 가능한 형태로 복원할 수 있다.
외부장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
외부장치 인터페이스부(135)는 디스플레이 장치(100)와 외부 장치 간의 연결 경로를 제공할 수 있다. 외부장치 인터페이스부(135)는 디스플레이 장치(100)에 무선 또는 유선으로 연결된 외부장치로부터 출력된 영상, 오디오 중 하나 이상을 수신하여, 제어부(170)로 전달할 수 있다. 외부장치 인터페이스부(135)는 복수의 외부 입력 단자들을 포함할 수 있다. 복수의 외부 입력 단자들은 RGB 단자, 하나 이상의 HDMI(High Definition Multimedia Interface) 단자, 컴포넌트(Component) 단자를 포함할 수 있다.
외부장치 인터페이스부(135)를 통해 입력된 외부장치의 영상 신호는 디스플레이부(180)를 통해 출력될 수 있다. 외부장치 인터페이스부(135)를 통해 입력된 외부장치의 음성 신호는 오디오 출력부(185)를 통해 출력될 수 있다.
외부장치 인터페이스부(135)에 연결 가능한 외부 장치는 셋톱박스, 블루레이 플레이어, DVD 플레이어, 게임기, 사운드 바, 스마트폰, PC, USB 메모리, 홈 씨어터 중 어느 하나일 수 있으나, 이는 예시에 불과하다.
네트워크 인터페이스부(133)는 디스플레이 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
또한, 디스플레이 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 디스플레이 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고, 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
디스플레이 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
그 외, 제어부(170)는, 디스플레이 장치(100) 내의 전반적인 동작을 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디스플레이 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 디스플레이 장치(100) 내로 다운받을 수 있도록 할 수 있다.
제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는 영상을 표시하도록 디스플레이부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 디스플레이부(180)에서 표시되도록 제어할 수 있다. 이 경우, 디스플레이부(180)에 표시되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는 디스플레이 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 재생되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
무선 통신부(173)는 유선 또는 무선 통신을 통해 외부 기기와 통신을 수행할 수 있다. 무선 통신부(173)는 외부 기기와 근거리 통신(Short range communication)을 수행할 수 있다. 이를 위해, 무선 통신부(173)는 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 무선 통신부(173)는 근거리 무선 통신망(Wireless Area Networks)을 통해 디스플레이 장치(100)와 무선 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 디스플레이 장치(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 디스플레이 장치(100)는 본 발명에 따른 디스플레이 장치(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display)), 스마트 폰과 같은 이동 단말기가 될 수 있다. 무선 통신부(173)는 디스플레이 장치(100) 주변에, 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(170)는 감지된 웨어러블 디바이스가 본 발명에 따른 디스플레이 장치(100)와 통신하도록 인증된 디바이스인 경우, 디스플레이 장치(100)에서 처리되는 데이터의 적어도 일부를, 무선 통신부(173)를 통해 웨어러블 디바이스로 송신할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 디스플레이 장치(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다.
디스플레이부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 1에 도시된 디스플레이 장치(100)는 본 발명의 일실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 디스플레이 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
본 발명의 또 다른 실시예에 따르면, 디스플레이 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 디스플레이 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 발명의 실시예에 따른 디스플레이 장치의 동작 방법은 도 1을 참조하여 설명한 바와 같은 디스플레이 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 디스플레이부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
다음으로, 도 2 내지 도 3을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 3은 본발명의 일 실시 예에 따른 원격제어장치(200)의 실제 구성 예를 보여준다.
먼저, 도 2를 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280), 음성 획득부(290)를 포함할 수 있다.
도 2을 참조하면, 무선통신부(225)는 전술하여 설명한 본 발명의 실시 예들에 따른 디스플레이 장치 중 임의의 어느 하나와 신호를 송수신한다.
원격제어장치(200)는 RF 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.
또한, 원격제어장치(200)는 디스플레이 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선 통신부(220)를 통해 전송한다.
한편, 원격제어장치(200)는 디스플레이 장치(100)가 전송한 신호를 RF 모듈(221)을 통하여 수신할 수 있으며, 필요에 따라 IR 모듈(223)을 통하여 디스플레이 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 3을 참조하여 설명한다.
도 3을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), 라이브 버튼(233), 외부 입력 버튼(234), 음량 조절 버튼(235), 음성 인식 버튼(236), 채널 변경 버튼(237), 확인 버튼(238) 및 뒤로 가기 버튼(239)을 포함할 수 있다.
지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다. 전원 버튼(231)은 디스플레이 장치(100)의 전원을 온/오프 하기 위한 버튼일 수 있다. 홈 버튼(232)은 디스플레이 장치(100)의 홈 화면으로 이동하기 위한 버튼일 수 있다. 라이브 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다. 외부 입력 버튼(234)은 디스플레이 장치(100)에 연결된 외부 입력을 수신하기 위한 버튼일 수 있다. 음량 조절 버튼(235)은 디스플레이 장치(100)가 출력하는 음량의 크기를 조절하기 위한 버튼일 수 있다. 음성 인식 버튼(236)은 사용자의 음성을 수신하고, 수신된 음성을 인식하기 위한 버튼일 수 있다. 채널 변경 버튼(237)은 특정 방송 채널의 방송 신호를 수신하기 위한 버튼일 수 있다. 확인 버튼(238)은 특정 기능을 선택하기 위한 버튼일 수 있고, 뒤로 가기 버튼(239)은 이전 화면으로 되돌아가기 위한 버튼일 수 있다.
다시 도 2를 설명한다.
사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력부(230)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 디스플레이 장치(100)의 디스플레이부(180)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 디스플레이 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 디스플레이 장치(100)의 제어 여부를 인지할 수 있다.
예를 들어, 출력부(250)는 사용자 입력부(235)가 조작되거나 무선 통신부(225)를 통하여 디스플레이 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다.
또한, 전원공급부(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 디스플레이 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 디스플레이 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.
원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 디스플레이 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.
제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(235)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(225)를 통하여 디스플레이 장치(100)로 전송할 수 있다.
또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.
음성 획득부(290)는 적어도 하나 이상의 마이크(291)을 포함할 수 있고, 마이크(291)를 통해 음성을 획득할 수 있다.
다음으로 도 4를 설명한다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 4의 (a)는 원격 제어 장치(200)에 대응하는 포인터(205)가 디스플레이부(180)에 표시되는 것을 예시한다.
사용자는 원격 제어 장치(200)를 상하, 좌우로 움직이거나 회전할 수 있다. 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)는 원격 제어 장치(200)의 움직임에 대응한다. 이러한 원격 제어 장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다.
도 4의 (b)는 사용자가 원격 제어 장치(200)를 왼쪽으로 이동하면, 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다.
원격 제어 장치(200)의 센서를 통하여 감지된 원격 제어 장치(200)의 움직임에 관한 정보는 디스플레이 장치(100)로 전송된다. 디스플레이 장치(100)는 원격 제어 장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 디스플레이 장치(100)는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.
도 4의 (c)는, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다.
이와 반대로, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다.
한편, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격 제어 장치(200)가 디스플레이부(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.
또한, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지거나 접근하도록 이동하는 경우, 상, 하, 좌, 우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격 제어 장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격 제어 장치(200)의 상, 하, 좌, 우 이동에 따라 포인터(205)만 이동하게 된다.
한편, 포인터(205)의 이동속도나 이동방향은 원격 제어 장치(200)의 이동속도나 이동방향에 대응할 수 있다.
한편, 본 명세서에서의 포인터는, 원격 제어 장치(200)의 동작에 대응하여, 디스플레이부(180)에 표시되는 오브젝트를 의미한다. 따라서, 포인터(205)로 도면에 도시된 화살표 형상 외에 다양한 형상의 오브젝트가 가능하다. 예를 들어, 점, 커서, 프롬프트, 두꺼운 외곽선 등을 포함하는 개념일 수 있다. 그리고, 포인터(205)가 디스플레이부(180) 상의 가로축과 세로축 중 어느 한 지점(point)에 대응하여 표시되는 것은 물론, 선(line), 면(surface) 등 복수 지점에 대응하여 표시되는 것도 가능하다.
도 5는 본 발명의 일 실시 예에 따른 시스템의 구성을 설명하는 블록도이다.
도 5를 참조하면, 본 발명의 일 실시 예에 따른 시스템은 NLP(Natural Language Procee, 자연어 처리) 서버(10), 검색 서버(30) 및 디스플레이 장치(100)를 포함할 수 있다.
NLP 서버(10)는 디스플레이 장치(100)로부터 수신된 음성 데이터에 기초하여, 의도 분석을 수행할 수 있다. NLP 서버(10)는 의도 분석의 수행 결과를 나타내는 의도 분석 결과 정보를 디스플레이 장치(100)에 전송할 수 있다.
검색 서버(30)는 디스플레이 장치(100)로부터 정보의 검색을 요청하는 정보 요청 메시지를 수신할 수 있다.
검색 서버(30)는 정보 요청 메시지에 기초하여, 특정 정보를 검색하고, 검색된 검색 정보를 디스플레이 장치(100)에 전송할 수 있다.
디스플레이 장치(100)는 도 1에 설명된 구성 요소들 이외에 NLP 클라이언트(50) 및 EPG 관리부(70)를 더 포함할 수 있다.
또 다른 예에서, NLP 클라이언트(50) 및 EPG 관리부(70)는 제어부(170)의 구성에 포함될 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 사용자의 음성 명령을 수신하고, 수신된 음성 명령에 대응하는 음성 데이터를 NLP 서버(10)에 전송할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 NLP 서버(10)로부터 음성 명령에 대해 의도 분석이 수행된 결과를 나타내는 의도 분석 결과 정보를 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 수신된 의도 분석 결과 정보에 기초하여, 자체적으로, 사용자의 의도에 대응하는 기능을 수행할 수 있는지 여부를 판단할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 자체적으로, 사용자의 의도에 대응하는 기능을 수행할 수 있다고 판단한 경우, 사용자의 의도에 대응하는 기능을 수행할 수 있다.
디스플레이 장치(100)가 자체적으로, 사용자의 의도에 대응하는 기능을 수행할 수 있다고 판단하는 경우란, 저장부(140)에 저장된 EPG(전자 프로그램 가이드) 정보를 이용하여, 디스플레이 장치(100)의 기능을 제어할 수 있는 경우일 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 EPG 관리부(70)에 프로그램에 대한 정보를 요청할 수 있다.
EPG 관리부(70)는 요청에 응답하여, EPG 정보로부터 프로그램에 대한 정보를 추출하고, 추출된 정보를 NLP 클라이언트(50)에 전송할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 자체적으로, 사용자의 의도에 대응하는 기능을 수행할 수 없다고 판단하는 경우, 사용자의 의도에 맞는 정보를 요청하는 정보 요청 메시지를 검색 서버(30)에 전송할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 검색 서버(30)로부터 정보 요청 메시지에 응답하는 정보 응답 메시지를 수신할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 시스템의 상세 구성을 설명하는 도면이다.
도 6은 도 5의 상세 구성을 설명하는 도면이므로, 도 5와 중복된 내용의 설명은 생략한다.
도 6을 참조하면, 본 발명의 실시 예에 따른 시스템은 STT(Speech To Text, 음성 텍스트 변환) 서버(90)를 더 포함할 수 있다.
STT 서버(90)는 디스플레이 장치(100)의 NLP 클라이언트(50)로부터 수신된 음성 데이터를 텍스트 데이터로 변환할 수 있다. STT 서버(90)는 변환된 텍스트 데이터를 NLP 서버(10)에 전송할 수 있다.
NLP 서버(10)는 신디케이션 에이전트(11), 제1 서비스 서버(13) 및 제2 서비스 서버(15)를 포함할 수 있다.
신디케이션 에이전트(11)는 제1 서비스 서버(13) 및 제2 서비스 서버(15)의 동작을 제어할 수 있다.
제1 서비스 서버(13)는 디스플레이 장치(100)의 제조 업체 이외의 제조 업체에서 제공되는 자연어 처리 서비스를 위한 서버일 수 있다.
제2 서비스 서버(15)는 디스플레이 장치(100)의 제조 업체에서 제공되는 자연어 처리 서비스를 위한 서버일 수 있다.
일 실시 예에 따르면, NLP 서버(10)는 신디케이션 에이전트(11) 및 제1 서비스 서버(13)를 포함하지 않을 수 있다.
디스플레이 장치(100)는 음성 에이전트(51) 및 렌더러(52)를 더 포함할 수 있다.
음성 에이전트(51) 및 렌더러(52) 또한, 도 1에서 설명된 제어부(170)에 포함될 수 있다.
음성 에이전트(51)는 원격 제어 장치(200)로부터 음성 인식 모드로의 진입을 위한 신호를 수신하고, 수신된 신호에 따라 디스플레이 장치(100)에 구비된 마이크의 동작을 활성화 시킬 수 있다.
음성 에이전트(51)는 디스플레이 장치(100)에 구비된 마이크로부터 수신된 음성 명령 또는 원격 제어 장치(200)로부터 수신된 음성 명령을 NLP 클라이언트(50)에 전송할 수 있다.
음성 에이전트(51)는 NLP 클라이언트(50)로부터 NLP 서버(10)로부터 수신한 의도 분석 결과 정보 또는 검색 정보를 전달받을 수 있다.
음성 에이전트(51)는 의도 분석 결과 정보에 기초하여, 어플리케이션을 실행하거나, 원격 제어 장치(200)의 버튼 키에 대응하는 기능을 수행할 수 있다.
음성 에이전트(51)는 NLP 클라이언트(50)의 구성에 포함될 수도 있다.
렌더러(52)는 수신된 검색 정보를 디스플레이부(170) 상에 표시하기 위해 GUI 모듈을 통해, UI를 생성하고, 생성된 UI를 디스플레이부(180)에 출력할 수 있다.
다음으로, 도 7을 참조하여, 본 발명의 일 실시 예에 따른 시스템의 동작 방법을 설명한다.
도 7은 본 발명의 일 실시 예에 따른 시스템의 동작 방법을 위한 래더 다이어 그램이다.
이하에서는 도 5 및 도 6의 내용을 참조하여, 본 발명의 실시 예에 따른 시스템의 동작 방법을 설명한다.
도 7을 참조하면, 디스플레이 장치(100)는 음성 명령을 수신한다(S701).
일 실시 예에서, 디스플레이 장치(100)는 마이크를 구비할 수 있고, 마이크를 통해 사용자의 음성 명령을 수신할 수 있다.
또 다른 실시 예에서 디스플레이 장치(100)의 무선 통신부(173)는 원격 제어 장치(200)로부터 음성 명령을 수신할 수 있다. 즉, 사용자는 원격 제어 장치(200)를 통해 음성 명령을 발화하고, 발화된 음성 명령은 원격 제어 장치(200)를 통해 디스플레이 장치(100)로 전달될 수 있다.
디스플레이 장치(100)의 제어부(170)는 자체적으로 자연어 처리를 수행할 수 있는 기능을 보유할 수 있다. 제어부(170)는 수신된 음성 명령에 대해, 제어부(170) 내에 구비된 자연어 처리 모듈을 통해 음성 명령에 의도 분석이 가능한 경우, 음성 명령에 대응하는 음성 데이터를 NLP 서버(10)에 전송하지 않을 수 있다.
예를 들어, 음성 명령이 <TV 전원 꺼줘>인 경우, 제어부(170)는 음성 명령의 의도를 분석하여, 분석 결과에 따라 디스플레이 장치(100)의 전원을 오프시킬 수 있다.
일 실시 예에서, 제어부(170)는 음성 명령의 변환된 텍스트 데이터가 저장부(140)에 저장되어 있는 경우, 텍스트 데이터에 대응하는 디스플레이 장치(100)의 기능을 자체적으로 수행할 수 있다.
제어부(170)가 음성 명령의 자연어 처리에 기반하여, 수행할 수 있는 디스플레이 장치(100)의 기능의 예로는, 디스플레이 장치(100)의 전원 온/오프, 채널 변경, 불륨 조절 중 하나 이상을 포함할 수 있다.
디스플레이 장치(100)는 수신된 음성 명령에 대응하는 음성 데이터를 NLP 서버(10)에 전송한다(S703).
디스플레이 장치(100)의 제어부(170)는 네트워크 인터페이스부(133)를 통해 음성 명령에 대응하는 음성 데이터를 NLP 서버(10)로 전송할 수 있다.
NLP 서버(10)는 디스플레이 장치(100)로부터 수신된 음성 데이터를 텍스트 데이터로 변환하고, 변환된 텍스트 데이터에 기초하여, 의도 분석을 수행할 수 있다.
NLP 서버(10)는 자연어 처리 기법에 따라 텍스트 데이터를 분석하여, 사용자의 의도 분석을 수행할 수 있다. 자연어 처리 기법은 자연어를 기계적으로 분석하여, 컴퓨터가 이해할 수 있는 형태의 결과를 출력하거나, 인간이 이해할 수 있는 언어를 출력하는 기술이다.
디스플레이 장치(100)는 NLP 서버(10)로부터 음성 데이터의 의도 분석 결과를 나타내는 의도 분석 결과 정보를 수신한다(S705).
디스플레이 장치(100)의 제어부(170)는 네트워크 인터페이스부(133)를 통해 의도 분석 결과 정보를 수신할 수 있다.
디스플레이 장치(100)는 수신된 의도 분석 결과 정보에 기초하여, 음성 명령에 대응하는 디스플레이 장치(100)의 기능을 자체적으로 수행 가능한지를 판단한다(S707).
일 실시 예에서, 디스플레이 장치(100)의 제어부(170)는 수신된 의도 분석 결과 정보에 기초하여, 음성 명령에 대응하는 정보를 디스플레이 장치(100)가 제공할 수 있는지 여부를 판단할 수 있다.
제어부(170)는 의도 분석 결과 정보에 포함된 내용이, 디스플레이 장치(100)에 저장된 정보를 요청하는 것인 경우, 음성 명령에 대응하는 기능을 자체적으로 수행할 수 없는 것으로 판단할 수 있다.
제어부(170)는 의도 분석 결과 정보에 포함된 내용이, 디스플레이 장치(100)에 저장된 정보 이외의 정보를 요청하는 것인 경우, 음성 명령에 대응하는 기능을 자체적으로 수행할 수 없는 것으로 판단할 수 있다.
디스플레이 장치(100)는 음성 명령에 대응하는 디스플레이 장치(100)의 기능을 자체적으로 수행 가능한 것으로 판단한 경우, 음성 명령에 대응하는 디스플레이 장치(100)의 기능을 수행한다(S709).
일 실시 예에서, 음성 명령에 대응하는 사용자의 의도가, EPG(전자 프로그램 가이드) 정보를 이용하여, 수행될 수 있는 기능인 경우, 제어부(170)는 저장부(140)에 저장된 EPG 정보를 이용하여, 디스플레이 장치(100)의 기능을 제어할 수 있다. 이에 대한 구체적인 예는 후술한다.
만약, 음성 명령에 대응하는 디스플레이 장치(100)의 기능을 자체적으로 수행
불가능 한
것으로 판단한 경우, 디스플레이 장치(100)는 의도 분석 결과에 기초한 정보 요청 메시지를 검색 서버(30)에 전송한다(S711).
디스플레이 장치(100)의 제어부(170)는 음성 명령에 대응하는 사용자의 의도가 저장부(140)에 저장된 정보를 이용하여 수행될 수 없는 기능인 경우, 네트워크 인터페이스부(133)를 통해 검색 서버(30)에 정보 요청 메시지를 전송할 수 있다.
정보 요청 메시지는 사용자의 의도를 반영한 특정 정보를 검색하는 요청 메시지일 수 있다.
검색 서버(30)는 디스플레이 장치(100)로부터 수신된 정보 요청 메시지에 대응하여, 검색 결과를 포함하는 정보 응답 메시지를 디스플레이 장치(100)에 전송한다(S713).
디스플레이 장치(100)는 검색 서버(30)로부터 수신된 정보 응답 메시지에 기초하여, 수신된 정보를 표시한다(S715).
디스플레이 장치(100)의 제어부(170)는 정보 응답 메시지에 포함된 사용자의 의도를 반영한 검색 정보를 디스플레이부(170) 상에 표시할 수 있다.
이하에서는, 도 7의 실시 예를 보다 구체적인 예를 들어 설명한다.
도 8은 본 발명의 일 실시 예에 따라 음성 명령의 의도 분석을 통해 검색 서버를 거치지 않고, 디스플레이 장치의 기능을 실행하는 예를 설명하는 도면이다.
도 8을 참조하면, 디스플레이 장치(100)는 방송 프로램 영상(800)을 디스플레이부(180) 상에 표시할 수 있다. 디스플레이부(180)는 음성 인식 모드 하에서 사용자의 음성 명령의 요구를 가이드하는 팝업 창(801)을 더 표시할 수 있다.
원격 제어 장치(200)에 구비된 마이크는 사용자의 <이 프로그램 끝나면, TV 꺼줘>라는 음성 명령을 수신할 수 있다.
원격 제어 장치(200)의 무선 통신부(220)는 디스플레이 장치(100)의 무선 통신부(173)에 음성 명령을 전달할 수 있다.
또 다른 실시 예에서, 디스플레이 장치(100)에 마이크가 구비된 경우, 디스플레이 장치(100)는 자체적으로, 사용자의 음성 명령을 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 수신된 음성 명령을 NLP 서버(10)에 전송할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 NLP 서버(10)로부터 음성 명령의 의도 분석 결과를 포함하는 의도 분석 결과 정보를 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 의도 분석 결과 정보에 기초하여, 검색 서버(30)를 거치지 않고, 사용자의 의도에 따른 기능을 수행할 수 있는지 여부를 판단할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 의도 분석 결과 정보가 현재 시청 중인 프로그램의 종료 후, 디스플레이 장치(100)의 전원을 오프 하라는 의도를 포함하는 경우, 프로그램의 종료 시점은 저장부(140)에 저장된 EPG 정보를 통해 획득할 수 있으므로, 자체적으로, 의도에 따른 기능을 수행할 수 있는 것으로 판단할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 현재 시청 중인 프로그램의 종료 후, 디스플레이 장치(100)의 전원을 오프 하라는 의도에 따라, EPG 정보를 이용하여, 현재 시청 중인 프로그램에 대한 정보를 획득할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 도 5에서 설명된 EPG 관리부(70)에 현재 재생 중인 프로그램에 대한 정보를 요청하고, 요청에 응답하여, 프로그램에 대한 정보를 획득할 수 있다.
프로그램에 대한 정보는 프로그램의 시작 시점과 종료 시점을 포함하는 방영 시간, 프로그램의 명칭, 프로그램의 채널을 포함할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 프로그램의 방영 시간을 이용하여, 프로그램의 종료 시점을 획득할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 획득된 프로그램의 종료 시점을 이용하여, 현재 시점이 프로그램의 종료 시점에 도달한 경우, 디스플레이 장치(100)의 전원을 오프 시킬 수 있다.
한편, 디스플레이 장치(100)는 프로그램의 종료 시점을 획득한 경우, 일정 시간 후, 디스플레이 장치(100)의 전원이 오프됨을 알리는 팝업 창(813)을 디스플레이부(180) 상에 표시할 수 있다.
이와 같이, 본 발명의 실시 예에 따르면, 사용자의 복잡한 음성 명령을 분석하여, 디스플레이 장치(100)의 동작을 손쉽게 제어할 수 있다.
다음으로, 도 9를 설명한다.
도 9는 본 발명의 일 실시 예에 따라 음성 명령의 의도 분석을 통해 검색 서버를 거쳐, 검색 정보를 제공하는 예를 설명하는 도면이다.
도 9를 참조하면, 디스플레이 장치(100)는 방송 프로그램의 영상(800)을 디스플레이부(180) 상에 표시할 수 있다. 디스플레이부(180)는 음성 인식 모드 하에서 사용자의 음성 명령의 요구를 가이드하는 팝업 창(801)을 더 표시할 수 있다.
원격 제어 장치(200)에 구비된 마이크는 사용자의 <이 프로그램의 줄거리를 알려줘>라는 음성 명령을 수신할 수 있다.
원격 제어 장치(200)의 무선 통신부(220)는 디스플레이 장치(100)의 무선 통신부(173)에 음성 명령을 전달할 수 있다.
또 다른 실시 예에서, 디스플레이 장치(100)에 마이크가 구비된 경우, 디스플레이 장치(100)는 자체적으로, 사용자의 음성 명령을 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 수신된 음성 명령을 NLP 서버(10)에 전송할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 NLP 서버(10)로부터 음성 명령의 의도 분석 결과를 포함하는 의도 분석 결과 정보를 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 의도 분석 결과 정보가 현재 시청 중인 프로그램의 줄거리를 알려달라는 의도인 경우, 프로그램의 줄거리는 저장부(140)에 저장되어 있지 않으므로(즉, EPG 정보에 포함되지 않으므로), 의도에 따른 기능을 수행할 수 없는 것으로 판단할 수 있다.
이 후, 디스플레이 장치(100)의 NLP 클라이언트(50)는 검색 서버(30)에 프로그램의 줄거리를 요청하는 정보 요청 메시지를 전송할 수 있다.
정보 요청 메시지는 프로그램의 명칭, 프로그램의 회차에 대한 정보를 포함할 수 있다. 이는 EPG 정보로부터 얻어질 수 있다.
검색 서버(30)는 디스플레이 장치(100)로부터 수신된 정보 요청 메시지에 기초하여, 프로그램의 줄거리를 검색할 수 있다. 검색 서버(30)는 검색된 줄거리를 포함하는 정보 응답 메시지를 디스플레이 장치(100)에 전송할 수 있다.
디스플레이 장치(100)는 검색 서버(30)로부터 수신된 프로그램의 줄거리(910)를 디스플레이부(180) 상에 표시할 수 있다.
사용자는 간단한 음성 명령의 의도 분석을 통해 EPG 정보로부터 얻을 수 없는 정보도, 손쉽게 확인할 수 있다.
다음으로, 도 10을 설명한다.
도 10은 본 발명의 또 다른 실시 예에 따라 음성 명령의 의도 분석을 통해 검색 서버를 거쳐, 검색 정보를 제공하는 예를 설명하는 도면이다.
도 10을 참조하면, 디스플레이 장치(100)는 방송 프로그램의 영상(800)을 디스플레이부(180) 상에 표시할 수 있다. 디스플레이부(180)는 음성 인식 모드 하에서 사용자의 음성 명령의 요구를 가이드하는 팝업 창(801)을 더 표시할 수 있다.
원격 제어 장치(200)에 구비된 마이크는 사용자의 <이 사람 누구야>라는 음성 명령을 수신할 수 있다.
원격 제어 장치(200)의 무선 통신부(220)는 디스플레이 장치(100)의 무선 통신부(173)에 음성 명령을 전달할 수 있다.
또 다른 실시 예에서, 디스플레이 장치(100)에 마이크가 구비된 경우, 디스플레이 장치(100)는 자체적으로, 사용자의 음성 명령을 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 수신된 음성 명령을 NLP 서버(10)에 전송할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 NLP 서버(10)로부터 음성 명령의 의도 분석 결과를 포함하는 의도 분석 결과 정보를 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 의도 분석 결과 정보가 현재 시청 중인 장면에 나타난 인물의 상세 정보를 알려달라는 의도인 경우, 해당 인물의 상세 정보는 저장부(140)에 저장되어 있지 않으므로(즉, EPG 정보에 포함되지 않으므로), 의도에 따른 기능을 수행할 수 없는 것으로 판단할 수 있다.
그 후, 디스플레이 장치(100)는 음성 명령을 수신한 시점에서, 프로그램의 영상(800)을 캡쳐하고, 캡쳐된 이미지를 컨텐트 자동 인식 서버(Auto Content Recognition, ACR) 서버에 전송할 수 있다.
컨텐트 자동 인식 서버는 캡쳐된 이미지를 이용하여, 이미지에 포함된 객체(인물)을 추출하고, 추출된 객체에 대한 정보를 획득할 수 있다.
객체에 대한 정보는 객체를 식별하는 정보를 포함할 수 있다.
디스플레이 장치(100)는 컨텐트 자동 인식 서버(Auto Content Recognition, ACR) 서버로부터 인물을 식별하는 정보를 수신할 수 있다. 인물을 식별하는 정보는 인물의 이름을 포함할 수 있다.
디스플레이 장치(100)는 인물의 이름을 포함하는 정보 요청 메시지를 검색 서버(30)에 전송할 수 있다. 검색 서버(30)는 디스플레이 장치(100)로부터 수신된 인물에 대한 상세 정보를 디스플레이 장치에 전송할 수 있다.
본 발명의 또 다른 실시 예에 따르면, 컨텐트 자동 인식 서버가 검색 서버(30)일 수 있다. 컨텐트 자동 인식 서버는 인물을 식별하는 정보 이외에, 인물이 출연한 작품, 인물의 이력을 포함하는 인물의 상세 정보를 디스플레이 장치(100)에 전송할 수도 있다.
디스플레이 장치(100)는 검색 서버(30)로부터 수신된 인물의 상세 정보(1010)를 디스플레이부(180) 상에 표시할 수 있다.
다음으로, 도 11을 설명한다.
도 11은 본 발명의 또 다른 실시 예에 따라 음성 명령의 의도 분석을 통해 검색 서버를 거쳐, 검색 정보를 제공하는 예를 설명하는 도면이다.
도 11을 참조하면, 디스플레이 장치(100)는 컨텐트 영상(1100)을 디스플레이부(180) 상에 표시할 수 있다. 디스플레이부(180)는 음성 인식 모드 하에서 사용자의 음성 명령의 요구를 가이드하는 팝업 창(801)을 더 표시할 수 있다.
컨텐트 영상(1100)은 가방(1101)이라는 물건을 포함할 수 있다.
원격 제어 장치(200)에 구비된 마이크는 사용자의 <이 물건 누구야>라는 음성 명령을 수신할 수 있다.
원격 제어 장치(200)의 무선 통신부(220)는 디스플레이 장치(100)의 무선 통신부(173)에 음성 명령을 전달할 수 있다.
또 다른 실시 예에서, 디스플레이 장치(100)에 마이크가 구비된 경우, 디스플레이 장치(100)는 자체적으로, 사용자의 음성 명령을 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 수신된 음성 명령을 NLP 서버(10)에 전송할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 NLP 서버(10)로부터 음성 명령의 의도 분석 결과를 포함하는 의도 분석 결과 정보를 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 의도 분석 결과 정보가 현재 시청 중인 장면에 나타난 물건의 상세 정보를 알려달라는 의도인 경우, 해당 물건의 상세 정보는 저장부(140)에 저장되어 있지 않으므로(즉, EPG 정보에 포함되지 않으므로), 의도에 따른 기능을 수행할 수 없는 것으로 판단할 수 있다.
그 후, 디스플레이 장치(100)는 음성 명령을 수신한 시점에서, 프로그램의 영상(800)을 캡쳐하고, 캡쳐된 이미지를 컨텐트 자동 인식 서버(Auto Content Recognition, ACR) 서버에 전송할 수 있다. 이 경우, 컨텐트 자동 인식 서버는 검색 서버(30)일 수 있다.
컨텐트 자동 인식 서버는 캡쳐된 이미지를 이용하여, 이미지에 포함된 가방(1101)을 추출하고, 추출된 가방(1101)에 대한 정보를 획득할 수 있다. 가방(1101에 대한 정보는 가방의 모델명, 가방의 가격, 가방을 구입할 수 있는 쇼핑몰의 명칭을 포함할 수 있다.
디스플레이 장치(100)는 컨텐트 자동 인식 서버(Auto Content Recognition, ACR) 서버로부터 이미지에 포함된 가방에 대한 정보를 수신할 수 있다.
디스플레이 장치(100)는 수신된 가방에 대한 정보(1110)를 디스플레이부(180) 상에 표시할 수 있다.
사용자는 컨텐트 영상의 시청 중, 간단한 음성 명령만으로, 영상에 포함된 객체에 대한 정보를 복잡한 과정 없이 확인해 볼 수 있다.
다음으로 도 12를 설명한다.
도 12는 본 발명의 또 다른 실시 예에 따라 음성 명령의 의도 분석을 통해 검색 서버를 거쳐, 검색 정보를 제공하는 예를 설명하는 도면이다.
도 12를 참조하면, 디스플레이 장치(100)는 프로그램 영상(800)을 디스플레이부(180) 상에 표시할 수 있다. 디스플레이부(180)는 음성 인식 모드 하에서 사용자의 음성 명령의 요구를 가이드하는 팝업 창(801)을 더 표시할 수 있다.
원격 제어 장치(200)에 구비된 마이크는 사용자의 <이 음악 뭐야>라는 음성 명령을 수신할 수 있다.
원격 제어 장치(200)의 무선 통신부(220)는 디스플레이 장치(100)의 무선 통신부(173)에 음성 명령을 전달할 수 있다.
또 다른 실시 예에서, 디스플레이 장치(100)에 마이크가 구비된 경우, 디스플레이 장치(100)는 자체적으로, 사용자의 음성 명령을 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 수신된 음성 명령을 NLP 서버(10)에 전송할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 NLP 서버(10)로부터 음성 명령의 의도 분석 결과를 포함하는 의도 분석 결과 정보를 수신할 수 있다.
디스플레이 장치(100)의 NLP 클라이언트(50)는 의도 분석 결과 정보가 현재 시청 중인 영상과 함께 출력되는 음악의 상세 정보를 알려달라는 의도인 경우, 해당 음악의 상세 정보는 저장부(140)에 저장되어 있지 않으므로(즉, EPG 정보에 포함되지 않으므로), 의도에 따른 기능을 수행할 수 없는 것으로 판단할 수 있다.
동시에, 디스플레이 장치(100)는 오디오 출력부(185)를 통해 출력 중인 오디오를 마이크를 통해 수신할 수 있다. 디스플레이 장치(100)는 수신된 오디오를 음원 분석 서버에 전송할 수 있다.
음원 분석 서버는 수신된 오디오에 기초하여, 음악의 제목을 획득하고, 획득된 음악의 제목을 디스플레이 장치(100)에 전송할 수 있다.
디스플레이 장치(100)는 수신된 음악의 제목을 검색 서버(30)에 전송할 수 있다. 검색 서버(30)는 수신된 음악의 제목을 이용하여, 음악의 상세 정보를 검색하고, 검색된 음악의 상세 정보를 디스플레이 장치(100)에 전송할 수 있다.
음악의 상세 정보는 음악의 가수, 음악의 작곡가, 음악의 앨범, 음악의 장르 중 하나 이상을 포함할 수 있다.
디스플레이 장치(100)는 수신된 음악의 상세 정보(1210)를 디스플레이부(180) 상에 표시할 수 있다.
이와 같이, 본 발명의 실시 예에 따르면, 사용자는 간단한 음성 명령만으로, 프로그램 영상의 시청 중 함께 출력되는 음악에 대한 상세 정보를 손쉽게 확인할 수 있다.
다음으로, 도 13을 설명한다.
도 13은 본 발명의 또 다른 실시 예에 따라 음성 명령의 의도 분석을 통해, 검색 서버를 거쳐, 검색 정보를 제공하는 예를 설명하는 도면이다.
특히, 도 13은 사용자가 정지 영상(또는 이미지)를 시청하고 있는 경우, 일어날 수 있는 시나리오를 설명하는 도면이다.
도 13을 참조하면, 디스플레이 장치(100)는 사용자의 <예술 작품 보여줘> 라는 제1 음성 명령을 수신할 수 있다.
디스플레이 장치(100)는 제1 음성 명령에 응답하여, 저장부(140)에 저장된 예술 작품을 나타내는 이미지(1300)를 디스플레이부(180) 상에 표시할 수 있다.
그 후, 디스플레이 장치(100)는 <이거 누구 작품이야>라는 제2 음성 명령을 수신할 수 있다. 디스플레이 장치(100)는 제2 음성 명령에 대응하는 음성 데이터를 NLP 서버(10)에 전송할 수 있다.
한편, 디스플레이 장치(100)는 이미지들이 슬라이드 쇼로 출력되는 경우, 제2 음성 명령을 NLP 서버(10)에 전송하기 전, 슬라이드 쇼의 재생을 중지시킬 수 있다.
NLP 서버(10)는 제2 음성 명령에 대응하는 음성 데이터에 기초하여, 제2 음성 명령의 의도 분석 결과 정보를 생성하고, 생성된 의도 분석 결과 정보를 디스플레이 장치(100)에 전송할 수 있다.
디스플레이 장치(100)는 의도 분석 결과 정보에 포함된 내용이, 이미지(1300)의 작품에 대한 정보를 알려달라는 의도로 판단된 경우, 작품에 대한 정보를 요청하는 정보 요청 메시지를 검색 서버(30)에 전송할 수 있다.
디스플레이 장치(100)는 정보 요청 메시지에 해당 이미지(1300)를 포함시켜 검색 서버(30)에 전송할 수 있다.
검색 서버(30)는 정보 요청 메시지에 기초하여, 작품에 대한 상세 정보를 검색하고, 검색된 상세 정보를 디스플레이 장치(100)에 전송할 수 있다.
디스플레이 장치(100)는 수신된 작품의 상세 정보<고흐의 별이 빛나는 밤입니다>를 오디오 출력부(185)를 통해 음성으로 출력할 수 있다. 작품의 상세 정보는 작품의 작가, 작품의 명칭을 포함할 수 있다.
그 후, 디스플레이 장치(100)는 중지된 슬라이드 쇼의 재생을 재개시킬 수 있다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이 설명된 디스플레이 장치는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
Claims (15)
- 디스플레이 장치에 있어서,컨텐트 영상을 표시하는 디스플레이부;사용자의 음성 명령을 수신하는 마이크;자연어 처리 서버 및 검색 서버와 통신을 위한 네트워크 인터페이스부; 및상기 수신된 음성 명령을 상기 자연어 처리 서버에 전송하고, 상기 자연어 처리 서버로부터 상기 음성 명령에 대응하는 상기 사용자의 의도를 나타내는 의도 분석 결과 정보를 수신하고, 수신된 의도 분석 결과 정보에 따라 상기 디스플레이 장치의 기능을 수행하는 제어부를 포함하는디스플레이 장치.
- 제1항에 있어서,상기 제어부는상기 사용자의 의도에 대응하는 상기 디스플레이 장치의 기능을 자체적으로 수행 가능하다고 판단한 경우, 전자 프로그램 가이드 정보를 이용하여, 상기 디스플레이 장치의 기능을 수행하는디스플레이 장치.
- 제2항에 있어서,상기 제어부는상기 음성 명령의 의도가 상기 컨텐트 영상의 재생 종료 시, 상기 디스플레이 장치의 전원을 오프시키는 의도인 경우, 상기 전자 프로그램 가이드 정보로부터 추출된 상기 컨텐트 영상의 재생 종료 시점을 획득하고,획득된 종료 시점을 이용하여, 상기 컨텐트 영상의 재생 종료 시점이 도달한 경우, 상기 디스플레이 장치의 전원을 오프시키는디스플레이 장치.
- 제3항에 있어서,상기 제어부는상기 컨텐트 영상의 재생 종료 시점을 획득한 경우, 상기 컨텐트 영상의 재생 종료 시점에 상기 디스플레이 장치의 전원이 오프됨을 알리는 팝업 창을 상기 디스플레이부 상에 표시하는디스플레이 장치.
- 제2항에 있어서,상기 제어부는상기 사용자의 의도에 대응하는 상기 디스플레이 장치의 기능을 자체적으로 수행 불가능하다고 판단한 경우, 상기 의도에 대응하는 정보의 검색을 요청하는 정보 요청 메시지를 상기 검색 서버에 전송하고,상기 검색 서버로부터 수신된 검색 정보를 상기 디스플레이부 상에 표시하는디스플레이 장치.
- 제5항에 있어서,상기 제어부는상기 음성 명령의 의도가 상기 컨텐트 영상의 줄거리를 알려달라는 의도인 경우, 상기 컨텐트 영상의 줄거리를 요청하는 상기 정보 요청 메시지를 상기 검색 서버에 전송하고,상기 검색 서버로부터 수신된 상기 줄거리를 상기 디스플레이부 상에 표시하는디스플레이 장치.
- 제4항에 있어서,상기 제어부는상기 음성 명령의 의도가 상기 컨텐트 영상에 포함된 객체에 대한 정보를 요청하는 의도인 경우, 상기 컨텐트 영상을 캡쳐한 이미지를 컨텐트 자동 인식 서버에 전송하고,상기 컨텐트 자동 인식 서버로부터 상기 객체의 식별 정보를 수신하고,상기 수신된 객체의 식별 정보를 상기 검색 서버에 전송하고,상기 검색 서버로부터, 상기 객체의 상세 정보를 수신하고,상기 수신된 객체의 상세 정보를 상기 디스플레이부 상에 표시하는디스플레이 장치.
- 제4항에 있어서,상기 제어부는상기 음성 명령의 의도가 상기 컨텐트 영상과 함께 출력되는 오디오의 정보를 요청하는 의도인 경우, 상기 오디오를 음원 분석 서버에 전송하고,상기 음원 분석 서버로부터 상기 오디오의 식별 정보를 수신하고,상기 수신된 오디오의 식별 정보를 상기 검색 서버에 전송하고,상기 검색 서버로부터, 상기 오디오의 상세 정보를 수신하고,상기 수신된 오디오의 상세 정보를 상기 디스플레이부 상에 표시하는디스플레이 장치.
- 제1항에 있어서,상기 제어부는상기 수신된 음성 명령에 대응하는 의도를 자체적으로 획득한 경우, 상기 음성 명령을 상기 자연어 처리 서버에 전송하지 않고, 상기 의도에 대응하는 기능을 실행하는디스플레이 장치.
- 제9항에 있어서,상기 의도에 대응하는 기능은 상기 디스플레이 장치의 전원 온/오프 제어, 채널 변경, 볼륨 조절 중 어느 하나인디스플레이 장치.
- 시스템에 있어서,음성 명령의 의도를 분석한 결과를 나타내는 의도 분석 결과 정보를 생성하는 자연어 처리 서버; 및상기 음성 명령을 자연어 처리 서버에 전송하고, 상기 자연어 처리 서버로부터 상기 음성 명령에 대응하는 상기 의도 분석 결과 정보를 수신하고, 수신된 의도 분석 결과 정보에 따라 상기 의도에 맞는 상기 디스플레이 장치의 기능을 수행하는 디스플레이 장치를 포함하는시스템.
- 제11항에 있어서,상기 디스플레이 장치는상기 사용자의 의도에 대응하는 상기 디스플레이 장치의 기능을 자체적으로 수행 가능하다고 판단한 경우, 전자 프로그램 가이드 정보를 이용하여, 상기 디스플레이 장치의 기능을 수행하는시스템.
- 제11항에 있어서,검색 서버를 더 포함하고,상기 디스플레이 장치는상기 사용자의 의도에 대응하는 상기 디스플레이 장치의 기능을 자체적으로 수행 불가능하다고 판단한 경우, 상기 의도에 대응하는 정보의 검색을 요청하는 정보 요청 메시지를 상기 검색 서버에 전송하고,상기 검색 서버로부터 수신된 검색 정보를 표시하는시스템.
- 제11항에 있어서,상기 디스플레이 장치는상기 수신된 음성 명령에 대응하는 의도를 자체적으로 획득한 경우, 상기 음성 명령을 상기 자연어 처리 서버에 전송하지 않고, 상기 의도에 대응하는 기능을 실행하는시스템.
- 제14항에 있어서,상기 의도에 대응하는 기능은 상기 디스플레이 장치의 전원 온/오프 제어, 채널 변경, 볼륨 조절 중 어느 하나인시스템.
Priority Applications (8)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201880090020.9A CN111742557B (zh) | 2018-01-08 | 2018-01-08 | 显示装置和包括显示装置的系统 |
| EP23216984.7A EP4319174A3 (en) | 2018-01-08 | 2018-01-08 | Display device and system comprising same |
| PCT/KR2018/000372 WO2019135433A1 (ko) | 2018-01-08 | 2018-01-08 | 디스플레이 장치 및 디스플레이 장치를 포함하는 시스템 |
| EP18898194.8A EP3739892A4 (en) | 2018-01-08 | 2018-01-08 | DISPLAY DEVICE AND PROVIDED SYSTEM |
| US16/923,446 US10901690B2 (en) | 2018-01-08 | 2020-07-08 | Display device and system comprising same |
| US17/146,287 US11704089B2 (en) | 2018-01-08 | 2021-01-11 | Display device and system comprising same |
| US18/214,396 US12079544B2 (en) | 2018-01-08 | 2023-06-26 | Display device and system comprising same |
| US18/790,694 US20240394016A1 (en) | 2018-01-08 | 2024-07-31 | Display device and system comprising same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/KR2018/000372 WO2019135433A1 (ko) | 2018-01-08 | 2018-01-08 | 디스플레이 장치 및 디스플레이 장치를 포함하는 시스템 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US16/923,446 Continuation US10901690B2 (en) | 2018-01-08 | 2020-07-08 | Display device and system comprising same |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019135433A1 true WO2019135433A1 (ko) | 2019-07-11 |
Family
ID=67143759
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2018/000372 Ceased WO2019135433A1 (ko) | 2018-01-08 | 2018-01-08 | 디스플레이 장치 및 디스플레이 장치를 포함하는 시스템 |
Country Status (4)
| Country | Link |
|---|---|
| US (4) | US10901690B2 (ko) |
| EP (2) | EP4319174A3 (ko) |
| CN (1) | CN111742557B (ko) |
| WO (1) | WO2019135433A1 (ko) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP4037328A4 (en) * | 2019-09-27 | 2023-08-30 | LG Electronics Inc. | Display device and artificial intelligence system |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP4319174A3 (en) | 2018-01-08 | 2024-04-24 | LG Electronics Inc. | Display device and system comprising same |
| EP4002087A4 (en) * | 2019-07-19 | 2023-04-12 | LG Electronics Inc. | DISPLAY DEVICE AND ARTIFICIAL INTELLIGENCE SERVER CAPABLE OF CONTROLLING A HOME APPLIANCE VIA A USER'S VOICE |
| US20210304259A1 (en) * | 2020-03-31 | 2021-09-30 | Salesforce.Com, Inc. | Methods and systems for delivery of customized content via voice recognition |
| CN113490041B (zh) * | 2021-06-30 | 2023-05-05 | Vidaa美国公司 | 语音功能切换方法及显示设备 |
| KR20240044260A (ko) * | 2022-09-28 | 2024-04-04 | 엘지전자 주식회사 | 디스플레이 장치 및 그의 동작 방법 |
| US20250140252A1 (en) * | 2023-10-25 | 2025-05-01 | Vizio, Inc. | Systems and methods for voice-based trigger for supplemental content |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110282906A1 (en) * | 2010-05-14 | 2011-11-17 | Rovi Technologies Corporation | Systems and methods for performing a search based on a media content snapshot image |
| KR20130092243A (ko) * | 2012-02-10 | 2013-08-20 | 주식회사 이노피아테크 | 취침 예약 시각을 설정하는 방법 및 장치 |
| KR20150145499A (ko) * | 2014-06-20 | 2015-12-30 | 엘지전자 주식회사 | 디스플레이 장치 및 그의 동작 방법 |
| KR20160032937A (ko) * | 2014-09-17 | 2016-03-25 | 삼성전자주식회사 | 영상 재생 장치에 의해 캡쳐된 이미지에 관련된 연관 정보를 휴대용 디바이스에게 제공하는 방법 및 시스템 |
| KR20160058523A (ko) * | 2014-11-17 | 2016-05-25 | 삼성전자주식회사 | 음성 인식 시스템, 서버, 디스플레이 장치 및 그 제어 방법 |
Family Cites Families (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000152124A (ja) * | 1998-11-13 | 2000-05-30 | Victor Co Of Japan Ltd | テレビジョン受像機の制御方法 |
| JP4357036B2 (ja) | 1999-08-06 | 2009-11-04 | 株式会社トーエネック | アンテナ切換システム |
| US7096185B2 (en) * | 2000-03-31 | 2006-08-22 | United Video Properties, Inc. | User speech interfaces for interactive media guidance applications |
| US8316408B2 (en) * | 2006-11-22 | 2012-11-20 | Verizon Patent And Licensing Inc. | Audio processing for media content access systems and methods |
| US8000972B2 (en) * | 2007-10-26 | 2011-08-16 | Sony Corporation | Remote controller with speech recognition |
| US10116972B2 (en) * | 2009-05-29 | 2018-10-30 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
| JP5854183B2 (ja) * | 2010-03-02 | 2016-02-09 | セイコーエプソン株式会社 | 液体噴射ヘッド、液体噴射装置、圧電素子、超音波センサー及び赤外センサー |
| WO2013022135A1 (en) * | 2011-08-11 | 2013-02-14 | Lg Electronics Inc. | Electronic device and method of controlling the same |
| KR20130140423A (ko) * | 2012-06-14 | 2013-12-24 | 삼성전자주식회사 | 디스플레이 장치, 대화형 서버 및 응답 정보 제공 방법 |
| KR101309794B1 (ko) * | 2012-06-27 | 2013-09-23 | 삼성전자주식회사 | 디스플레이 장치, 디스플레이 장치의 제어 방법 및 대화형 시스템 |
| US8799959B2 (en) * | 2012-08-16 | 2014-08-05 | Hoi L. Young | User interface for entertainment systems |
| KR101330671B1 (ko) * | 2012-09-28 | 2013-11-15 | 삼성전자주식회사 | 전자장치, 서버 및 그 제어방법 |
| KR20140089862A (ko) * | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
| KR20140089871A (ko) * | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | 대화형 서버, 그 제어 방법 및 대화형 시스템 |
| KR20140093303A (ko) * | 2013-01-07 | 2014-07-28 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
| KR102019719B1 (ko) | 2013-01-17 | 2019-09-09 | 삼성전자 주식회사 | 영상처리장치 및 그 제어방법, 영상처리 시스템 |
| KR20150012464A (ko) * | 2013-07-25 | 2015-02-04 | 삼성전자주식회사 | 디스플레이 장치 및 개인화 서비스 제공 방법 |
| CN106162334A (zh) * | 2016-08-18 | 2016-11-23 | 深圳Tcl新技术有限公司 | 电视定时开关机的设置方法和装置 |
| KR102527082B1 (ko) * | 2018-01-04 | 2023-04-28 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
| EP4319174A3 (en) | 2018-01-08 | 2024-04-24 | LG Electronics Inc. | Display device and system comprising same |
-
2018
- 2018-01-08 EP EP23216984.7A patent/EP4319174A3/en active Pending
- 2018-01-08 CN CN201880090020.9A patent/CN111742557B/zh active Active
- 2018-01-08 WO PCT/KR2018/000372 patent/WO2019135433A1/ko not_active Ceased
- 2018-01-08 EP EP18898194.8A patent/EP3739892A4/en active Pending
-
2020
- 2020-07-08 US US16/923,446 patent/US10901690B2/en active Active
-
2021
- 2021-01-11 US US17/146,287 patent/US11704089B2/en active Active
-
2023
- 2023-06-26 US US18/214,396 patent/US12079544B2/en active Active
-
2024
- 2024-07-31 US US18/790,694 patent/US20240394016A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110282906A1 (en) * | 2010-05-14 | 2011-11-17 | Rovi Technologies Corporation | Systems and methods for performing a search based on a media content snapshot image |
| KR20130092243A (ko) * | 2012-02-10 | 2013-08-20 | 주식회사 이노피아테크 | 취침 예약 시각을 설정하는 방법 및 장치 |
| KR20150145499A (ko) * | 2014-06-20 | 2015-12-30 | 엘지전자 주식회사 | 디스플레이 장치 및 그의 동작 방법 |
| KR20160032937A (ko) * | 2014-09-17 | 2016-03-25 | 삼성전자주식회사 | 영상 재생 장치에 의해 캡쳐된 이미지에 관련된 연관 정보를 휴대용 디바이스에게 제공하는 방법 및 시스템 |
| KR20160058523A (ko) * | 2014-11-17 | 2016-05-25 | 삼성전자주식회사 | 음성 인식 시스템, 서버, 디스플레이 장치 및 그 제어 방법 |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP4037328A4 (en) * | 2019-09-27 | 2023-08-30 | LG Electronics Inc. | Display device and artificial intelligence system |
| US12190876B2 (en) | 2019-09-27 | 2025-01-07 | Lg Electronics Inc. | Display device and artificial intelligence system |
Also Published As
| Publication number | Publication date |
|---|---|
| US20240394016A1 (en) | 2024-11-28 |
| EP3739892A4 (en) | 2021-08-04 |
| EP4319174A2 (en) | 2024-02-07 |
| US20230350639A1 (en) | 2023-11-02 |
| US11704089B2 (en) | 2023-07-18 |
| CN111742557A (zh) | 2020-10-02 |
| CN111742557B (zh) | 2024-01-19 |
| US10901690B2 (en) | 2021-01-26 |
| US20200341730A1 (en) | 2020-10-29 |
| US12079544B2 (en) | 2024-09-03 |
| US20210132901A1 (en) | 2021-05-06 |
| EP3739892A1 (en) | 2020-11-18 |
| EP4319174A3 (en) | 2024-04-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2018216865A1 (en) | Display device and operating method thereof | |
| WO2019135433A1 (ko) | 디스플레이 장치 및 디스플레이 장치를 포함하는 시스템 | |
| WO2016204520A1 (en) | Display device and operating method thereof | |
| WO2021060590A1 (ko) | 디스플레이 장치 및 인공 지능 시스템 | |
| WO2019009453A1 (ko) | 디스플레이 장치 | |
| WO2021010511A1 (ko) | 디스플레이 장치 | |
| WO2021060575A1 (ko) | 인공 지능 서버 및 그의 동작 방법 | |
| WO2021033785A1 (ko) | 사용자의 음성을 통해 가전 기기를 제어할 수 있는 디스플레이 장치 및 인공 지능 서버 | |
| WO2021045278A1 (ko) | 디스플레이 장치 | |
| WO2021015319A1 (ko) | 디스플레이 장치 및 그의 동작 방법 | |
| WO2020166742A1 (ko) | 디스플레이 장치 및 그의 동작 방법 | |
| WO2025084447A1 (ko) | 인공 지능 시스템 및 그의 동작 방법 | |
| WO2020262732A1 (ko) | 디스플레이 장치 | |
| WO2020230923A1 (ko) | 음성 인식 서비스를 제공하기 위한 디스플레이 장치 및 그의 동작 방법 | |
| WO2023200026A1 (ko) | 디스플레이 장치 | |
| WO2017126774A1 (ko) | 디스플레이 장치 및 그의 동작 방법 | |
| WO2021045243A1 (ko) | 디스플레이 장치 및 그 제어 방법 | |
| WO2021010518A1 (ko) | 디스플레이 장치 | |
| WO2022255513A1 (ko) | 디스플레이 장치 및 그의 동작 방법 | |
| WO2020222322A1 (ko) | 음성 인식 서비스를 제공하기 위한 디스플레이 장치 | |
| WO2020235724A1 (ko) | 디스플레이 장치 | |
| WO2021177495A1 (ko) | 자연어 처리 장치 | |
| WO2025254240A1 (ko) | 디스플레이 장치 및 그의 동작 방법 | |
| WO2021015307A1 (ko) | 사용자의 음성을 통해 가전 기기를 제어할 수 있는 디스플레이 장치 및 인공 지능 서버 | |
| WO2025037655A1 (ko) | 디스플레이 장치 및 그의 동작 방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18898194 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2018898194 Country of ref document: EP Effective date: 20200810 |