[go: up one dir, main page]

FR2996343A3 - Dispositif electronique - Google Patents

Dispositif electronique Download PDF

Info

Publication number
FR2996343A3
FR2996343A3 FR1261807A FR1261807A FR2996343A3 FR 2996343 A3 FR2996343 A3 FR 2996343A3 FR 1261807 A FR1261807 A FR 1261807A FR 1261807 A FR1261807 A FR 1261807A FR 2996343 A3 FR2996343 A3 FR 2996343A3
Authority
FR
France
Prior art keywords
command
voice
voice recognition
user
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1261807A
Other languages
English (en)
Other versions
FR2996343B3 (fr
Inventor
Do-Wan Kim
Oh-Yun Kwon
Tae-Hwan Cha
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of FR2996343A3 publication Critical patent/FR2996343A3/fr
Application granted granted Critical
Publication of FR2996343B3 publication Critical patent/FR2996343B3/fr
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6543Transmission by server directed to the client for forcing some client operations, e.g. recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Selective Calling Equipment (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

La présente invention concerne un appareil d'affichage (1) comprenant : un processeur qui traite un signal ; une unité d'affichage qui affiche une image sur la base du signal traité ; un récepteur de commande qui reçoit une commande vocale depuis un utilisateur ; une unité de communication qui communique avec un premier serveur (2); une unité de stockage, et un contrôleur.

Description

DISPOSITIF ÉLECTRONIQUE Des appareils et des procédés selon des modes de réalisation donnés à titre d'exemple concernent un dispositif électronique, et plus particulièrement, un dispositif électronique qui reconnaît une commande d'utilisateur et fonctionne sous le contrôle de la commande en utilisant le serveur. Un dispositif électronique tel qu'un téléviseur (TV), un décodeur, un lecteur de DVD (Digital Versatile Disc), un climatiseur, un réfrigérateur, et un ordinateur fonctionne sous le contrôle d'une commande d'utilisateur. Le dispositif électronique est contrôlé par différents types de commandes tels qu'une reconnaissance vocale par l'intermédiaire d'un microphone, conformément au développement de la technologie et à la diversification de fonctions dépassant un procédé d'entrée conventionnel utilisant une télécommande. Dans le cas d'un dispositif électronique tel qu'un téléviseur, si un utilisateur prononce, « Changer le volume à 20 », le dispositif électronique reçoit et interprète un signal vocal par l'intermédiaire d'une technologie de reconnaissance vocale et change le volume à 20 en conséquence. Le dispositif électronique utilise une configuration de reconnaissance de commande pour interpréter correctement une commande d'utilisateur. Cependant, un dispositif électronique peut ne pas être capable d'interpréter précisément la commande. Dans ce cas, un serveur externe par l'intermédiaire d'un réseau peut être utilisé. Plus spécifiquement, pour reconnaître la voix, le dispositif électronique transmet le contenu d'une commande vocale d'utilisateur au serveur, qui interprète et détermine une intention d'utilisateur concernant la commande vocale en utilisant une configuration de reconnaissance vocale disposée dans le serveur. Le serveur transmet le résultat d'analyse au dispositif électronique, qui peut exécuter une fonction correspondante en utilisant le résultat d'analyse. Cependant, si un dispositif électronique de l'art antérieur ne peut pas identifier une commande d'utilisateur lui-même, le dispositif électronique doit communiquer avec le serveur et recevoir le résultat d'analyse depuis le serveur. En conséquence, le temps de communication entre le dispositif électronique et le serveur par l'intermédiaire du réseau ne permet pas d'exécuter des fonctions sur la base du résultat d'analyse. Le temps de communication qui est utilisé pour obtenir le résultat d'analyse concernant la commande d'utilisateur dépend de l'état du réseau ou la fréquence de communication, mais retarde fondamentalement le temps pour reconnaître la commande d'utilisateur et exécuter la fonction correspondante.
En conséquence, un ou plusieurs modes de réalisation donnés à titre d'exemple décrivent un dispositif électronique qui réduit au minimum le temps pour reconnaître une commande d'utilisateur et exécuter une opération. Selon l'invention, ce but est atteint par un appareil d'affichage comprenant un processeur qui traite un signal ; une unité d'affichage qui affiche une image sur la base du signal traité ; un récepteur de commande qui reçoit une commande vocale depuis un utilisateur ; une unité de communication qui communique avec un premier serveur ; une unité de stockage et un contrôleur qui reçoit, depuis le premier serveur , une liste de commandes de reconnaissance vocale comprenant une commande de reconnaissance vocale et des informations de commande de contrôle correspondant à la commande de reconnaissance vocale, et stocke la liste de commandes de reconnaissance vocale reçue dans l'unité de stockage, la commande de reconnaissance vocale faisant partie des commandes vocales d'utilisateur qui ont été reconnues avec succès un nombre prédéterminé de fois ou plus. En réponse à la réception de la commande vocale, il est déterminé si la commande vocale reçue correspond à la commande de reconnaissance vocale comprise dans la liste de commandes de reconnaissance vocale stockée. En réponse à la détermination que la commande vocale reçue correspond à la commande de reconnaissance vocale comprise dans la liste de reconnaissance vocale stockée, le contrôleur contrôle le processeur pour fonctionner sur la base des informations de commande de contrôle correspondant à la commande de reconnaissance vocale comprise dans la liste de reconnaissance vocale stockée. En réponse à la détermination que la commande vocale reçue ne correspond pas à la commande de reconnaissance vocale comprise dans la liste de reconnaissance vocale stockée, le contrôleur transmet la commande vocale reçue à un premier serveur, reçoit des informations de commande de contrôle correspondantes depuis le premier serveur, et contrôle le processeur pour fonctionner sur la base des informations de commande de contrôle reçues.
Suivant des modes de réalisation particuliers, l'appareil d'affichage comprend une ou plusieurs des caractéristiques suivantes, prise(s) isolément ou suivant toute combinaison techniquement possible : - le contrôleur détermine si la commande vocale reçue correspond à la 5 commande de reconnaissance vocale comprise dans la liste de commandes de reconnaissance vocale stockée sur la base d'une correspondance déterminée entre la commande vocale reçue et la commande de reconnaissance vocale. - en réponse à un temps prédéterminé écoulé après que la commande vocale reçue ait été transmise au premier serveur, le contrôleur contrôle le 10 processeur pour fonctionner sur la base de la commande de reconnaissance vocale comprise dans la liste de commandes de reconnaissance vocale stockée. - en réponse au temps prédéterminé écoulé après que la commande vocale reçue ait été transmise au premier serveur, le contrôleur notifie à l'utilisateur un contenu de la commande de reconnaissance vocale comprise dans la liste de 15 commandes de reconnaissance vocale stockée à l'avance, et détermine s'il doit contrôler le processeur pour fonctionner sur la base de la commande de reconnaissance vocale conformément à une réponse de l'utilisateur à la notification. - si la commande vocale reçue est nouvellement reconnue pour un 20 utilisateur, le contrôleur transmet, au premier serveur, la commande vocale reconnue et les informations de commande de contrôle correspondant à la commande vocale reconnue. - le contrôleur transmet, à un deuxième serveur, la commande vocale reçue, reçoit, depuis le deuxième serveur, un texte dans lequel la commande transmise a 25 été convertie, et transmet le texte reçu au premier serveur. - le contrôleur stocke dans le stockage des commandes vocales pour chaque utilisateur, et afficher une liste des commandes vocales stockées sous la forme d'une interface utilisateur (UI). - le contrôleur enregistre un symbole d'identification correspondant à la 30 commande vocale sous une instruction d'utilisateur, et en réponse au symbole d'identification enregistré prononcé par l'utilisateur, détermine que la commande vocale a été reçue. - si un emplacement auquel une commande vocale est agencée dans la liste est prononcé, le contrôleur détermine que la commande vocale a été reçue. Selon un aspect d'un autre mode de réalisation donné à titre d'exemple, il est décrit un serveur qui analyse une commande vocale d'utilisateur vers un appareil d'affichage, le serveur comprenant : un communicateur qui communique avec un appareil d'affichage ; un stockage qui stocke des informations concernant une commande vocale d'utilisateur ; et un contrôleur qui, en réponse à la réception d'une demande depuis l'appareil d'affichage pour analyse d'une commande vocale d'utilisateur, transmet des informations de commande de contrôle correspondant à la commande vocale à l'appareil de traitement, stocke dans le stockage une liste de commandes de reconnaissance vocale comprenant une commande de reconnaissance vocale et des informations de commande de contrôle correspondantes, et transmet la liste de commandes de reconnaissance vocale stockée à l'appareil d'affichage, la commande de reconnaissance vocale faisant partie des commandes vocales d'utilisateur qui ont été reconnues avec succès un nombre prédéterminé de fois ou plus. Le contrôleur peut recevoir une commande vocale d'utilisateur qui a été reconnue avec succès, et des informations de commande de contrôle correspondantes depuis l'appareil d'affichage, et préparer la liste de commandes de reconnaissance vocale sur la base de la commande vocale d'utilisateur reçue et des informations de commande de contrôle correspondantes. Les aspects ci-dessus et/ou autres apparaîtront et seront mieux appréciés à la lecture de la description faite ci-après de modes de réalisation donnés à titre d'exemple, en référence aux dessins annexés, dans lesquels : la figure 1 est un schéma de principe d'un dispositif électronique et d'un serveur d'analyse selon un mode de réalisation donné à titre d'exemple ; la figure 2 est un schéma de principe d'un dispositif électronique selon un mode de réalisation donné à titre d'exemple ; la figure 3 est un schéma de principe d'un serveur d'analyse selon un mode de réalisation donné à titre d'exemple ; la figure 4 est un organigramme représentant les opérations d'un dispositif électronique selon un mode de réalisation donné à titre d'exemple ; la figure 5 illustre un exemple d'une liste de commandes de reconnaissance vocale selon un mode de réalisation donné à titre d'exemple ; la figure 6 est un organigramme représentant une opération de détermination de la possibilité d'analyse par un dispositif électronique selon un mode de réalisation donné à titre d'exemple ; la figure 7 est un organigramme représentant un autre exemple d'opérations d'un dispositif électronique selon un mode de réalisation donné à titre d'exemple ; la figure 8 est un organigramme représentant un autre exemple d'opérations d'un dispositif électronique selon un mode de réalisation donné à titre d'exemple ; la figure 9 illustre un exemple d'un dispositif électronique et un serveur d'analyse selon un mode de réalisation donné à titre d'exemple ; la figure 10 est un organigramme représentant les opérations d'un serveur selon un mode de réalisation donné à titre d'exemple ; la figure 11 est un organigramme représentant les opérations d'un serveur selon un mode de réalisation donné à titre d'exemple ; la figure 12 est un schéma de principe d'un dispositif électronique, un serveur d'analyse, et un serveur de reconnaissance vocale (STT) selon un mode de réalisation donné à titre d'exemple ; et Les figures 13 et 14 illustrent un exemple d'une liste de commandes vocales qui est stockée par utilisateur selon un mode de réalisation donné à titre d'exemple. Ci-dessous, des modes de réalisation donnés à titre d'exemple sont décrits de façon détaillée en référence à des dessins annexés de manière à être aisément réalisés par l'homme du métier. Des modes de réalisation donnés à titre d'exemple peuvent être réalisés sous différentes formes sans être limités aux modes de réalisation donnés à titre d'exemple présentement décrits. Des descriptions de parties connues sont omises par souci de clarté, et des numéros de référence similaires désignent des éléments similaires globalement. La figure 1 est un schéma de principe d'un dispositif électronique 1 et un serveur d'analyse 2 selon un mode de réalisation donné à titre d'exemple. Un dispositif électronique 1 et un serveur d'analyse 2 selon un mode de réalisation donné à titre d'exemple sont connectés mutuellement par l'intermédiaire d'un réseau 3. Le dispositif électronique 1 fonctionne sous une commande d'utilisateur et comprend, par exemple, des appareils domestiques ou des dispositifs portatifs personnels tels qu'un téléviseur (TV), un décodeur, un lecteur de DVD (Digital Versatile Disc), un climatiseur, un réfrigérateur, un ordinateur, un téléphone mobile, un téléphone intelligent, une tablette intelligente, etc., et des appareils de bureau tels qu'une imprimante et une photocopieuse et d'autre dispositifs quelconques qui fonctionnent sur la base de circuits électriques/électroniques. Une commande d'utilisateur selon le présent mode de réalisation donné à titre d'exemple comprend des informations sur la base desquelles le dispositif électronique 1 peut déterminer l'exécution d'une opération prédéterminée sous l'action d'un utilisateur. Le dispositif électronique 1 et le serveur d'analyse 2 analysent la commande d'utilisateur pour identifier la commande d'utilisateur. Par exemple, la commande d'utilisateur peut comprendre au moins l'un de la parole, un geste, et un aspect externe particulier d'un utilisateur. Ci-après, par souci de commodité de description, la commande d'utilisateur est, par exemple, une commande vocale et le dispositif électronique 1 comprend un appareil d'affichage tel qu'un téléviseur. Cependant, il est entendu que d'autres modes de réalisation donnés à titre d'exemple ne sont pas limités à cela. Le réseau 3 selon le présent mode de réalisation donné à titre d'exemple comprend un dispositif ou une infrastructure qui est utilisé pour échanger des informations concernant une commande vocale d'utilisateur entre le dispositif électronique 1 et le serveur d'analyse 2, et peut être un réseau câblé et/ou sans fil. Le serveur d'analyse 2 est connecté au réseau 3, analyse un service concernant une commande vocale d'utilisateur, c'est-à-dire, une commande vocale d'utilisateur pour le dispositif électronique 1 comme étant son client, et transmet le résultat d'analyse au dispositif électronique 1. Le serveur d'analyse 2 selon le présent mode de réalisation donné à titre d'exemple transmet, au dispositif électronique 1, une liste de commandes de reconnaissance vocale comprenant une commande de reconnaissance vocale qui fait partie des commandes vocales d'utilisateur qui ont été reconnues avec succès un nombre prédéterminé de fois ou plus et des informations de commande de contrôle correspondantes. Les informations de commande de contrôle sont utilisées pour contrôler le dispositif électronique 1 de manière à fonctionner comme souhaité par un utilisateur sous le contrôle de la commande de reconnaissance vocale. Le dispositif électronique 1 identifie la commande vocale d'utilisateur sur la base de la liste de commandes de reconnaissance vocale transmise par le serveur d'analyse 2. C'est-à-dire que, si la commande vocale d'utilisateur est entrée, le dispositif électronique 1 identifie si la commande vocale d'utilisateur correspond à une commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale, et si c'est le cas, fonctionne conformément aux informations de commande de contrôle de la commande de reconnaissance vocale. Inversement, si la commande vocale d'utilisateur ne correspond pas à une commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale, le dispositif électronique 1 transmet la commande vocale d'utilisateur au serveur d'analyse 2. Le serveur d'analyse 2 analyse la commande vocale d'utilisateur transmise par le dispositif électronique 1 et transmet des informations de commande de contrôle correspondantes au dispositif électronique 1. Le dispositif électronique 1 fonctionne conformément aux informations de commande de contrôle transmises par le serveur d'analyse 2. Selon le présent mode de réalisation donné à titre d'exemple, au lieu de transmettre toutes les commandes vocales d'utilisateur au serveur d'analyse 2, le dispositif électronique 1 identifie la commande vocale d'utilisateur sur la base de la liste de commandes de reconnaissance vocale transmise à l'avance par le serveur d'analyse 2, et si l'identification de la commande vocale d'utilisateur n'est pas disponible sur la base de la liste de commandes de reconnaissance vocale reçue, fonctionne selon les informations de commande de contrôle transmises par le serveur d'analyse 2. En conséquence, le temps de communication utilisé entre le dispositif électronique 1 et le serveur d'analyse 2 peut être réduit au minimum, et le temps nécessaire pour reconnaître la commande vocale d'utilisateur et exécuter l'opération peut être réduit au minimum. La figure 2 est un schéma de principe d'un dispositif électronique 1 selon un mode de réalisation donné à titre d'exemple. Le dispositif électronique 1 peut comprendre un exécuteur d'opération 11, une récepteur de commande 12, une unité de communication 13 (par exemple, un communicateur tel qu'une interface câblée et/ou sans fil, un port, une carte, une clé électronique, etc.), et un contrôleur 14. Le dispositif électronique 1 peut comprendre en outre une unité de stockage 15 (par exemple, un stockage tel qu'une mémoire RAM, une ROM, flash, un lecteur de disque dur, etc.). L'exécuteur d'opération 11 exécute des opérations du dispositif électronique 1. Par exemple, si le dispositif électronique 1 comprend un appareil d'affichage tel qu'un téléviseur, l'exécuteur d'opération 11 peut comprendre un récepteur de signal 111, un processeur d'image 112, et une unité d'affichage 113 (par exemple, un affichage tel qu'un écran à cristaux liquides, un écran plasma, un écran à diodes électroluminescentes organiques, etc.). Cependant, il est entendu que l'exécuteur d'opération 11 correspond à des opérations du produit qui réalise le dispositif électronique 1, et n'est pas limité à l'exemple décrit sur la figure 2.
Le récepteur de signal 111 peut recevoir un signal d'image inclus dans un signal de diffusion transmis par un appareil de transmission de signal de diffusion (non décrit), recevoir un signal d'image depuis un dispositif vidéo tel qu'un lecteur DVD, un lecteur de disque Blu-ray (BD), etc., recevoir un signal d'image depuis un ordinateur personnel (PC), recevoir un signal d'image depuis un dispositif mobile tel qu'un téléphone intelligent et une tablette intelligente, recevoir un signal d'image par l'intermédiaire d'un réseau tel qu'Internet, ou recevoir un signal d'image sous forme de contenu d'image stocké dans un support de stockage tel qu'un support de stockage USB (Universal Serial Bus). Le processeur d'image 112 traite un signal d'image reçu par le récepteur de signal 111 pour afficher une image. Le processeur d'image 112 peut exécuter des opérations de décodage, d'accentuation d'image et de mise à l'échelle. L'unité d'affichage 113 affiche une image sur celui-ci sur la base du signal d'image traité par le processeur d'image 112. Le procédé d'affichage d'image de l'unité d'affichage 113 n'est pas limité.
Le récepteur de commande 12 reçoit une commande vocale d'utilisateur. Par exemple, le récepteur de commande 12 peut comprendre un premier récepteur de commande 121 pour recevoir une commande vocale d'utilisateur. Le premier récepteur de commande 121 peut comprendre un microphone pour convertir une commande vocale d'utilisateur reçue en signal vocal. Le récepteur de commande 12 peut comprendre en outre un deuxième récepteur de commande 122 pour recevoir un commande de manipulation d'utilisateur. Le deuxième récepteur de commande 122 peut être mis en oeuvre sous la forme d'un récepteur de signal de télécommande qui reçoit un signal de télécommande comprenant les informations d'entrée de clé correspondant à une commande de manipulation d'utilisateur depuis une télécommande (non représenté) ou sous la forme d'un panneau de manipulation qui est disposé dans le dispositif électronique 1 et génère des informations d'entrée de clé correspondant à une manipulation d'utilisateur. L'unité de communication 13 communique avec le serveur d'analyse 2 par l'intermédiaire du réseau 3. L'unité de communication 13 échange la commande vocale d'utilisateur et les informations concernant le résultat d'analyse avec le serveur d'analyse 2 sous le contrôle du contrôleur 14.
Le contrôleur 14 contrôle l'exécuteur d'opération 11 pour exécuter des opérations sous une commande vocale d'utilisateur. En réponse à la réception d'une liste de commandes de reconnaissance vocale 151 depuis le serveur d'analyse 2 par l'intermédiaire de l'unité de communication 13, le contrôleur 14 stocke la liste de commandes de reconnaissance vocale reçue 151 dans l'unité de stockage 15. En réponse à la réception d'une commande vocale d'utilisateur par l'intermédiaire du récepteur de commande 12, le contrôleur 14 détermine si la commande vocale d'utilisateur correspond à une commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale stockée 151, et si c'est le cas, contrôle l'exécuteur d'opération 11 pour exécuter des opérations conformément aux informations de commande de contrôle correspondant à la commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale stockée 151. Si la commande vocale d'utilisateur ne correspond pas à une commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale stockée 151, le contrôleur 14 contrôle l'unité de communication 13 pour transmettre la commande vocale d'utilisateur au serveur d'analyse 2, et en réponse à la réception d'informations de commande de contrôle correspondant à la commande vocale transmise depuis le serveur d'analyse 2, contrôle l'exécuteur d'opération 11 pour exécuter des opérations conformément aux informations de commande de contrôle reçues.
Le contrôleur 14 peut comprendre une unité centrale (CPU), et peut exécuter un programme de contrôle pour une opération. Le contrôleur 14 peut comprendre en outre une mémoire non volatile telle qu'une mémoire flash pour stocker un programme de contrôle dans celle-ci, et une mémoire volatile telle qu'une mémoire à double taux de données (DDR) pour charger au moins une partie du programme de contrôle stocké pour accès rapide par l'unité centrale. Le programme de contrôle du contrôleur 14 est programmé pour contrôler les opérations de l'exécuteur d'opération 11.
La figure 3 est un schéma de principe d'un serveur d'analyse 2 selon un mode de réalisation donné à titre d'exemple. Le serveur d'analyse 2 comprend une unité de communication 21 (par exemple, un communicateur tel qu'une interface câblée et/ou sans fil, un port, une carte, une clé électronique, etc.), un contrôleur 22, et une unité de stockage 23 (par exemple, un stockage tel qu'une mémoire ROM, une mémoire flash, un lecteur de disque dur, etc.). L'unité de communication 21 communique avec l'unité de communication 13 du dispositif électronique 1 par l'intermédiaire du réseau 3. Le contrôleur 22 contrôle les opérations du serveur d'analyse 2. L'unité de stockage 23 en tant que mémoire non volatile stocke dans celle-ci une liste de commandes de reconnaissance vocale 231 correspondant à une commande vocale d'utilisateur. Le contrôleur 22 contrôle l'unité de communication 21 pour transmettre la liste de commandes de reconnaissance vocale 231 stockée dans l'unité de stockage 23 au dispositif électronique 1. En réponse à la réception d'une commande vocale d'utilisateur et d'une demande d'analyse pour la commande vocale d'utilisateur depuis le dispositif électronique 1, le contrôleur 22 analyse la commande vocale d'utilisateur reçue. Le contrôleur 22 contrôle l'unité de communication 21 pour transmettre le résultat d'analyse de la commande vocale d'utilisateur au dispositif électronique 1. La figure 4 est un organigramme représentant les opérations du dispositif électronique 1 selon un mode de réalisation donné à titre d'exemple. À l'opération S41, le dispositif électronique 1 reçoit la liste de commandes de reconnaissance vocale 151 depuis le serveur d'analyse 2. La liste de commandes de reconnaissance vocale reçue 151 peut être stockée dans l'unité de stockage 15. La figure 5 illustre un exemple de la liste de commandes de reconnaissance vocale 151 selon un mode de réalisation donné à titre d'exemple. La liste de commandes de reconnaissance vocale 151 peut comprendre une pluralité de commandes de reconnaissance vocale (« commande de reconnaissance vocale 1 », « commande de reconnaissance vocale 2 », « commande de reconnaissance vocale 3 », etc.), et une pluralité d'informations de commande de contrôle (« informations de commande de contrôle 1 », « informations de commande de contrôle 2 », « informations de commande de contrôle 3 », etc.) correspondant à la pluralité de commandes de reconnaissance vocale. La pluralité de commandes de reconnaissance vocale peut comprendre des commandes telles que « marche », « arrêt », ou « augmenter le volume ». La pluralité d'informations de commande de contrôle peut comprendre des informations de contrôle inhérentes concernant les opérations ou fonctions qui doivent être exécutées par le dispositif électronique 1 correspondant à la pluralité de commandes de reconnaissance vocale.
Si le dispositif électronique 1 est mis en marche, le dispositif électronique 1 peut demander au serveur d'analyse 2 de transmettre la liste de commandes de reconnaissance vocale 231. En réponse à la réception de la demande de transmission de la liste de commandes de reconnaissance vocale 231 provenant du dispositif électronique 1, le serveur d'analyse 2 peut transmettre la liste de commandes de reconnaissance vocale 231 au dispositif électronique 1. Le dispositif électronique 1 peut stocker, dans l'unité de stockage 15, la liste de commandes de reconnaissance vocale 231 transmise par le serveur d'analyse 2. Si l'unité de stockage 15 a déjà la liste de commandes de reconnaissance vocale 151 stockée dans celle-ci, le dispositif électronique 1 peut comparer la liste de commandes de reconnaissance vocale stockée 151 à la liste de commandes de reconnaissance vocale 231 qui a été transmise par le serveur d'analyse 2, et mettre à jour la liste de commandes de reconnaissance vocale stockée 151 sur la base de la liste de commandes de reconnaissance vocale reçue 231. À nouveau en référence à la figure 4, à l'opération S42, le dispositif électronique 1 reçoit une commande vocale d'utilisateur. À l'opération S43, le dispositif électronique 1 détermine si la commande vocale d'utilisateur reçue correspond à une commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale reçue 231. La figure 6 est un organigramme représentant une opération de détermination si la commande vocale correspond à une commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale reçue 231. À l'opération S61, le dispositif électronique 1 reçoit une commande vocale d'utilisateur. À l'opération S62, le dispositif électronique 1 détermine si la commande vocale reçue correspond à une commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale 151. La correspondance selon le présent mode de réalisation donné à titre d'exemple peut être déterminée, par exemple, par la similarité de la commande vocale reçue à la commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale 151. Par exemple, si un utilisateur prononce une commande « arrêt », et la liste de commandes de reconnaissance vocale 151 comprend une commande de reconnaissance vocale « arrêt » qui est sensiblement identique ou similaire à la commande dite par l'utilisateur, il peut être déterminé que la commande vocale est la plus proche de la commande de reconnaissance vocale dans la liste de commandes de reconnaissance vocale 151. Selon un autre exemple, si un utilisateur prononce une commande « augmenter le volume », et la liste de commandes de reconnaissance vocale 151 comprend une commande vocale « volume augmenté », les deux cas peuvent être étroitement liés. Dans ce cas, le dispositif électronique 1 peut déterminer que la correspondance entre la commande vocale et la commande de reconnaissance vocale correspondante dans la liste de commandes de reconnaissance vocale 151 est d'au moins une valeur prédéterminée ou plus. Selon un autre exemple, si un utilisateur prononce une commande « augmenter la luminosité de l'écran », et s'il est identifié que la liste de commandes de reconnaissance vocale 151 ne comprend pas une commande de reconnaissance vocale similaire quelconque, le dispositif électronique 1 peut déterminer que la correspondance entre la commande vocale et la commande de reconnaissance vocale correspondante dans la liste de commandes de reconnaissance vocale 151 est inférieure à la valeur prédéterminée. De retour à la figure 6, à l'opération S63, s'il est déterminé que la liste de commandes de reconnaissance vocale 151 comprend une commande de reconnaissance vocale dont la correspondance avec la commande vocale est d'une valeur prédéterminée ou plus, le dispositif électronique 1 détermine que la commande vocale correspond à la commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale 151 à l'opération S64. Au contraire, s'il est déterminé que la liste de commandes de reconnaissance vocale 151 ne comprend pas de commande vocale dont la correspondance avec la commande vocale est de la valeur prédéterminée ou plus, le dispositif électronique 1 détermine que la commande vocale ne correspond pas à la commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale 151 à l'opération S64.
De retour à la figure 4, s'il est déterminé que la commande vocale d'utilisateur correspond à la commande de reconnaissance vocale dans la liste de commandes de reconnaissance vocale reçue 151 à l'opération S44, le dispositif électronique 1 fonctionne selon les informations de commande de contrôle correspondant à la commande de reconnaissance vocale dans la liste de commandes de reconnaissance vocale 151 à l'opération S45. Par exemple, le dispositif électronique 1 exécute des opérations en référence aux informations de commande de contrôle correspondant aux commandes de reconnaissance vocale telles que « arrêt » et « volume augmenté » comprises dans la liste de commandes de reconnaissance vocale 151, correspondant aux commandes vocales d'utilisateur telles que « arrêt » et « augmenter le volume ». À l'opération S46, s'il est déterminé que la commande vocale d'utilisateur ne correspond pas à la commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale reçue 151, le dispositif électronique 1 transmet la commande vocale d'utilisateur au serveur d'analyse 2 à l'opération S46. Par exemple, si la commande vocale d'utilisateur « augmenter la luminosité de l'écran » n'est pas identifiée sur la base de la liste de commandes de reconnaissance vocale 151, le dispositif électronique 1 transmet les informations de la commande vocale « augmenter la luminosité de l'écran » au serveur d'analyse 2. À l'opération S47, le dispositif électronique 1 reçoit des informations de commande de contrôle correspondant à la commande vocale depuis le serveur d'analyse 2. Par exemple, le dispositif électronique 1 reçoit des informations de commande de contrôle correspondant à la commande vocale en tant que résultat d'analyse de la commande vocale « augmenter la luminosité de l'écran ». À l'opération S48, le dispositif électronique 1 fonctionne conformément aux informations de commande de contrôle reçues. La figure 12 illustre un exemple de serveur de reconnaissance vocale (STT) 4 selon un mode de réalisation donné à titre d'exemple. Le dispositif électronique 1 peut traiter les informations concernant la commande vocale d'utilisateur, c'est- à-dire, la parole émise par l'utilisateur, en texte. Par exemple, le dispositif électronique 1 transmet la commande vocale d'utilisateur reçue au serveur STT 4. Le serveur STT 4 comprend un convertisseur STT 41 qui convertit la commande vocale d'utilisateur transmise par le dispositif électronique 1 en un texte correspondant. Le serveur STT 4 transmet le texte dans lequel la commande vocale d'utilisateur a été convertie, au dispositif électronique 1. Le dispositif électronique 1 peut déterminer, sur la base du texte transmis par le serveur STT 4, si la commande vocale d'utilisateur correspond à la commande de reconnaissance vocale incluse dans la liste de commandes de reconnaissance vocale stockée. Le dispositif électronique 1 peut transmettre le texte fourni par le serveur STT 4 au serveur 1 et demander au serveur 1 d'analyser la commande vocale d'utilisateur. La figure 7 est un organigramme représentant un autre exemple d'opérations d'un dispositif électronique 1 selon un mode de réalisation donné à titre d'exemple. Dans le présent mode de réalisation donné à titre d'exemple, le cas dans lequel la commande vocale d'utilisateur est déterminée comme ne correspondant pas à la commande de reconnaissance vocale dans la liste de commandes de reconnaissance vocale reçue 151 est décrit. À l'opération S71, le dispositif électronique 1 transmet une commande vocale d'utilisateur au serveur d'analyse 2. À l'opération S72, le dispositif électronique 1 détermine si les informations de commande de contrôle correspondant à la commande vocale d'utilisateur ont été reçues depuis le serveur d'analyse 2. Si le dispositif électronique 1 a reçu les informations de commande de contrôle correspondant à la commande vocale d'utilisateur depuis le serveur d'analyse 2, le dispositif électronique 1 fonctionne conformément aux informations de commande de contrôle transmises par le serveur d'analyse 2 à l'opération S73. Si le dispositif électronique 1 n'a pas reçu les informations de commande de contrôle correspondant à la commande vocale d'utilisateur depuis le serveur d'analyse 2, le dispositif électronique 1 détermine si un temps prédéterminé s'est écoulé après que la commande vocale d'utilisateur ait été transmise au serveur d'analyse 2 à l'opération S74. Si le temps prédéterminé ne s'est pas écoulé, l'opération S72 est à nouveau exécutée. Au contraire, si le temps prédéterminé s'est écoulé, le dispositif électronique 1 fonctionne sous le contrôle de la commande de reconnaissance vocale dans la liste de commandes de reconnaissance vocale reçue 151 à l'opération S74. Par exemple, si un utilisateur prononce une commande « réduire l'écran », le dispositif électronique 1 peut déterminer que la liste de commandes de reconnaissance vocale comprend la commande vocale « rendre l'écran plus petit » et la correspondance entre les deux commandes est inférieure à une valeur prédéterminée. En conséquence, dans ce cas, le dispositif électronique 1 demande au serveur d'analyse 2 le résultat d'analyse. Cependant, s'il faut un temps long pour recevoir le résultat d'analyse depuis le serveur d'analyse 2 en raison des conditions de communication, etc., il peut être peu pratique ou difficile pour un utilisateur d'attendre un temps long jusqu'à ce que l'opération soit exécutée. Dans ce cas, si un temps prédéterminé s'écoule après que le dispositif électronique 1 ait demandé au serveur d'analyse 2 le résultat d'analyse, le dispositif électronique 1 peut fonctionner rapidement sous le contrôle de la commande de reconnaissance vocale dont la correspondance est inférieure à une valeur prédéterminée. Par exemple, le dispositif électronique 1 fonctionne sous une commande de reconnaissance vocale « rendre l'écran plus petit » dans la liste de commandes de reconnaissance vocale 151 correspondant à la commande vocale d'utilisateur « réduire l'écran ». S'il y a plusieurs commandes de reconnaissance vocale qui sont associées à la commande vocale, le dispositif électronique 1 peut dans un premier temps sélectionner la commande de reconnaissance vocale la plus proche parmi la pluralité de commandes de reconnaissance vocale pour son opération. Dans le présent mode de réalisation donné à titre d'exemple, le temps pendant lequel un utilisateur attend l'opération peut être réduit au minimum de manière à améliorer la commodité de l'utilisateur.
Selon un autre mode de réalisation donné à titre d'exemple, l'utilisation d'une commande de reconnaissance vocale dont la correspondance est faible peut ne pas être cohérente avec une intention d'utilisateur, et donc une telle opération peut être empêchée. La figure 8 est un organigramme représentant un autre exemple d'opérations d'un dispositif électronique 1 selon un mode de réalisation donné à titre d'exemple. Dans le présent mode de réalisation donné à titre d'exemple, le cas dans lequel un temps prédéterminé s'est écoulé après que le dispositif électronique 1 ait demandé au serveur d'analyse 2 une analyse et il existe une commande de reconnaissance vocale qui est déterminée comme étant associée à la commande vocale à un certain degré est décrit. À l'opération S81, le dispositif électronique 1 notifie à un utilisateur le contenu de la commande de reconnaissance vocale avant que le dispositif électronique 1 fonctionne sous le contrôle de la commande de reconnaissance vocale qui a été déterminée comme étant associée à la commande vocale à un certain degré. Plus spécifiquement, le dispositif électronique 1 peut afficher sur l'unité d'affichage 113 un message qui demande à un utilisateur si une commande vocale d'utilisateur actuelle est située sous une commande de reconnaissance vocale qui a été déterminée comme étant associée à un certain degré. Par exemple, si un utilisateur prononce une commande vocale « réduire l'écran », un message demandant à un utilisateur si la commande de reconnaissance vocale « rendre l'écran plus petit » dans la liste de commandes de reconnaissance vocale 151 est cohérente avec une intention d'utilisateur. À l'opération S82, le dispositif électronique 1 reçoit une intention d'utilisateur concernant la commande de reconnaissance vocale par l'intermédiaire du deuxième récepteur de commande 122. S'il est déterminé qu'un utilisateur est en accord avec la commande de reconnaissance vocale à l'opération S83, le dispositif électronique 1 fonctionne sous le contrôle de la commande de reconnaissance vocale à l'opération S84. Au contraire, s'il est déterminé qu'un utilisateur n'est pas en accord avec la commande de reconnaissance vocale à l'opération S84, le dispositif électronique 1 ne fonctionne pas sous le contrôle de la commande de reconnaissance vocale. En conséquence, dans le présent mode de réalisation donné à titre d'exemple, le dispositif électronique 1 fonctionne de manière plus similaire à une intention d'utilisateur de manière à améliorer la commodité d'un utilisateur.
Selon un autre mode de réalisation donné à titre d'exemple, si aucune commande de reconnaissance vocale dans la liste de commandes de reconnaissance vocale 151 ne correspond à la commande vocale d'utilisateur, le dispositif électronique 1 peut afficher une pluralité de commandes de reconnaissance vocale incluses dans la liste de commandes de reconnaissance vocale 151, et permettre à un utilisateur de sélectionner l'une de la pluralité de commandes de reconnaissance vocale qui est cohérente avec l'intention d'utilisateur concernant la commande vocale. Si un utilisateur sélectionne l'une de la pluralité de commandes de reconnaissance vocale, le dispositif électronique 1 fonctionne sur la base des informations de commande de contrôle correspondant à la commande de reconnaissance vocale sélectionnée. Dans la situation dans laquelle la liste de commandes de reconnaissance vocale stockée 151 ne comprend pas une commande de reconnaissance vocale correspondant à la commande vocale d'utilisateur, s'il est déterminé sur la base de l'intention d'utilisateur que la commande vocale d'utilisateur est reconnue nouvellement et avec succès, le dispositif électronique 1 ajoute, à la liste de commandes de reconnaissance vocale 151, des informations de commande de contrôle qui sont utilisées de manière à correspondre à la commande vocale reconnue et stocke les informations. Dans ce cas, le dispositif électronique 1 peut transmettre la commande vocale reconnue et les informations de commande de contrôle correspondantes au serveur d'analyse 2, qui met à jour la liste de commandes de reconnaissance vocale 231. La figure 13 illustre un exemple d'interface utilisateur (UI) 131 qui présente une liste de commandes vocales stockée selon un mode de réalisation donné à titre d'exemple. Le dispositif électronique 1 stocke dans celui-ci la commande vocale dite par un utilisateur, et sur demande d'un utilisateur, peut afficher la liste des commandes vocales stockées sous la forme d'une interface utilisateur. Comme décrit sur la figure 13, la liste des commandes vocales stockées affichée en tant qu'interface utilisateur 131 présente les commandes vocales 132 qui ont été dites par un utilisateur. Le dispositif électronique 1 peut stocker les commandes vocales par utilisateur, et afficher les commandes vocales stockées 132 par utilisateur (numéro de référence 133). Le dispositif électronique 1 peut afficher la liste des commandes vocales stockées dans laquelle les commandes vocales 132 sont triées dans l'ordre du nombre de fois que les commandes vocales 132 ont été dites par un utilisateur. En conséquence, un utilisateur peut aisément afficher les commandes vocales que l'utilisateur a précédemment dites, par l'intermédiaire de l'interface utilisateur 131, et commodément dire les commandes vocales.
Selon un mode de réalisation donné à titre d'exemple, des symboles d'identification peuvent être enregistrés (par exemple, stockés) par un utilisateur par commande vocale, et si un utilisateur prononce le symbole d'identification enregistré ultérieurement, le dispositif électronique 1 peut déterminer que la commande vocale correspondante a été reçue. L'interface utilisateur 131 présentant la liste de commandes vocales stockées peut afficher en outre un symbole d'identification 134 correspondant à chaque commande vocale. Par exemple, si le symbole d'identification 1 est enregistré pour une commande vocale telle que « quel est le temps prévu pour demain », lorsque le symbole d'identification « 1 » est prononcé par un utilisateur, le dispositif électronique 1 détermine que la commande vocale « quel est le temps prévu pour demain » a été entrée. En conséquence, un utilisateur peut remplacer une commande vocale ayant une phrase longue ou complexe, avec un symbole d'identification simple, par souci de commodité. Le dispositif électronique 1 peut supprimer une commande vocale quelconque de la liste de l'interface utilisateur 131 ou ajouter une nouvelle commande vocale à celle-ci conformément à une instruction d'utilisateur. Selon un autre mode de réalisation donné à titre d'exemple, si un utilisateur prononce un emplacement où une commande vocale est située dans l'interface utilisateur 131 de la liste de commandes vocales, le dispositif électronique 1 peut déterminer que la commande vocale a été reçue. Par exemple, si un utilisateur prononce « premier » alors que l'Ul 131 de la liste est affichée, le dispositif électronique 1 peut déterminer que la commande vocale « quel est le temps prévu pour demain » est classée en haut de l'Ul 131 de la liste a été dite. Le dispositif électronique 1 peut modifier l'ordre des commandes vocales dans l'Ul 131 de la liste des commandes vocales stockées sous une instruction d'utilisateur. La figure 14 illustre une telle situation dans laquelle l'ordre des commandes vocales dans l'Ul 131 est modifié. Par exemple, comme décrit sur la figure 14, le dispositif électronique 1 peut échanger l'ordre de la commande « lire %%% » et « enregistrer les actualités $$$ » sous une instruction d'utilisateur. Dans ce cas, le symbole d'identification correspondant peut être maintenu ou des symboles d'identification des deux commandes peuvent être échangés. La figure 9 illustre un exemple d'un dispositif électronique 1 et un serveur d'analyse 2a selon un mode de réalisation donné à titre d'exemple. Les descriptions des configurations du serveur d'analyse 2a qui sont identiques ou similaires aux configurations du serveur d'analyse 2 qui ont été décrites en référence aux figures 1 à 8 ne sont pas répétées. Le serveur d'analyse 2a selon le présent mode de réalisation donné à titre d'exemple communique avec une pluralité de dispositifs électroniques 1. Lors de la réception d'une demande depuis la pluralité de dispositifs électroniques 1 pour l'analyse d'une commande vocale d'utilisateur, le serveur d'analyse 2a analyse la commande vocale et transmet le résultat d'analyse au dispositif électronique 1. Le serveur d'analyse 2a collecte les commandes vocales d'utilisateur transmises par la pluralité de dispositifs électroniques 1, prépare une liste de commandes de reconnaissance vocale 231 basées sur les commandes vocales, et transmet la liste de commandes de reconnaissance vocale préparée 231 à la pluralité de dispositifs électroniques 1.
La figure 10 est un organigramme représentant les opérations d'un serveur d'analyse 2a selon un mode de réalisation donné à titre d'exemple. À l'opération S101, le serveur d'analyse 2a reçoit une demande depuis le dispositif électronique 1 pour l'analyse de la commande vocale d'utilisateur. À l'opération S102, le serveur d'analyse 2a analyse la commande vocale et transmet des informations de commande de contrôle correspondant au résultat d'analyse au dispositif électronique 1. À l'opération S103, le serveur d'analyse 2a prépare une liste de commandes de reconnaissance vocale 231 sur la base des commandes vocales d'utilisateur collectées à partir de la pluralité de dispositifs électroniques 1 et du résultat d'analyse, et stocke dans l'unité de stockage 23 la liste de commandes de reconnaissance vocale préparée 231. Le serveur d'analyse 2a peut mettre à jour une liste de commandes de reconnaissance vocale 231 stockée dans l'unité de stockage 23 sur la base de la commande vocale d'utilisateur collectée en continu de la pluralité de dispositifs électroniques 1 et le résultat d'analyse de celle-ci. À l'opération S103, le serveur d'analyse 2a transmet la liste de commandes de reconnaissance vocale 231 stockée dans l'unité de stockage 23, à la pluralité de dispositifs électroniques 1. Selon un mode de réalisation donné à titre d'exemple, comme décrit ci-dessus en référence à la figure 8, s'il existe une commande vocale qui a été déterminée comme étant moins associée à la commande de reconnaissance vocale dans la liste de commandes de reconnaissance vocale mais a été demandée par un utilisateur (a été reconnue nouvellement et avec succès) pour exécution, le dispositif électronique 1 peut transmettre la commande vocale reconnue et les informations de commande de contrôle correspondantes au serveur d'analyse 2a. Dans ce cas, le serveur d'analyse 2a peut refléter la commande vocale reçue et les informations de commande de contrôle correspondantes dans la liste de commandes de reconnaissance vocale 231. Selon un mode de réalisation donné à titre d'exemple, le serveur d'analyse 2a peut ajouter une commande de reconnaissance vocale à la liste de commandes de reconnaissance vocale 231 si le serveur d'analyse 2a reçoit la commande vocale reconnue et les informations de commande de contrôle correspondantes un nombre prédéterminé de fois, ou depuis un nombre prédéterminé de dispositifs électroniques 1.
La figure 11 est un organigramme représentant les opérations du serveur d'analyse 2a selon un mode de réalisation donné à titre d'exemple. À l'opération S101, le serveur d'analyse 2a détermine le nombre de reconnaissances avec succès des commandes vocales d'utilisateur collectées à partir de la pluralité de dispositifs électroniques 1. C'est-à-dire que le serveur d'analyse 2a détermine laquelle des commandes vocales d'utilisateur collectées à partir de la pluralité de dispositifs électroniques 1 est fréquemment reconnue avec succès. À l'opération S102, le serveur d'analyse 2a détermine si le nombre de reconnaissances avec succès de la commande vocale d'utilisateur collectée est une valeur prédéterminée ou plus. Si le nombre de reconnaissances avec succès de la commande vocale est une valeur prédéterminée ou plus, le serveur d'analyse 2a peut ajouter la commande vocale et les informations de commande de contrôle à la liste de commandes de reconnaissance vocale en tant que nouvelle commande de reconnaissance vocale à l'opération S103. Si le nombre de reconnaissances avec succès de la commande vocale est inférieur à la valeur prédéterminée, le serveur d'analyse 2a n'ajoute pas la commande vocale et les informations de commande de contrôle à la liste de commandes de reconnaissance vocale. Selon le présent mode de réalisation donné à titre d'exemple, la liste de commandes de reconnaissance vocale ajoute uniquement les commandes vocales dont le nombre de reconnaissances avec succès est une valeur prédéterminée ou plus, et donc, le temps de transmission pour la liste de commandes de reconnaissance vocale et l'opération du dispositif électronique 1 pour traiter la liste de commandes de reconnaissance vocale peut être réduit au minimum. Comme décrit ci-dessus, le temps nécessaire pour reconnaître une commande d'utilisateur et exécuter des opérations peuvent peut être réduit au minimum dans un procédé de reconnaissance de la commande d'utilisateur par l'intermédiaire d'un serveur. Bien que les modes de réalisation donnés à titre d'exemple décrits ci-5 dessus soient présentés en référence à une commande vocale, il est entendu qu'un ou plusieurs autres modes de réalisation donnés à titre d'exemple ne sont pas limités à ceux-ci. Par exemple, un autre mode de réalisation donné à titre d'exemple peut être applicable à un ou plusieurs types quelconques de commandes, telles qu'une commande gestuelle. Dans ce cas, à titre d'exemple, 10 une liste de commandes peut comprendre des commandes de reconnaissance gestuelle et des informations de commande de contrôle correspondantes. De plus, bien que les modes de réalisation donnés à titre d'exemple décrits ci-dessus soient présentés en référence à un premier serveur, il est entendu qu'un ou plusieurs autres modes de réalisation donnés à titre d'exemple ne sont pas 15 limités à ceux-ci, et peuvent être applicables à une pluralité de premiers serveurs. Sans être limité à celui-ci, un mode de réalisation donné à titre d'exemple peut être mis en oeuvre sous la forme d'un code lisible par ordinateur sur un support d'enregistrement lisible par ordinateur. Le support d'enregistrement lisible par ordinateur est un dispositif de stockage de données quelconque qui peut 20 stocker des données qui peuvent ensuite être lues par un système informatique. Des exemples de support d'enregistrement lisible par ordinateur comprennent une mémoire morte (ROM), une mémoire vive (RAM), des CD-ROM, des bandes magnétiques, des disquettes, et des dispositifs de stockage de données optiques. Le support d'enregistrement lisible par ordinateur peut également être distribué 25 sur des systèmes informatiques couplés à un réseau de sorte que le code lisible par ordinateur soit stocké et exécuté d'une façon distribuée. De plus, un mode de réalisation donné à titre d'exemple peut être écrit sous la forme d'un programme informatique transmis sur un support de transmission lisible par ordinateur, tel qu'une onde porteuse, et reçu et mis en oeuvre dans des ordinateurs numériques 30 d'usage général ou à application spéciale qui exécutent les programmes. De plus, il est entendu que dans des modes de réalisation donnés à titre d'exemple, une ou plusieurs unités, composants, éléments, etc., des dispositifs décrits ci-dessus peuvent comprendre un circuit, un processeur, un microprocesseur, etc., et

Claims (6)

  1. REVENDICATIONS1. Appareil d'affichage (1) comprenant : un processeur (112) qui traite un signal ; une unité d'affichage (113) qui affiche une image sur la base du signal traité ; un récepteur de commande (12, 121, 122) qui reçoit une commande vocale depuis un utilisateur ; une unité de communication (13) qui communique avec un premier serveur (2); une unité de stockage (15) et un contrôleur (14) qui reçoit, depuis le premier serveur (2), une liste de commandes de reconnaissance vocale comprenant une commande de reconnaissance vocale et des informations de commande de contrôle correspondant à la commande de reconnaissance vocale, et stocke la liste de commandes de reconnaissance vocale reçue dans l'unité de stockage (13), la commande de reconnaissance vocale faisant partie des commandes vocales d'utilisateur qui ont été reconnues avec succès un nombre prédéterminé de fois ou plus, dans lequel, en réponse à la réception de la commande vocale, il est déterminé si la commande vocale reçue correspond à la commande de reconnaissance vocale comprise dans la liste de commandes de reconnaissance vocale stockée, dans lequel, en réponse à la détermination que la commande vocale reçue correspond à la commande de reconnaissance vocale comprise dans la liste de reconnaissance vocale stockée, le contrôleur (14) contrôle le processeur (112) pour fonctionner sur la base des informations de commande de contrôle correspondant à la commande de reconnaissance vocale comprise dans la liste de reconnaissance vocale stockée, et dans lequel, en réponse à la détermination que la commande vocale reçue ne correspond pas à la commande de reconnaissance vocale comprise dans la liste de reconnaissance vocale stockée, le contrôleur (14) transmet la commande vocale reçue à un premier serveur (2), reçoit des informations de commande decontrôle correspondantes depuis le premier serveur (2), et contrôle le processeur (112) pour fonctionner sur la base des informations de commande de contrôle reçues.
  2. 2. Appareil d'affichage selon la revendication 1, dans lequel le contrôleur (14) détermine si la commande vocale reçue correspond à la commande de reconnaissance vocale comprise dans la liste de commandes de reconnaissance vocale stockée sur la base d'une correspondance déterminée entre la commande vocale reçue et la commande de reconnaissance vocale.
  3. 3. Appareil d'affichage selon la revendication 1 ou 2, dans lequel, en réponse à un temps prédéterminé écoulé après que la commande vocale reçue ait été transmise au premier serveur, le contrôleur (14) contrôle le processeur (112) pour fonctionner sur la base de la commande de reconnaissance vocale comprise dans la liste de commandes de reconnaissance vocale stockée.
  4. 4. Appareil d'affichage selon l'une quelconque des revendications 1 à 3, dans lequel, en réponse au temps prédéterminé écoulé après que la commande vocale reçue ait été transmise au premier serveur, le contrôleur (14) notifie à l'utilisateur un contenu de la commande de reconnaissance vocale comprise dans la liste de commandes de reconnaissance vocale stockée à l'avance, et détermine s'il doit contrôler le processeur (112) pour fonctionner sur la base de la commande de reconnaissance vocale conformément à une réponse de l'utilisateur à la notification.
  5. 5. Appareil d'affichage selon l'une quelconque des revendications 1 à 4, dans lequel, si la commande vocale reçue est nouvellement reconnue pour un utilisateur, le contrôleur (14) transmet, au premier serveur (2), la commande vocale reconnue et les informations de commande de contrôle correspondant à la commande vocale reconnue.
  6. 6. Appareil d'affichage selon l'une quelconque des revendications 1 à 5, dans lequel le contrôleur (14) transmet, à un deuxième serveur, la commandevocale reçue, reçoit, depuis le deuxième serveur, un texte dans lequel la commande transmise a été convertie, et transmet le texte reçu au premier serveur (2).
FR1261807A 2012-09-28 2012-12-07 Dispositif electronique Expired - Lifetime FR2996343B3 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120109453 2012-09-28
KR1020120117193A KR101330671B1 (ko) 2012-09-28 2012-10-22 전자장치, 서버 및 그 제어방법

Publications (2)

Publication Number Publication Date
FR2996343A3 true FR2996343A3 (fr) 2014-04-04
FR2996343B3 FR2996343B3 (fr) 2015-05-15

Family

ID=49857999

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1261807A Expired - Lifetime FR2996343B3 (fr) 2012-09-28 2012-12-07 Dispositif electronique

Country Status (10)

Country Link
US (4) US9582245B2 (fr)
EP (4) EP2750129A1 (fr)
JP (2) JP2014071449A (fr)
KR (4) KR101330671B1 (fr)
CN (2) CN109979465B (fr)
AU (1) AU2012261531A1 (fr)
BR (1) BR102013002468B1 (fr)
FR (1) FR2996343B3 (fr)
RU (1) RU2627117C2 (fr)
WO (1) WO2014051207A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3073067A1 (fr) * 2017-10-27 2019-05-03 Deepor Procede de pilotage d'une salle notamment operatoire d'un plateau medico-technique

Families Citing this family (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
KR20130125067A (ko) * 2012-05-08 2013-11-18 삼성전자주식회사 전자 장치 및 그의 제어 방법
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
EP4138075B1 (fr) 2013-02-07 2025-06-11 Apple Inc. Déclencheur vocal pour un assistant numérique
US10424292B1 (en) * 2013-03-14 2019-09-24 Amazon Technologies, Inc. System for recognizing and responding to environmental noises
US10157618B2 (en) 2013-05-02 2018-12-18 Xappmedia, Inc. Device, system, method, and computer-readable medium for providing interactive advertising
KR101959188B1 (ko) 2013-06-09 2019-07-02 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US9747899B2 (en) * 2013-06-27 2017-08-29 Amazon Technologies, Inc. Detecting self-generated wake expressions
CN104517606A (zh) * 2013-09-30 2015-04-15 腾讯科技(深圳)有限公司 语音识别测试方法及装置
KR102246893B1 (ko) * 2013-12-11 2021-04-30 삼성전자주식회사 대화형 시스템, 이의 제어 방법, 대화형 서버 및 이의 제어 방법
US9767803B1 (en) * 2013-12-16 2017-09-19 Aftershock Services, Inc. Dynamically selecting speech functionality on client devices
US9674306B2 (en) * 2013-12-20 2017-06-06 The Directv Group, Inc. Method and system for communicating from a client device to a server device in a centralized content distribution system
CN105023575B (zh) * 2014-04-30 2019-09-17 中兴通讯股份有限公司 语音识别方法、装置和系统
US9973787B2 (en) * 2014-05-01 2018-05-15 Sony Corporation Communication device and communication method
CN103985160B (zh) * 2014-05-12 2017-01-18 深圳市威富多媒体有限公司 一种基于计算机及语音控制的车牌管理方法及装置
JP6440513B2 (ja) * 2014-05-13 2018-12-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声認識機能を用いた情報提供方法および機器の制御方法
KR102225404B1 (ko) * 2014-05-23 2021-03-09 삼성전자주식회사 디바이스 정보를 이용하는 음성인식 방법 및 장치
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9589567B2 (en) 2014-06-11 2017-03-07 Honeywell International Inc. Plant control system using voice as a control mechanism
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
CN105448293B (zh) * 2014-08-27 2019-03-12 北京羽扇智信息科技有限公司 语音监听及处理方法和设备
KR102304052B1 (ko) * 2014-09-05 2021-09-23 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
KR20160056548A (ko) * 2014-11-12 2016-05-20 삼성전자주식회사 질의 응답을 위한 디스플레이 장치 및 방법
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
KR101642918B1 (ko) * 2015-08-03 2016-07-27 서치콘주식회사 코드네임 프로토콜을 이용한 네트워크 접속 제어 방법, 이를 수행하는 네트워크 접속 제어 서버 및 이를 저장하는 기록매체
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US9978366B2 (en) 2015-10-09 2018-05-22 Xappmedia, Inc. Event-based speech interactive media player
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
FR3045909B1 (fr) * 2015-12-17 2017-12-29 Delta Dore Procede et dispositif d'analyse et de repartition de commandes vocales
CN105578240A (zh) * 2015-12-23 2016-05-11 广州视源电子科技股份有限公司 电视终端交互方法和系统
CN105719650A (zh) * 2016-01-30 2016-06-29 深圳市尔木科技有限责任公司 一种语音识别的方法及系统
US9898250B1 (en) * 2016-02-12 2018-02-20 Amazon Technologies, Inc. Controlling distributed audio outputs to enable voice output
US9858927B2 (en) * 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
CN105913839A (zh) * 2016-05-30 2016-08-31 合肥华凌股份有限公司 一种智能冰箱、服务器及语音控制系统和方法
US12223282B2 (en) 2016-06-09 2025-02-11 Apple Inc. Intelligent automated assistant in a home environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US12197817B2 (en) 2016-06-11 2025-01-14 Apple Inc. Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10271093B1 (en) * 2016-06-27 2019-04-23 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
KR102759157B1 (ko) * 2016-10-20 2025-01-23 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치를 제어하는 방법
CN108010523B (zh) * 2016-11-02 2023-05-09 松下电器(美国)知识产权公司 信息处理方法以及记录介质
JP6908461B2 (ja) * 2016-11-02 2021-07-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及びプログラム
CN108010522A (zh) 2016-11-02 2018-05-08 松下电器(美国)知识产权公司 信息处理方法以及记录介质
US10937421B2 (en) * 2016-12-23 2021-03-02 Spectrum Brands, Inc. Electronic faucet with smart features
CA3047984A1 (fr) * 2016-12-23 2018-06-28 Spectrum Brands, Inc. Robinet electronique a caracteristiques intelligentes
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
CN107086037A (zh) * 2017-03-17 2017-08-22 上海庆科信息技术有限公司 一种嵌入式设备的语音交互方法、装置及嵌入式设备
CN107135443B (zh) * 2017-03-29 2020-06-23 联想(北京)有限公司 一种信号处理方法及电子设备
KR20180118461A (ko) * 2017-04-21 2018-10-31 엘지전자 주식회사 음성 인식 장치 및 음성 인식 방법
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. Multi-modal interfaces
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10475454B2 (en) * 2017-09-18 2019-11-12 Motorola Mobility Llc Directional display and audio broadcast
CN109559759B (zh) * 2017-09-27 2021-10-08 华硕电脑股份有限公司 具备增量注册单元的电子设备及其方法
KR102417524B1 (ko) * 2017-10-13 2022-07-07 현대자동차주식회사 음성 인식 기반의 자동차 제어 방법
KR102480728B1 (ko) * 2017-11-10 2022-12-23 삼성전자주식회사 전자장치 및 그 제어방법
KR102517219B1 (ko) * 2017-11-23 2023-04-03 삼성전자주식회사 전자장치 및 그 제어방법
KR102528466B1 (ko) * 2017-12-19 2023-05-03 삼성전자주식회사 복수 화자의 음성 신호 처리 방법 및 그에 따른 전자 장치
WO2019135433A1 (fr) * 2018-01-08 2019-07-11 엘지전자 주식회사 Dispositif d'affichage et système comprenant ce dernier
KR102488001B1 (ko) * 2018-01-22 2023-01-13 삼성전자주식회사 오디오 신호를 이용하여 사용자를 인증하는 전자 장치 및 그 방법
US11308312B2 (en) 2018-02-15 2022-04-19 DMAI, Inc. System and method for reconstructing unoccupied 3D space
US11455986B2 (en) * 2018-02-15 2022-09-27 DMAI, Inc. System and method for conversational agent via adaptive caching of dialogue tree
WO2019161226A1 (fr) * 2018-02-15 2019-08-22 DMAI, Inc. Système et procédé pour la génération préventive basée sur une prédiction d'un contenu de dialogue
JP7003720B2 (ja) 2018-02-19 2022-01-21 コニカミノルタ株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
KR102576388B1 (ko) 2018-02-21 2023-09-08 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
KR20190102509A (ko) * 2018-02-26 2019-09-04 삼성전자주식회사 음성 명령을 수행하는 방법 및 시스템
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
KR102533443B1 (ko) * 2018-05-04 2023-05-17 삼성전자 주식회사 콘텐츠 제공 방법 및 이를 사용하는 전자 장치
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
KR102458336B1 (ko) * 2018-05-18 2022-10-25 삼성전자주식회사 공기 조화 장치 및 이의 제어 방법
KR20190134107A (ko) * 2018-05-24 2019-12-04 삼성전자주식회사 사용자의 음성을 처리하는 전자 장치를 포함하는 시스템 및 전자 장치의 음성 인식 제어 방법
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
WO2020005241A1 (fr) * 2018-06-27 2020-01-02 Google Llc Rendu de réponses à un énoncé prononcé d'un utilisateur à l'aide d'une carte texte-réponse locale
CN108510990A (zh) * 2018-07-04 2018-09-07 百度在线网络技术(北京)有限公司 语音识别方法、装置、用户设备及存储介质
KR102527107B1 (ko) 2018-08-08 2023-05-02 삼성전자주식회사 음성에 기반하여 기능을 실행하기 위한 방법 및 이를 지원하는 사용자 전자 장치
KR102563314B1 (ko) * 2018-08-30 2023-08-04 삼성전자주식회사 전자 장치 및 단축 명령어의 바로가기 생성 방법
CN110910869B (zh) * 2018-09-14 2022-02-18 成都启英泰伦科技有限公司 一种语音识别方法和设备
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
KR20200042627A (ko) 2018-10-16 2020-04-24 삼성전자주식회사 전자 장치 및 그 제어 방법
CN109448709A (zh) * 2018-10-16 2019-03-08 华为技术有限公司 一种终端投屏的控制方法和终端
KR102651413B1 (ko) * 2018-10-17 2024-03-27 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR102842076B1 (ko) 2018-10-17 2025-08-04 삼성전자주식회사 전자 장치 및 그 제어방법, 전자 장치의 음향 출력 제어 시스템
CN109408024A (zh) * 2018-10-18 2019-03-01 珠海格力电器股份有限公司 信息交互方法及装置、存储介质、处理器
US10885912B2 (en) * 2018-11-13 2021-01-05 Motorola Solutions, Inc. Methods and systems for providing a corrected voice command
CN109493851A (zh) * 2018-11-20 2019-03-19 新视家科技(北京)有限公司 一种语音控制方法、相关装置及存储介质
CN111312253A (zh) * 2018-12-11 2020-06-19 青岛海尔洗衣机有限公司 语音控制方法、云端服务器及终端设备
CN111312234A (zh) * 2018-12-11 2020-06-19 青岛海尔洗衣机有限公司 语音控制方法、云端处理器及终端设备
CN109495360A (zh) * 2018-12-18 2019-03-19 深圳国美云智科技有限公司 一种智能家居物联平台、离线语音控制方法及系统
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN111754996A (zh) * 2019-03-29 2020-10-09 阿里巴巴集团控股有限公司 基于语音模拟遥控器的控制方法、装置及电子设备
JP7275795B2 (ja) * 2019-04-15 2023-05-18 コニカミノルタ株式会社 操作受付装置、制御方法、画像形成システム、及び、プログラム
US11328717B2 (en) * 2019-04-18 2022-05-10 Lg Electronics Inc. Electronic device, operating method thereof, system having plural artificial intelligence devices
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN112147903B (zh) * 2019-06-26 2025-09-12 百度在线网络技术(北京)有限公司 一种设备的控制方法、装置及计算机可读存储介质
JP2021004980A (ja) * 2019-06-26 2021-01-14 株式会社アール・イー・ハヤシ 生活支援マルチリモコン及び生活支援マルチリモコンシステム
US11508375B2 (en) 2019-07-03 2022-11-22 Samsung Electronics Co., Ltd. Electronic apparatus including control command identification tool generated by using a control command identified by voice recognition identifying a control command corresponding to a user voice and control method thereof
WO2021076164A1 (fr) 2019-10-15 2021-04-22 Google Llc Détection et/ou enrôlement de commandes à chaud pour déclencher une action de réponse par un assistant automatisé
KR20210061091A (ko) * 2019-11-19 2021-05-27 삼성전자주식회사 인텔리전트 어시스턴스 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법
CN110992955A (zh) * 2019-12-25 2020-04-10 苏州思必驰信息科技有限公司 一种智能设备的语音操作方法、装置、设备及存储介质
KR102344044B1 (ko) * 2020-01-22 2021-12-27 주식회사 엘지유플러스 셋탑 단말 및 이의 동작 방법
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US12301635B2 (en) 2020-05-11 2025-05-13 Apple Inc. Digital assistant hardware abstraction
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN112002316A (zh) * 2020-07-30 2020-11-27 珠海格力电器股份有限公司 一种电器控制方法、装置、存储介质及终端
WO2022072759A1 (fr) 2020-10-02 2022-04-07 Spectrum Brands, Inc. Système de robinet électronique intelligent
JP7459760B2 (ja) * 2020-10-27 2024-04-02 セイコーエプソン株式会社 表示システムの制御方法、表示システム
CN114667566A (zh) * 2021-01-21 2022-06-24 海信视像科技股份有限公司 语音指令处理电路、接收装置、服务器、语音指令的累积系统和累积方法
JP7536667B2 (ja) * 2021-01-21 2024-08-20 Tvs Regza株式会社 音声コマンド処理回路、受信装置、リモコンおよびシステム
CN113411722A (zh) * 2021-06-04 2021-09-17 深圳市右转智能科技有限责任公司 一种智能背景音乐系统
CN113593555A (zh) * 2021-07-23 2021-11-02 北京百度网讯科技有限公司 通过语音方式控制程序的方法、设备及程序产品
CN114974230A (zh) * 2022-05-09 2022-08-30 北京声智科技有限公司 语音识别方法、装置、系统、电子设备及存储介质
US20250296574A1 (en) * 2024-03-22 2025-09-25 GM Global Technology Operations LLC Uwb-based intention detection for vehicular applications

Family Cites Families (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL119948A (en) 1996-12-31 2004-09-27 News Datacom Ltd Voice activated communication system and program guide
US6188985B1 (en) 1997-01-06 2001-02-13 Texas Instruments Incorporated Wireless voice-activated device for control of a processor-based host system
JPH10326176A (ja) 1997-05-23 1998-12-08 Oki Hokuriku Syst Kaihatsu:Kk 音声対話制御方法
DE69712485T2 (de) 1997-10-23 2002-12-12 Sony International (Europe) Gmbh Sprachschnittstelle für ein Hausnetzwerk
JP2000075887A (ja) * 1998-08-31 2000-03-14 Sony Corp パターン認識装置、方法及びシステム
JP2000085641A (ja) 1998-09-16 2000-03-28 Kubota Corp クローラ走行装置
FR2783625B1 (fr) * 1998-09-21 2000-10-13 Thomson Multimedia Sa Systeme comprenant un appareil telecommande et un dispositif de telecommande vocale de l'appareil
US7003463B1 (en) * 1998-10-02 2006-02-21 International Business Machines Corporation System and method for providing network coordinated conversational services
EP1088299A2 (fr) * 1999-03-26 2001-04-04 Scansoft, Inc. Reconnaissance vocale client-serveur
JP3873513B2 (ja) 1999-03-29 2007-01-24 ソニー株式会社 情報記録装置
US6408272B1 (en) * 1999-04-12 2002-06-18 General Magic, Inc. Distributed voice user interface
US7330815B1 (en) * 1999-10-04 2008-02-12 Globalenglish Corporation Method and system for network-based speech recognition
US7006973B1 (en) 2000-01-31 2006-02-28 Intel Corporation Providing information in response to spoken requests
CA2413657A1 (fr) 2000-06-16 2001-12-20 Healthetech, Inc. Dispositif de reconnaissance vocale pour assistant numerique
US7085716B1 (en) 2000-10-26 2006-08-01 Nuance Communications, Inc. Speech recognition using word-in-phrase command
US20020095294A1 (en) 2001-01-12 2002-07-18 Rick Korfin Voice user interface for controlling a consumer media data storage and playback device
JP3919210B2 (ja) 2001-02-15 2007-05-23 アルパイン株式会社 音声入力案内方法及び装置
US7225130B2 (en) 2001-09-05 2007-05-29 Voice Signal Technologies, Inc. Methods, systems, and programming for performing speech recognition
JP2003114698A (ja) * 2001-10-03 2003-04-18 Denso Corp コマンド受付装置及びプログラム
JP2003131682A (ja) 2001-10-24 2003-05-09 Victor Co Of Japan Ltd 音声コマンドによる機器コントロールシステム
US20030120493A1 (en) 2001-12-21 2003-06-26 Gupta Sunil K. Method and system for updating and customizing recognition vocabulary
US9374451B2 (en) 2002-02-04 2016-06-21 Nokia Technologies Oy System and method for multimodal short-cuts to digital services
JP2003295893A (ja) 2002-04-01 2003-10-15 Omron Corp 音声認識システム、装置、音声認識方法、音声認識プログラム及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体
US20040006477A1 (en) 2002-07-05 2004-01-08 Craner Michael L. Voice-controllable communication gateway for controlling multiple electronic and information appliances
DE60212725T2 (de) * 2002-08-01 2007-06-28 Telefonaktiebolaget Lm Ericsson (Publ) Verfahren zur automatischen spracherkennung
JP2006515073A (ja) * 2002-09-06 2006-05-18 ヴォイス シグナル テクノロジーズ インコーポレーティッド 音声認識を実行するための方法、システム、及びプログラミング
JP2004110613A (ja) 2002-09-20 2004-04-08 Toshiba Corp 制御装置、制御プログラム、対象装置及び制御システム
US6889188B2 (en) 2002-11-22 2005-05-03 Intel Corporation Methods and apparatus for controlling an electronic device
EP1606898A1 (fr) 2003-03-17 2005-12-21 Philips Intellectual Property & Standards GmbH Procede destine a la commande a distance d'un dispositif audio
JP2005148151A (ja) * 2003-11-11 2005-06-09 Mitsubishi Electric Corp 音声操作装置
KR20050060910A (ko) * 2003-12-17 2005-06-22 현대자동차주식회사 차량의 음성 명령 인식 방법 및 장치
JP2005249829A (ja) * 2004-03-01 2005-09-15 Advanced Media Inc 音声認識を行うコンピュータネットワークシステム
US20060041926A1 (en) 2004-04-30 2006-02-23 Vulcan Inc. Voice control of multimedia content
JP4554285B2 (ja) 2004-06-18 2010-09-29 トヨタ自動車株式会社 音声認識システム、音声認識方法、及び音声認識プログラム
TWI334703B (en) 2004-09-02 2010-12-11 Inventec Multimedia & Telecom Voice-activated remote control system
US7283850B2 (en) * 2004-10-12 2007-10-16 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement on a mobile device
US8942985B2 (en) 2004-11-16 2015-01-27 Microsoft Corporation Centralized method and system for clarifying voice commands
KR100639931B1 (ko) 2004-11-24 2006-11-01 한국전자통신연구원 대화형 음성인식 시스템의 인식오류 수정장치 및 그 방법
US7529677B1 (en) 2005-01-21 2009-05-05 Itt Manufacturing Enterprises, Inc. Methods and apparatus for remotely processing locally generated commands to control a local device
KR100725719B1 (ko) 2005-02-04 2007-06-08 주식회사 유진로봇 음성과 태스크 오브젝트 기반의 대화시스템
JP4574390B2 (ja) 2005-02-22 2010-11-04 キヤノン株式会社 音声認識方法
US20060235701A1 (en) 2005-04-13 2006-10-19 Cane David A Activity-based control of a set of electronic devices
JP2007052397A (ja) * 2005-07-21 2007-03-01 Denso Corp 操作装置
JP2007033901A (ja) * 2005-07-27 2007-02-08 Nec Corp 音声認識システム、音声認識方法、および音声認識用プログラム
JP2007226388A (ja) * 2006-02-22 2007-09-06 Konica Minolta Medical & Graphic Inc コマンド入力装置及びプログラム
US20070276651A1 (en) * 2006-05-23 2007-11-29 Motorola, Inc. Grammar adaptation through cooperative client and server based speech recognition
US8635243B2 (en) 2007-03-07 2014-01-21 Research In Motion Limited Sending a communications header with voice recording to send metadata for use in speech recognition, formatting, and search mobile search application
WO2008144638A2 (fr) 2007-05-17 2008-11-27 Redstart Systems Inc. Systèmes et procédés d'une grammaire structurée pour un système d'ordre de reconnaissance vocale
US9794348B2 (en) * 2007-06-04 2017-10-17 Todd R. Smith Using voice commands from a mobile device to remotely access and control a computer
US20090018830A1 (en) 2007-07-11 2009-01-15 Vandinburg Gmbh Speech control of computing devices
US8438024B2 (en) 2007-10-05 2013-05-07 International Business Machines Corporation Indexing method for quick search of voice recognition results
EP2293289B1 (fr) * 2008-06-06 2012-05-30 Raytron, Inc. Système et procédé de reconnaissance de la parole
CN102119412B (zh) * 2008-08-11 2013-01-02 旭化成株式会社 例外语辞典制作装置、例外语辞典制作方法、和声音识别装置和声音识别方法
US20100131280A1 (en) 2008-11-25 2010-05-27 General Electric Company Voice recognition system for medical devices
KR101513635B1 (ko) * 2008-12-05 2015-04-22 엘지전자 주식회사 단말기 및 그 제어 방법
US8224644B2 (en) * 2008-12-18 2012-07-17 Microsoft Corporation Utterance processing for network-based speech recognition utilizing a client-side cache
JP5437095B2 (ja) 2009-05-19 2014-03-12 東芝機械株式会社 敷ブロックの配置方法、敷ブロック移動用工具、および、その工具を備えた工作機械
US11012732B2 (en) 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
US20110099507A1 (en) 2009-10-28 2011-04-28 Google Inc. Displaying a collection of interactive elements that trigger actions directed to an item
US20110184740A1 (en) 2010-01-26 2011-07-28 Google Inc. Integration of Embedded and Network Speech Recognizers
JP2013529794A (ja) 2010-06-24 2013-07-22 本田技研工業株式会社 車載音声認識システム及び車両外音声認識システム間の通信システム及び方法
KR20120020853A (ko) 2010-08-31 2012-03-08 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20120078635A1 (en) 2010-09-24 2012-03-29 Apple Inc. Voice control system
JP2012088370A (ja) 2010-10-15 2012-05-10 Denso Corp 音声認識システム、音声認識端末、およびセンター
KR101789619B1 (ko) 2010-11-22 2017-10-25 엘지전자 주식회사 멀티미디어 장치에서 음성과 제스쳐를 이용한 제어 방법 및 그에 따른 멀티미디어 장치
JP5771002B2 (ja) * 2010-12-22 2015-08-26 株式会社東芝 音声認識装置、音声認識方法および音声認識装置を搭載したテレビ受像機
US8914287B2 (en) 2010-12-31 2014-12-16 Echostar Technologies L.L.C. Remote control audio link
US20120170572A1 (en) 2011-01-03 2012-07-05 Samsung Electronics Co., Ltd. Method for Enhancing Phone Conversations
KR20120080069A (ko) 2011-01-06 2012-07-16 삼성전자주식회사 디스플레이 장치 및 그 음성 제어 방법
US8930194B2 (en) * 2011-01-07 2015-01-06 Nuance Communications, Inc. Configurable speech recognition system using multiple recognizers
JP5606951B2 (ja) 2011-02-15 2014-10-15 アルパイン株式会社 音声認識システムおよびこれを用いた検索システム
KR101390823B1 (ko) 2011-04-14 2014-05-09 삼성중공업 주식회사 선박용 열교환기
JP5916054B2 (ja) * 2011-06-22 2016-05-11 クラリオン株式会社 音声データ中継装置、端末装置、音声データ中継方法、および音声認識システム
US9009041B2 (en) * 2011-07-26 2015-04-14 Nuance Communications, Inc. Systems and methods for improving the accuracy of a transcription using auxiliary data such as personal data
US8972263B2 (en) * 2011-11-18 2015-03-03 Soundhound, Inc. System and method for performing dual mode speech recognition
WO2013078388A1 (fr) * 2011-11-21 2013-05-30 Robert Bosch Gmbh Méthodes et systèmes d'adaptation de grammaires dans des moteurs de reconnaissance de la parole hybrides pour améliorer les performances de rp locale
US8825020B2 (en) 2012-01-12 2014-09-02 Sensory, Incorporated Information access and device control using mobile phones and audio in the home environment
US9031848B2 (en) 2012-08-16 2015-05-12 Nuance Communications, Inc. User interface for searching a bundled service content data source

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3073067A1 (fr) * 2017-10-27 2019-05-03 Deepor Procede de pilotage d'une salle notamment operatoire d'un plateau medico-technique

Also Published As

Publication number Publication date
EP4050599A1 (fr) 2022-08-31
BR102013002468A2 (pt) 2014-10-21
BR102013002468B1 (pt) 2020-10-20
EP2713366B1 (fr) 2016-08-10
CN109979465B (zh) 2024-02-20
JP2014071449A (ja) 2014-04-21
AU2012261531A1 (en) 2014-04-17
US20190026075A1 (en) 2019-01-24
KR20140042641A (ko) 2014-04-07
EP4050599B1 (fr) 2025-10-08
KR20140042642A (ko) 2014-04-07
US10120645B2 (en) 2018-11-06
CN103714816A (zh) 2014-04-09
KR102169520B1 (ko) 2020-10-23
CN109979465A (zh) 2019-07-05
RU2627117C2 (ru) 2017-08-03
US9582245B2 (en) 2017-02-28
US20140092007A1 (en) 2014-04-03
US20140095174A1 (en) 2014-04-03
EP4642033A3 (fr) 2025-12-10
RU2015111180A (ru) 2016-10-20
EP4050599C0 (fr) 2025-10-08
EP4642033A2 (fr) 2025-10-29
KR102004872B1 (ko) 2019-07-29
WO2014051207A1 (fr) 2014-04-03
EP2750129A1 (fr) 2014-07-02
JP2014071457A (ja) 2014-04-21
US11086596B2 (en) 2021-08-10
KR101330671B1 (ko) 2013-11-15
FR2996343B3 (fr) 2015-05-15
US20140095176A1 (en) 2014-04-03
KR20190088945A (ko) 2019-07-29
EP2713366A1 (fr) 2014-04-02

Similar Documents

Publication Publication Date Title
FR2996343A3 (fr) Dispositif electronique
JP7297836B2 (ja) アシスタントアプリケーションのための音声ユーザインタフェースショートカット
US20220321965A1 (en) Voice recognition system, voice recognition server and control method of display apparatus for providing voice recognition function based on usage status
US9412368B2 (en) Display apparatus, interactive system, and response information providing method
US9837081B2 (en) Discovering capabilities of third-party voice-enabled resources
CN109658932B (zh) 一种设备控制方法、装置、设备及介质
US20150317353A1 (en) Context and activity-driven playlist modification
US20130339015A1 (en) Terminal apparatus and control method thereof
FR2996399A3 (fr) Appareil de traitement d'image et procede de commande de celui-ci et systeme de traitement d'image
FR2997599A3 (fr) Appareil de traitement d'image et procede de commande de celui-ci et systeme de traitement d'image
US10997963B1 (en) Voice based interaction based on context-based directives
CN117992141A (zh) 提供用于与助理代理进行交互的多功能链接的系统/方法和设备
US20180293273A1 (en) Interactive session
CN111385624B (zh) 一种基于语音的数据传输控制方法、智能电视及存储介质
US20250273218A1 (en) Systems and methods for managing multiple voice assistant services based on voice input
CN108694207B (zh) 一种文件图标的显示方法及系统
US12149773B2 (en) Voice-based scene selection for video content on a computing device
KR20140026220A (ko) 단말 장치 및 단말 장치의 제어 방법
US11887589B1 (en) Voice-based interactions with a graphical user interface

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6