[go: up one dir, main page]

FR3036570A1 - Technique d'interaction d'un dispositif utilisateur avec un dispositif appele - Google Patents

Technique d'interaction d'un dispositif utilisateur avec un dispositif appele Download PDF

Info

Publication number
FR3036570A1
FR3036570A1 FR1554629A FR1554629A FR3036570A1 FR 3036570 A1 FR3036570 A1 FR 3036570A1 FR 1554629 A FR1554629 A FR 1554629A FR 1554629 A FR1554629 A FR 1554629A FR 3036570 A1 FR3036570 A1 FR 3036570A1
Authority
FR
France
Prior art keywords
interaction
user device
voice
menu
called
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1554629A
Other languages
English (en)
Inventor
Aurelien Guillou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1554629A priority Critical patent/FR3036570A1/fr
Publication of FR3036570A1 publication Critical patent/FR3036570A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/25Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service
    • H04M2203/251Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably
    • H04M2203/253Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably where a visual mode is used instead of a voice mode
    • H04M2203/254Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably where a visual mode is used instead of a voice mode where the visual mode comprises menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

L'invention concerne une technique d'interaction d'un dispositif utilisateur (10, 11) avec un dispositif appelé (20). Lorsqu'une demande d'établissement d'une communication vocale entre le dispositif utilisateur et le dispositif appelé est émise, le dispositif utilisateur détecte que le dispositif appelé met en œuvre des étapes d'interaction vocale automatisées. Un menu d'interaction est alors reçu au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé et est affiché sous forme sur un écran du dispositif utilisateur. Une donnée de sélection relative au menu d'interaction reçu est alors saisie par un utilisateur du dispositif utilisateur et est envoyée par le dispositif utilisateur sous forme textuelle au moyen de la session multimédia.

Description

1 Technique d'interaction d'un dispositif utilisateur avec un dispositif appelé L'invention se rapporte au domaine général des télécommunications. L'invention concerne plus particulièrement une technique d'interaction d'un dispositif utilisateur avec un dispositif appelé, notamment lorsque le dispositif appelé est un serveur vocal interactif. Un tel dispositif d'interaction vocale met en oeuvre des étapes d'interaction vocales automatisées. Il arrive fréquemment qu'un service téléphonique de support en ligne (« hotline » en anglais) mette en oeuvre des étapes d'interaction avec un dispositif appelant sous la forme de menu d'interaction et de choix dans ce menu successivement selon une logique d'interaction. Lors de ces étapes d'interaction, plusieurs choix sont proposés vocalement et l'utilisateur du dispositif appelant sélectionne un de ces choix vocalement ou bien par appui sur une touche de son clavier. A titre d'exemple illustratif, un menu propose les choix suivants : « Appuyez sur la touche 1 pour modifier vos données personnelles, appuyez sur la touche 2 pour être mis en relation avec un opérateur, appuyez sur la touche 3 pour toute autre demande, appuyez sur la touche * pour revenir au menu précédent ». Lorsque la sélection s'effectue par appui sur une touche du claver, l'utilisateur du dispositif appelant doit écouter les choix qui lui sont proposés puis entrer son choix sur le clavier de son terminal. Ceci est particulièrement fastidieux, surtout lorsque l'utilisateur du dispositif appelant ne souhaite pas basculer la communication vocale sur haut-parleur. Lorsque la sélection s'effectue par reconnaissance vocale, un choix de l'utilisateur du dispositif appelant peut être mal reconnu. Ceci a pour conséquence une navigation dans les différents menus d'interaction particulièrement fastidieuse. Ainsi, beaucoup d'utilisateurs n'apprécient pas de dialoguer avec une machine, en raison de ces contraintes et de problèmes de fiabilité. Par ailleurs, des utilisateurs malentendants se trouvent confronter à des difficultés pour interagir avec un tel serveur vocal. Un des buts de l'invention est de remédier à des insuffisances/inconvénients de l'état de la technique et/ou d'y apporter des améliorations.
Selon un premier aspect, l'invention a pour objet un procédé d'interaction d'un dispositif utilisateur avec un dispositif appelé. Ce procédé comprend, lorsqu'une demande d'établissement d'une communication vocale entre le dispositif utilisateur et le dispositif appelé est émise : - une détection par le dispositif utilisateur que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées ; - un affichage sur un écran du dispositif utilisateur sous forme textuelle d'un menu d'interaction reçu au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé ; 3036570 2 - un envoi par le dispositif utilisateur sous forme textuelle au moyen de la session multimédia d'une donnée de sélection relative au menu d'interaction reçu.. Corrélativement, au niveau du dispositif appelé, le procédé d'interaction d'un dispositif utilisateur avec un dispositif appelé comprend, lorsqu'une demande d'établissement d'une 5 communication vocale entre le dispositif utilisateur et le dispositif appelé est reçue : - une fourniture par le dispositif appelé au dispositif utilisateur d'une indication que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées ; - un envoi au dispositif utilisateur d'un menu d'interaction au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé pour un affichage sous forme 10 textuelle sur un écran du dispositif utilisateur ; - une réception par le dispositif appelé d'une donnée de sélection relative au menu d'interaction envoyé, reçue sous forme textuelle au moyen de la session multimédia. Un dispositif mettant en oeuvre des étapes automatisées correspond par exemple à un serveur vocal interactif, proposant des choix de sélection par l'intermédiaire de menus d'interaction 15 sous forme vocale selon une logique d'interaction. Une session multimédia est une session de communication, apte à transmettre différents types d'informations : des textes, des fichiers, des messages instantanés, des contenus, ... Ainsi, l'interaction d'un utilisateur du dispositif appelant avec le dispositif appelé s'effectue de manière simple et conviviale. Des utilisateurs malentendants peuvent grâce au 20 procédé d'interaction avoir accès au service vocal. La durée nécessaire aux interactions du dispositif utilisateur avec le dispositif d'interaction vocale ou serveur vocal appelé est également écourtée et plus fiable, notamment par rapport à une logique d'interaction basée sur une reconnaissance vocale pour obtenir la donnée de sélection. De manière courante, un serveur vocal interactif met en oeuvre une synthèse vocale, c'est- 25 à-dire une conversion de texte en parole, afin de restituer sous forme vocale les menus d'interaction. De ce fait, la transmission des menus d'interaction directement sous forme textuelle au dispositif appelant n'entraîne pas une augmentation des moyens de traitement nécessaires au niveau du serveur vocal. Par ailleurs, la donnée de sélection étant obtenue directement sous forme textuelle, ceci diminue le temps de traitement notamment pour des serveurs vocaux interactifs 30 mettant en oeuvre un algorithme de reconnaissance vocale pour identifier la donnée de sélection. La donnée de sélection peut être convertie lors de sa réception sous la forme d'un signal multifréquences bi-tons DTMF (pour « Dual-Tone Multi-Frequency ») afin de limiter les modifications apportées à la logique d'interaction du serveur vocal. La technique d'interaction est particulièrement avantageuse pour être mise en oeuvre sur 35 des dispositifs utilisateur de nouvelle génération. De tels dispositifs, par exemple des « smartphone », disposent en effet d'un écran dont la taille est adaptée pour un affichage de menus sous forme textuelle. Pour un écran tactile, la saisie de la donnée de sélection peut s'effectuer 3036570 3 directement sans nécessiter une interaction avec un clavier. La sélection dans les menus peut également se faire au moyen des flèches haut/bas. L'expérience de l'utilisateur est ainsi améliorée grâce à l'utilisation des capacités graphiques de ce type de terminal 5 L'affichage sous forme textuelle permet également une interaction plus rapide. Il n'est en effet pas nécessaire de lire une proposition in extenso pour décider de ne pas la sélectionner. Dans une interaction sous forme vocale, la proposition doit être écoutée dans son ensemble avant de pouvoir écouter la proposition suivante. Une interaction plus rapide et efficace est particulièrement appréciable pour les services vocaux interactifs destinés à traiter une urgence.
10 En fonction de la donnée de sélection, le dispositif d'interaction vocale ou serveur vocal sélectionne le menu suivant pour un affichage sous forme textuelle. Le nouveau menu est affiché sur l'écran du dispositif utilisateur, et ce jusqu'à ce que l'utilisateur soit connecté à un opérateur via un transfert d'appel ou mette fin à l'interaction avec le serveur vocal. Dans un mode de réalisation particulier, la technique d'interaction est mis en oeuvre au 15 moyen de fonctionnalités de communication enrichies RCS (pour « Rich Communication Services »), disponibles pour le service Joyn. La mise en oeuvre du procédé d'interaction ne nécessite pas de savoir au préalable si le dispositif appelé est un dispositif mettant en oeuvre des étapes d'interaction vocale automatisées. En effet, lorsque le dispositif appelé est un autre dispositif utilisateur, il est détecté que cet autre 20 dispositif utilisateur ne met pas en oeuvre des étapes d'interaction vocale automatisées et la communication vocale peut être établie de manière classique. Les différents modes ou caractéristiques de réalisation mentionnés ci-après peuvent être ajoutés indépendamment ou en combinaison les uns avec les autres, aux étapes du procédé de d'interaction tel que défini précédemment.
25 Selon une caractéristique particulière du procédé d'interaction, la détection comprend un envoi au dispositif appelé d'un message de découverte de capacités de communication et une réception d'une capacité de communication indiquant un mode de fonctionnement de type automate. On note que, pour une mise en oeuvre du procédé à l'aide des fonctionnalités de 30 communication enrichies RCS, le message de découverte correspond au message SIP-OPTIONS et la capacité de communication « isAutomata » reçue en retour permet au dispositif appelé d'indiquer un mode de fonctionnement de type automate (booléen positionné à la valeur « vraie »). Ainsi, le procédé d'interaction s'appuie des échanges déjà spécifiés dans le standard RCS et permettant de garantir une interopérabilité entre le dispositif utilisateur et le dispositif d'interaction 35 vocale ou serveur vocal.
3036570 4 Corrélativement, la fourniture comprend une réception par le dispositif appelé d'un message de découverte de capacités de communication et un envoi d'une capacité de communication indiquant un mode de fonctionnement de type automate. Selon une caractéristique particulière du procédé d'interaction, la session multimédia est 5 établie suite à la détection que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées. Ceci permet d'établir une session multimédia uniquement lorsque cela est nécessaire, c'est-à-dire lorsqu'il est détecté que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées.
10 Dans un autre mode de réalisation, la session multimédia est établie au préalable. Selon une caractéristique particulière du procédé d'interaction, le menu d'interaction est envoyé par le dispositif appelé et est reçu par le dispositif utilisateur sous forme textuelle au moyen de la session multimédia. Dans ce mode de réalisation, le menu peut être affiché directement.
15 Dans un autre mode de réalisation, le menu est reçu sous forme vocale et le dispositif utilisateur convertit par reconnaissance vocale le menu sous forme textuelle. Selon un deuxième aspect, l'invention concerne également un dispositif utilisateur comprenant : - un module d'interaction, agencé pour : 20 - détecter qu'un dispositif pour lequel une demande d'établissement d'une communication vocale est émise, dit dispositif appelé, met en oeuvre des étapes d'interaction vocale automatisées ; - recevoir un menu d'interaction au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé ; 25 - envoyer sous forme textuelle au moyen de la session multimédia d'une donnée de sélection relative au menu d'interaction reçu ; - un module d'interface homme-machine, agencé pour afficher sur un écran du dispositif utilisateur sous forme textuelle le menu d'interaction reçu. Selon un troisième aspect, l'invention concerne également un dispositif d'interaction 30 vocale, agencé pour interagir au moyen d'une communication vocale avec un dispositif utilisateur, ledit dispositif d'interaction vocale comprenant : - un module de communication, agencé pour fournir un service de communication enrichi et pour fournir à un dispositif utilisateur le requérant une indication que ledit dispositif d'interaction vocale met en oeuvre des étapes d'interaction vocale automatisées ; 35 - un module d'interaction, agencé pour : 3036570 5 - fournir en réponse à une demande d'un dispositif utilisateur un menu d'interaction au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif d'interaction vocale pour un affichage sous forme textuelle sur un écran du dispositif utilisateur ; - recevoir une donnée de sélection relative au menu d'interaction envoyé, reçue sous 5 forme textuelle au moyen de la session multimédia. Selon un quatrième aspect, l'invention concerne un programme pour un dispositif utilisateur, comprenant des instructions de code de programme destinées à commander l'exécution de celles des étapes du procédé d'interaction précédemment décrit mises en oeuvre par le dispositif utilisateur, lorsque ce programme est exécuté par ce dispositif et un support d'enregistrement lisible 10 par un dispositif sur lequel est enregistré un programme pour un dispositif. Les avantages énoncés pour le procédé d'interaction selon le premier aspect sont transposables directement au programme pour un dispositif utilisateur et au support d' enregistrement. Selon un cinquième aspect, l'invention concerne un programme pour un dispositif 15 d'interaction vocale, comprenant des instructions de code de programme destinées à commander l'exécution de celles des étapes du procédé d'interaction précédemment décrit mises en oeuvre par le dispositif, lorsque ce programme est exécuté par cette entité et un support d'enregistrement lisible par un dispositif sur lequel est enregistré un programme pour un dispositif. Les avantages énoncés pour le procédé d'interaction selon le premier aspect sont 20 transposables directement au programme pour un tel dispositif et au support d'enregistrement. La technique d'interaction sera mieux comprise à l'aide de la description suivante de modes de réalisation particuliers, en référence aux dessins annexés sur lesquels : - la figure 1 représente un environnement dans lequel est mis en oeuvre le procédé de d'interaction dans un mode de réalisation particulier ; 25 - la figure 2 représente un dispositif utilisateur selon un mode particulier de réalisation ; - la figure 3 représente un dispositif d'interaction vocale selon un mode particulier de réalisation ; - les figures 4a et 4b illustrent des étapes d'un procédé d'interaction mises en oeuvre 30 par un dispositif utilisateur et par un dispositif appelé selon des modes particuliers de réalisation ; - les figures 5a et 5b illustrent un exemple de mise en oeuvre du procédé d'interaction sur un dispositif utilisateur.
35 La figure 1 représente un environnement dans lequel est mis en oeuvre le procédé d'interaction d'un dispositif utilisateur avec un dispositif de type automate dans un mode de réalisation particulier. L'environnement comprend deux dispositifs utilisateur 10, 11 accédant à un 3036570 6 réseau de communication 1 par l'intermédiaire d'un réseau d'accès mobile, non représenté sur la figure 1. Le réseau d'accès mobile correspond par exemple à un réseau de communication mobile de type GSM, EDGE, 3G, 3G+ ou 4G (également appelé LTE pour « Long Term Evolution »)... Une architecture de type IMS, pour « IP Multimedia Subsystem », permet d'établir des sessions de 5 communication multimédia IP (pour « Internet Protocol ») entre les différents dispositifs. Le service RCS, pour « Rich Communication Service », s'appuie sur cette architecture IMS pour offrir un service de communication enrichi. Ce service permet à deux ou plusieurs dispositifs au moyen d'une session de communication multimédia d'échanger des messages instantanés (connu sous le nom de « chat »), de partager des fichiers multimédia, d'établir des appels vocaux sur LTE 10 (VoLTE), des appels vidéos sur LTE, ... Le réseau de communication 1 peut correspondre à plusieurs réseaux de communication d'opérateurs de communication différents interconnectés entre eux. Les dispositifs utilisateur 10, 11 peuvent établir des communications vocales entre eux ou avec un dispositif de type automate 20 par l'intermédiaire du réseau de communication 1. Ce 15 dispositif de type automate 20, ou dispositif d'interaction vocale, propose une interaction vocale avec un dispositif utilisateur sous la forme d'échange de menus d'interaction et de données de sélection dans un menu d'interaction selon une logique d'interaction. Un tel dispositif met en oeuvre des étapes d'interaction vocale automatisées. Par la suite, ce dispositif 20 est appelé indifféremment dispositif d'interaction vocale ou serveur vocal interactif. Ce dispositif 20 transmet 20 sous forme vocale un menu d'interaction et reçoit en retour un code DTMF, représentant une donnée de sélection relative au menu d'interaction courant. Dans un autre mode de réalisation, la donnée de sélection est transmise sous forme vocale du dispositif utilisateur au dispositif d'interaction vocale 20 et ce dernier met en oeuvre un algorithme de reconnaissance vocale pour identifier la sélection dans le menu d'interaction. On souligne ici, que dans ces deux cas, la donnée 25 de sélection est transmise sous la forme d'un signal audible. Par ailleurs, il est également souligné que cet environnement est représenté de manière simplifiée pour ne pas surcharger la figure. Aucune limitation n'est notamment attachée au nombre de dispositifs utilisateur, ni au nombre de dispositifs de type automate. Les dispositifs utilisateur 10 et 11 peuvent être tout type de terminaux permettant 30 d'établir une communication téléphonique ou visiophonique, tels qu'un téléphone portable, un téléphone intelligent (« smartphone » en anglais), une tablette, une télévision connectée à un réseau de communication, un ordinateur personnel sur lequel une application de téléphonie, également appelée « softphone », est installée. Dans l'exemple décrit ici, le dispositif utilisateur 10 est un terminal de type 35 « smartphone » disposant d'un écran tactile. Le dispositif utilisateur 10 est connecté au réseau de communication 1 et peut émettre et recevoir tout type de communications, via le réseau de communication 1.
3036570 7 Dans l'exemple décrit ici, le dispositif utilisateur 11 est un terminal disposant d'un écran et d'un clavier. Le dispositif utilisateur 11 est connecté au réseau de communication 1 et peut émettre et recevoir tout type de communications, via le réseau de communication 1. La figure 2 représente un dispositif utilisateur 10 dans un mode particulier de réalisation.
5 Le dispositif utilisateur 10 comprend notamment : - une zone mémoire 101, agencée pour mémoriser une application qui comprend des instructions de code pour mettre en oeuvre les étapes du procédé d'interaction ; - une mémoire de stockage, non représentée, agencée pour stocker des données utilisées lors de la mise en oeuvre du procédé d'interaction ; 10 - un processeur 100 pour exécuter des instructions de code de modules logiciels ; - un module d'interface 102 avec un réseau de communication, agencé pour émettre et recevoir des données ; - un module de communication 103 pour proposer un service de communication enrichi RCS, dit module RCS ; 15 - un module d'interaction 104, agencé pour interagir avec un module d'interaction d'un dispositif de type automate ; - un module d'interface-homme machine 105, agencé pour interagir avec un utilisateur, notamment pour émettre et recevoir des communications vocales. Le module d'interaction 104 dialogue avec le module RCS 103 au moyen d'une interface 20 de programmation (souvent désignée par le terme API pour « Application Programming Interface »). Cette interface de programmation est définie dans le document de spécification de la GSMA, intitulé « RCS Device API 1.5 Specification », Version 2.0, 16 October 2014. Il est ici souligné que le dispositif utilisateur 10 comprend également d'autres modules de traitement, non représentés sur la figure 2, agencés pour mettre en oeuvre les différentes fonctions 25 de dispositif utilisateur. La figure 3 représente un dispositif de type automate dans un mode particulier de réalisation. Ce dispositif 20 comprend notamment : - une zone mémoire 201, agencée pour mémoriser une application qui comprend des instructions de code pour mettre en oeuvre les étapes du procédé d'interaction ; 30 - une mémoire de stockage, non représentée, agencée pour stocker des données utilisées lors de la mise en oeuvre du procédé d'interaction ; - un processeur 200 pour exécuter des instructions de code de modules logiciels ; - un module d'interface 202 avec un réseau de communication, agencé pour émettre et recevoir des données ; 35 - un module de communication 203 pour proposer un service de communication enrichi RCS, dit module RCS ; 3036570 8 - un module d'interaction 204, agencé pour interagir avec un module d'interaction d'un dispositif utilisateur ; - un module applicatif de service vocal 205, agencé pour interagir sous forme vocale avec un utilisateur par l'intermédiaire d'un dispositif utilisateur ; 5 - une zone mémoire 206, agencée pour mémoriser une arborescence de menus et une logique d'interaction avec un utilisateur. Dans un mode particulier de réalisation, la zone mémoire 206 mémorise les menus sous forme textuelle. Dans un autre mode particulier de réalisation, la zone mémoire 206 mémorise les menus 10 sous forme vocale. Le module d'interaction 204 dialogue avec le module RCS 203 au moyen d'une interface de programmation API. Dans un mode de réalisation particulier, le module applicatif de service vocal 205 est un module logiciel programmé à l'aide du langage VoiceXML ou VXML (pour « Voice eXtensible 15 Markup Language » ou langage de balisage extensible vocal), défini par l'organisme de normalisation W3C (pour « World Wide Web Consortium »). Ce langage permet de créer des dialogues avec un serveur vocal interactif, comprenant des fonctions de parole synthétisée, de reconnaissance de saisie vocale ou de code DTMF, d'enregistrement d'entrée vocale, de téléphonie,...
20 Il est ici souligné que le dispositif 20 comprend également d'autres modules de traitement, non représentés sur la figure 3, agencés pour mettre en oeuvre les différentes fonctions de dispositif d'interaction vocale ou serveur vocal. Les modules d'interaction, 104 pour le dispositif utilisateur 10, et 204 pour le dispositif 20, échangent des données par l'intermédiaire de leurs modules de communication RCS respectifs, 25 103 et 203. Le module d'interaction 104 du dispositif utilisateur 10 est agencé pour contrôler le module d'interaction 204 du dispositif 20. Le module d'interaction 204 est agencé pour fournir une interface entre des commandes RCS et le module applicatif de service vocal 205, notamment pour fournir une donnée de sélection sous forme sonore et pour obtenir un menu associé à un état courant du dialogue vocal selon la logique d'interaction.
30 La figure 4a illustre des étapes d'un procédé d'interaction mises en oeuvre par un dispositif utilisateur 10 et par le dispositif 20 selon un mode particulier de réalisation. Le procédé d'interaction est initié par la sélection par un utilisateur du dispositif 10 sur un menu d'interface homme-machine d'une demande d'établissement d'une communication vocale avec un dispositif 20, dit dispositif appelé. Ceci déclenche un envoi par le module IHM 105 au 35 module d'interaction 104 d'une demande d'établissement d'une communication vocale Ml entre le dispositif utilisateur et le dispositif appelé. Cette demande M1 est reçue par le module d'interaction 104 dans une étape El.
3036570 9 Toujours dans cette étape El, le module d'interaction 104 transmet une commande N1 au module RCS 103, afin de détecter si le dispositif appelé 20 met en oeuvre des étapes d'interaction vocale automatisées. Lors d'une étape Fl, le dispositif utilisateur, plus précisément le module RCS 103, envoie 5 au dispositif 20 un message 01 de découverte de capacités de communication du dispositif appelé 20. Dans un mode de réalisation particulier, le message de découverte 01 est par exemple un message SIP OPTIONS selon le protocole SIP (pour « Session Initiation Protocol »). Ce message est envoyé sans nécessiter d'ouverture préalable de session de communication entre les deux dispositifs. Les capacités de communication sont définies dans le document de spécification de la 10 GSMA, intitulé « RCS Device API 1.5 Specification », dans un groupe (« package » en anglais) « com.gsma.services.rcs.capability ». Dans un mode de réalisation particulier, le message de découverte 01 demande l'ensemble des capacités de communication du dispositif 20. Dans un autre mode de réalisation particulier, le message de découverte demande spécifiquement une ou plusieurs capacités de communication, dont une capacité de communication indiquant que le mode 15 de fonctionnement est de type automate. Plus précisément, cette capacité de communication est nommée « rcs.isAutomata » et est un booléen qui prend une valeur « vrai » ou « faux ». Lors d'une étape Gl, le dispositif appelé, plus précisément le module RCS 203, reçoit le message de découverte 01 de capacités de communication en provenance du dispositif utilisateur 10. Toujours dans cette étape Gl, le module RCS 203 envoie au module RCS 103 du dispositif 20 utilisateur 10 un message de réponse 02 au message de découverte 01. Ce message de réponse 02 comprend une indication que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées. Dans un mode de réalisation particulier, ce message 02 est par exemple un message SIP 200 OK, comprenant une capacité de communication indiquant un mode de fonctionnement de type automate. On se place par la suite dans le cas particulier où le dispositif appelé est un 25 dispositif d'interaction vocale ou serveur vocal 20, mettant en oeuvre des étapes d'interaction vocale automatisées. Dans ce cas, la capacité de communication indique que le mode de fonctionnement est de type automate. Dans une étape F2, le module RCS 103 reçoit le message de réponse 02 et transmet au module d'interaction 104 une notification N2 indiquant une détection que le dispositif appelé met 30 en oeuvre des étapes d'interaction automatisées. Dans une étape E2, le module d'interaction 104 détecte que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées, en raison de la demande d'établissement d'une communication vocale et de la réception de la notification N2. Le module d'interaction 104 demande par un message N3 au module RCS 103 d'établir une session multimédia avec le 35 dispositif appelé.
3036570 10 Dans une étape F3, le module RCS 103 transmet au module RCS 203 du dispositif appelé un message 03 de demande d'établissement de session multimédia. Dans un mode de réalisation particulier, le message 03 est un message SIP Multimedia Session Init. Ce message 03 est reçu dans une étape G2 par le module RCS 203. Toujours dans cette 5 étape G2, le module RCS 203 notifie par un message P1 le module d'interaction 204 de la demande d'établissement d'une session multimédia. Dans un mode de réalisation particulier, le message P1 est un message d'interface « SIP Session finit callback ». Il est ici souligné que pour des raisons de lisibilité, seule la fonction est indiquée dans ce message d'interface. L'homme du métier est apte à déterminer aisément à partir de cette fonction le message SIP correspondant. Il en est de même par 10 la suite. Le message P1 est reçu dans une étape H1 par le module d'interaction 204. Toujours dans cette étape H1, le module d'interaction 204 envoie une demande d'acquittement P2 au module RCS 203. Ce dernier envoie alors un acquittement 04 d'établissement de session multimédia au module RCS 103, ayant demandé l'établissement de la session multimédia. Dans un mode de réalisation 15 particulier, ce message d'acquittement est un message SIP 200 OK. Le message d'acquittement 04 est reçu par le module RCS 103 dans une étape F4. Le module RCS 103 notifie alors le module d'interaction 104 par un message N4 que la session multimédia a bien été établie. Ce message de notification N4 est reçu par le module d'interaction 104 dans une étape E3.
20 A l'issue de ces étapes, le dispositif utilisateur 10 a obtenu l'information que le dispositif appelé 20 est un serveur vocal mettant en oeuvre des étapes d'interaction automatisées et a établi une session de communication multimédia. Cette session multimédia permet un dialogue entre le dispositif utilisateur 10 et le dispositif serveur vocal 20, afin d'échanger successivement un menu d'interaction et une sélection relative au menu d'interaction reçu, effectuée par un utilisateur du 25 dispositif appelant. Toujours dans cette étape E3, le module d'interaction 104 demande par un message N5 la fourniture du premier menu d'interaction Menu(1). Ce message N5 est envoyé au module d'interaction 204 au moyen de la session multimédia. Dans une étape H2, le module d'interaction 204 notifie par un message Q1 « CS Voice 30 Call » le module applicatif de service vocal 205 de la réception d'un appel entrant. La réception de ce message Q1 est acquittée par le module applicatif de service vocal 205 par un message Q2. Le module d'interaction 204 demande alors par un message Q3 « Get menu in text format » au module applicatif de service vocal 205 la fourniture du premier menu d'interaction Menu(1). Le module d'interaction 204 reçoit en réponse dans un message Q4 le premier menu Menu(1) sous forme 35 textuelle. Toujours dans cette étape H2, le premier menu d'interaction Menu(1) est envoyé par le module d'interaction 204 au module RCS 203. Ce dernier l'envoie au module RCS 103 du 3036570 11 dispositif appelant dans une étape G3 par un message 05. Ce menu(1) est envoyé sous forme textuelle au moyen de la session multimédia établie pour un affichage sous forme textuelle sur un écran du dispositif utilisateur. Le premier menu d'interaction Menu(1) est reçu par le module RCS 103 dans une étape 5 F5. Le module RCS 103 commande alors au module d'interaction 104 un affichage du menu d'interaction reçu par un message N6 de commande Dans une étape E4, le module d'interaction 104 demande par un message M2 au module IHM 105 d'afficher sous forme textuelle le premier menu Menu(1) à l'écran. Le module IHM 105 affiche alors le premier menu d'interaction Menu(1) dans une fenêtre secondaire (appelée « pop-up 10 window » en anglais). La réception des différents messages est ensuite acquittée (représenté sous la forme de traits pointillés sur la figure 4a). La figure Sa illustre un tel affichage dans une fenêtre secondaire Wl. Le menu(1) affiché comprend ainsi une phrase « Blablal » et deux propositions de réponse « Yes » ou « No » à sélectionner par l'utilisateur du dispositif 10.
15 L'utilisateur interagit avec le dispositif appelant pour sélectionner une des propositions de réponse qui sont affichées dans le premier menu d'interaction Menu(1). Lorsque le dispositif utilisateur dispose d'un écran tactile, la donnée de sélection est saisie par une action de toucher sur l'écran. Dans un autre mode de réalisation, la donnée de sélection relative au premier menu est saisie au moyen d'un clavier du dispositif 10. Dans un autre mode de réalisation, la donnée de 20 sélection est saisie à l'aide de flèches haut/bas. Aucune limitation n'est attachée à la manière dont l'utilisation saisit la donnée de sélection. La figure 4b illustre des étapes d'un procédé d'interaction mises en oeuvre par un dispositif utilisateur 10 et par le dispositif 20 selon un mode particulier de réalisation, suite à la sélection d'une donnée de sélection par l'utilisateur.
25 La donnée de sélection relative au premier menu Menu(1) est obtenue par le module IHM 105. Ceci déclenche un envoi par le module IHM 105 au module d'interaction 104 d'une demande de transmission M3 de la donnée de sélection au dispositif appelé. Cette demande M3 est reçue par le module d'interaction 104 dans une étape E5. Toujours dans cette étape E5, le module d'interaction 104 transmet une commande de 30 transmission N7 sous forme textuelle de la donnée de sélection au module RCS 103. Lors d'une étape F6, le dispositif utilisateur, plus précisément le module RCS 103, envoie au dispositif 20 un message 06 comprenant la donnée de sélection sous forme textuelle au moyen de la session multimédia établie. Lors d'une étape G4, le dispositif appelé, plus précisément le module RCS 203, reçoit en 35 provenance du dispositif utilisateur 10 le message 06 comprenant la donnée de sélection relative au menu d'interaction précédemment envoyé, sous forme textuelle au moyen de la session 3036570 12 multimédia. Toujours dans cette étape G4, le module RCS 203 transmet la donnée de sélection par un message P4 au module d'interaction 204. Le message P4 est reçu dans une étape H3 par le module d'interaction 204. Toujours dans cette étape H3, le module d'interaction 204 convertit la donnée de 5 sélection sous la forme d'une tonalité bi tons multifréquences (DTMF) et envoie la donnée de sélection convertie au module applicatif de service vocal 205 dans un message Q5. Puis dans une étape H4, le module d'interaction 204 demande par un message Q6 « Get next menu in text format » au module applicatif de service vocal 205 la fourniture du prochain menu d'interaction Menu(x). Ce menu dépend de la donnée de sélection qui a été reçue selon la logique d'interaction.
10 Le module d'interaction 204 reçoit en réponse dans un message Q7 le prochain menu Menu(x), dit menu d'interaction courant. Toujours dans cette étape H4, le menu d'interaction courant Menu(x) est envoyé par le module d'interaction 204 au module RCS 203 dans un message P5. Le module RCS 203 l'envoie au module RCS 103 du dispositif appelant dans une étape G5 par un message 07. Ce menu courant 15 Menu(x) est envoyé sous forme textuelle au moyen de la session multimédia établie. Le menu d'interaction courant Menu(x) est reçu par le module RCS 103 dans une étape F7, similaire à l'étape F5 précédemment décrite. Le module RCS 103 commande alors au module d'interaction 104 un affichage du menu d'interaction reçu par un message N8 de commande Le module d'interaction 104 demande ensuite par un message M4 au module IHM 105 20 d'afficher le menu courant Menu(x) à l'écran. Le module IHM 105 affiche alors sous forme textuelle dans une étape E6 le menu d'interaction courant Menu(x) dans la fenêtre secondaire. La réception des différents messages est ensuite acquittée (représenté sous la forme de traits pointillés sur la figure 4b). La figure Sb illustre un tel affichage dans la fenêtre secondaire Wl. Le menu courant 25 Menu(x) affiché comprend ainsi une phrase « Blabla2 » et deux propositions de réponse « Choice l » ou « Choice2 » à sélectionner par l'utilisateur du dispositif 10. L'utilisateur interagit avec le dispositif appelant pour sélectionner une des propositions de réponse qui sont affichées dans le menu d'interaction courant Menu(x). Ces différentes étapes sont ainsi mises en oeuvre de manière successive lorsque 30 l'utilisateur sélectionne une nouvelle donnée, jusqu'à ce que l'interaction de l'utilisateur avec le serveur vocal 20 soit terminée La communication peut prendre fin, ou bien l'utilisateur peut être mis en relation avec un opérateur humain Le mode de réalisation a été décrit avec une réception à l'étape E2 par le module RCS 103 d'un message de réponse 02, dans lequel une capacité de communication indique un mode de 35 fonctionnement de type automate. Il est ici souligné que lorsque le dispositif appelé est un autre dispositif utilisateur 11, la capacité de communication indique que le mode de fonctionnement n'est pas de type automate. Le booléen rcs.isAutomata() prend alors la valeur « faux ». Dans ce cas, à 3036570 13 l'étape E2, le module RCS 103 transmet au module d'interaction 104 une notification indiquant que le dispositif appelé ne met pas en oeuvre des étapes d'interaction automatisées. Il s'agit donc d'un dispositif utilisateur standard. Dans ce cas, le module d'interaction 104 établit la communication vocale avec le dispositif appelé de manière classique. Ainsi, lorsque le dispositif 5 appelé est un terminal classique, l'établissement de la communication vocale n'est pas perturbé du fait de la mise en oeuvre des étapes El, E2 par le module d'interaction 104. Dans le mode de réalisation décrit, un menu d'interaction est transmis sous forme textuelle au moyen de la session multimédia établie. Dans un autre mode de réalisation, le menu d'interaction est transmis sous forme vocale et le module d'interaction 104 convertit le menu reçu 10 sous forme textuelle. Ceci présente l'avantage de ne pas modifier le mode de mémorisation des menus d'interaction au niveau du serveur vocal, lorsque ceux-ci sont mémorisés sous forme vocale. Dans le mode de réalisation décrit, la donnée de sélection est convertie sous forme de tonalité DTMF et transmise sous cette forme par le module d'interaction 204 au module applicatif de service vocal 205. Aucune limitation n'est attachée à ce mode de conversion. La donnée de 15 sélection peut par exemple être convertie sous forme vocale, lorsque l'interaction de l'utilisateur avec le serveur vocal s'effectue de cette manière. Le module d'interaction 204 convertit la donnée de sélection par synthèse vocale et le module applicatif de service vocal 205 met alors en oeuvre un algorithme de reconnaissance vocale pour reconnaître la donnée de sélection. Ceci permet de limiter les modifications à apporter pour certains types de serveurs vocaux. Dans un autre mode de 20 réalisation, la donnée de sélection est transmise directement sous forme textuelle au module applicatif de service vocal 205. Dans le mode de réalisation décrit, une session multimédia est établie suite à la détection que le dispositif appelé met en oeuvre des étapes automatisées d'interaction vocale. Dans un autre mode de réalisation, la session multimédia est établie suite à la demande d'établissement d'une 25 communication vocale entre le dispositif utilisateur et le dispositif appelé. Ceci permet d'accélérer l'affichage du premier menu d'interaction. Dans le mode de réalisation décrit, il est prévu un affichage d'un menu d'interaction, suivie d'une sélection dans le menu d'interaction affiché, cette sélection permettant de sélectionner le menu suivant. Dans le cadre d'une interaction avec un serveur de messagerie vocale, la session 30 multimédia permet également de transmettre un message vocal laissé par un correspondant. Dans ce mode de réalisation, un tag audio (tag <audio> en VXML par exemple) correspond à un pointeur vers un message vocal laissé par un correspondant. Un tag audio dans un menu d'interaction est alors transformé par le module d'interaction 204 en un autre tag à destination du module d'interaction 104. Ce dernier transforme alors cet autre tag en un lien pour être affiché sur le 35 dispositif utilisateur. Ce lien est sélectionnable par un clic au moyen de l'interface homme-machine du dispositif utilisateur. Sur sélection par l'utilisateur, le module d'interaction 104 détecte cet autre tag et déclenche la restitution du flux audio associé au message vocal sélectionné. La lecture ou 3036570 14 restitution audio peut être effectuée en mode téléchargement continu (connu sous le terme de « streaming » en anglais) avec le serveur vocal. Dans ce cas, le module d'interaction 104 se connecte au moyen du lien à un serveur de téléchargement audio associé au serveur vocal. A titre d'exemple illustratif, ce lien prend la forme <audio src= 5 « www.server.com/mystreaming/audio.mp3 »>. La lecture audio peut également être effectuée localement si le fichier audio a été téléchargé via la session multimédia. A titre d'exemple illustratif, ce lien prend la forme <audio src= « /sdcard/mystreaming/audio.mp3 »>. Lors de la lecture du flux audio associé au message vocal, une deuxième fenêtre secondaire (« pop-up ») est affichée sur l'écran avec des boutons de contrôle de la lecture (ex : play, pause, stop). Le menu 10 d'interaction reste affiché sur l'écran dans la première fenêtre secondaire. Une fois la lecture audio terminée ou bien en cas d'interruption de la restitution par l'utilisateur, un menu d'interaction est alors affiché. L'ergonomie du service de consultation et de gestion des messages vocaux est ainsi améliorée. Dans un autre mode de réalisation, le message vocal est converti en un message textuel. A 15 cet effet, le serveur vocal sollicite un module de conversion de parole vers du texte pour effectuer cette conversion. Plus précisément, à l'étape H4, le module d'interaction 204 demande par le message Q6 « Get next menu in text format » au module applicatif de service vocal 205 la fourniture du prochain menu d'interaction Menu(x). Ce menu dépend de la donnée de sélection qui a été reçue selon la logique d'interaction. Le module d'interaction 204 reçoit en réponse dans un 20 message Q7 le prochain menu Menu(x), dit menu d'interaction courant. Le module d'interaction 204 détecte dans ce menu d'interaction courant un tag audio, par exemple un tag <audio> VXML. Dans ce cas, le module d'interaction 204 demande au module applicatif de service vocal 205 par un message « get voice message in text format » de lui transmettre sous forme texte le message vocal identifié par le tag audio. Le module applicatif de service vocal 205 sollicite alors le module de 25 conversion afin d'obtenir le message vocal sous forme textuelle et le transmet au module d'interaction 204. Le message sous forme textuelle est alors envoyé avec le menu d'interaction courant Menu(x) par le module d'interaction 204 au module RCS 203 dans un message P5. Le module RCS 203 l'envoie au module RCS 103 du dispositif appelant lors de l'étape G5 par le message 07. Ce menu courant Menu(x) et le message vocal sont ainsi envoyés sous forme textuelle 30 au moyen de la session multimédia établie. Le menu courant comprend alors un lien contenant directement le contenu du message vocal (par exemple, <audio txt= « blabla »>). L'affichage du menu d'interaction courant sous forme textuelle est réalisé ensuite comme décrit précédemment. L'affichage du texte correspondant au message vocal est affiché dans une deuxième fenêtre secondaire (« pop-up) à la demande de l'utilisateur. Ce mode de réalisation présente l'avantage de 35 s'effectuer entièrement sous forme textuelle et permet ainsi d'interagir avec un serveur de messagerie vocale pour prendre connaissance de messages vocaux de manière silencieuse. Cette consultation peut ainsi s'effectuer de manière aisée en public. Ce mode de réalisation est également 3036570 15 avantageux pour des personnes malentendantes. Alternativement, le message vocal est converti en texte lors de sa réception par le dispositif utilisateur. On constate ainsi que du point de vue de l'utilisateur, dans ces différents modes de réalisation, l'interaction avec le serveur vocal est très simplifiée. L'utilisateur ne doit pas écouter 5 un menu dans sa totalité et mémoriser les choix qui lui sont proposés. Il lui suffit de lire le menu affiché dans la fenêtre secondaire. De même, lorsque l'écran est tactile, la sélection du choix s'effectue de manière plus naturelle. Ainsi, le procédé d'interaction permet de simplifier une interaction d'un utilisateur avec un serveur vocal mettant en oeuvre des étapes d'interaction vocale automatisées.
10 Aucune limitation n'est attachée à ces différents modes de réalisation et l'homme du métier est à même d'en définir d'autres visant à afficher à l'écran des menus d'interaction sous forme textuelle dans une fenêtre secondaire. La technique d'interaction est mise en oeuvre au moyen de composants logiciels et/ou matériels. Dans cette optique, le terme "module" peut correspondre dans ce document aussi bien à 15 un composant logiciel, qu'à un composant matériel ou à un ensemble de composants matériels et/ou logiciels, apte à mettre en oeuvre une fonction ou un ensemble de fonctions, selon ce qui est décrit précédemment pour le module concerné. Un composant logiciel correspond à un ou plusieurs programmes d'ordinateur, un ou plusieurs sous-programmes d'un programme, ou de manière plus générale à tout élément d'un 20 programme ou d'un logiciel. Un tel composant logiciel est stocké en mémoire puis chargé et exécuté par un processeur de données d'une entité physique et est susceptible d'accéder aux ressources matérielles de cette entité physique (mémoires, supports d'enregistrement, bus de communication, cartes électroniques d'entrées/sorties, interfaces utilisateur, etc). De la même manière, un composant matériel correspond à tout élément d'un ensemble 25 matériel (ou hardware). Il peut s'agir d'un composant matériel programmable ou non, avec ou sans processeur intégré pour l'exécution de logiciel. Il s'agit par exemple d'un circuit intégré, d'une carte à puce, d'une carte électronique pour l'exécution d'un micrologiciel (firmware), etc. Dans un mode de réalisation particulier, les modules 103, 104 sont agencés pour mettre en oeuvre le procédé d'interaction précédemment décrit. Il s'agit de préférence de modules logiciels 30 comprenant des instructions logicielles pour faire exécuter celles des étapes du procédé d'interaction précédemment décrit, mises en oeuvre par un dispositif utilisateur. L'invention concerne donc aussi : - un programme pour un dispositif utilisateur, comprenant des instructions de code de programme destinées à commander l'exécution des étapes du procédé d'interaction précédemment décrit, 35 lorsque ledit programme est exécuté par ce dispositif utilisateur ; - un support d'enregistrement lisible par un dispositif utilisateur sur lequel est enregistré le programme pour un dispositif.
3036570 16 Dans un mode de réalisation particulier, les modules 203, 204 sont agencés pour mettre en oeuvre le procédé d'interaction précédemment décrit. Il s'agit de préférence de modules logiciels comprenant des instructions logicielles pour faire exécuter celles des étapes du procédé d'interaction précédemment décrit, mises en oeuvre par un dispositif d'interaction vocale.
5 L'invention concerne donc aussi : - un programme pour un dispositif d'interaction vocale, comprenant des instructions de code de programme destinées à commander l'exécution des étapes du procédé d'interaction précédemment décrit, lorsque ledit programme est exécuté par ce dispositif d'interaction vocale ; - un support d'enregistrement lisible par un dispositif d'interaction vocale sur lequel est enregistré 10 le programme pour un dispositif d'interaction vocale. Les modules logiciels peuvent être stockés dans ou transmis par un support de données. Celui-ci peut être un support matériel de stockage, par exemple un CD-ROM, une disquette magnétique ou un disque dur, ou bien un support de transmission tel qu'un signal électrique, optique ou radio, ou un réseau de télécommunication. 15

Claims (13)

  1. REVENDICATIONS1. Procédé d'interaction d'un dispositif utilisateur (10, 11) avec un dispositif appelé, ledit procédé comprenant, lorsqu'une demande d'établissement d'une communication vocale entre le dispositif utilisateur et le dispositif appelé est émise : - une détection (E2) par le dispositif utilisateur que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées ; - un affichage (E4, E6) sur un écran du dispositif utilisateur sous forme textuelle d'un menu d'interaction reçu au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé ; - un envoi (E5) par le dispositif utilisateur sous forme textuelle au moyen de la session multimédia d'une donnée de sélection relative au menu d'interaction reçu.
  2. 2. Procédé d'interaction selon la revendication 1, dans lequel la détection comprend un envoi (F1) au dispositif appelé d'un message de découverte de capacités de communication et une réception (F2) d'une capacité de communication indiquant un mode de fonctionnement de type automate.
  3. 3. Procédé d'interaction selon la revendication 1, dans lequel la session multimédia est établie suite à la détection que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées.
  4. 4. Procédé d'interaction selon la revendication 1, dans lequel le menu d'interaction est reçu sous forme textuelle au moyen de la session multimédia.
  5. 5. Procédé d'interaction d'un dispositif utilisateur (10, 11) avec un dispositif appelé, ledit procédé comprenant, lorsqu'une demande d'établissement d'une communication vocale entre le dispositif utilisateur et le dispositif appelé est reçue : - une fourniture (G1) par le dispositif appelé au dispositif utilisateur d'une indication que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées ; - un envoi (G3) au dispositif utilisateur d'un menu d'interaction au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé pour un affichage sous forme textuelle sur un écran du dispositif utilisateur ; - une réception (G4) par le dispositif appelé d'une donnée de sélection relative au menu d'interaction envoyé, reçue sous forme textuelle au moyen de la session multimédia.
  6. 6. Procédé d'interaction selon la revendication 5, dans lequel la fourniture comprend une réception (G1) par le dispositif appelé d'un message de découverte de capacités de communication et un 3036570 18 envoi (G1) d'une capacité de communication indiquant un mode de fonctionnement de type automate.
  7. 7. Procédé d'interaction selon la revendication 5, dans lequel le menu d'interaction est envoyé sous 5 forme textuelle au moyen de la session multimédia.
  8. 8. Dispositif utilisateur (10, 11) comprenant : - un module d'interaction (104), agencé pour : - détecter qu'un dispositif pour lequel une demande d'établissement d'une communication 10 vocale est émise, dit dispositif appelé, met en oeuvre des étapes d'interaction vocale automatisées ; - recevoir un menu d'interaction au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé ; - envoyer sous forme textuelle au moyen de la session multimédia d'une donnée de 15 sélection relative au menu d'interaction reçu ; un module d'interface homme-machine (105), agencé pour afficher sur un écran du dispositif utilisateur sous forme textuelle le menu d'interaction reçu.
  9. 9. Dispositif d'interaction vocale (20), agencé pour interagir au moyen d'une communication 20 vocale avec un dispositif utilisateur, ledit dispositif d'interaction vocale comprenant : - un module de communication (203), agencé pour fournir un service de communication enrichi et pour fournir à un dispositif utilisateur le requérant une indication que ledit dispositif d'interaction vocale met en oeuvre des étapes d'interaction vocale automatisées ; - un module d'interaction (204), agencé pour : 25 - fournir en réponse à une demande d'un dispositif utilisateur un menu d'interaction au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif d'interaction vocale pour un affichage sous forme textuelle sur un écran du dispositif utilisateur ; - recevoir une donnée de sélection relative au menu d'interaction envoyé, reçue sous forme 30 textuelle au moyen de la session multimédia.
  10. 10. Programme pour un dispositif utilisateur, comprenant des instructions de code de programme destinées à commander l'exécution de celles des étapes du procédé d'interaction selon l'une des revendications 1 à 4 mises en oeuvre par le dispositif, lorsque ledit programme est exécuté par ledit 35 dispositif. 3036570 19
  11. 11. Support d'enregistrement lisible par un dispositif utilisateur sur lequel est enregistré le programme selon la revendication 10.
  12. 12. Programme pour un dispositif d'interaction vocale, comprenant des instructions de code de 5 programme destinées à commander l'exécution de celles des étapes du procédé d'interaction selon l'une des revendications 5 ou 6 mises en oeuvre par le dispositif, lorsque ledit programme est exécuté par ledit dispositif.
  13. 13. Support d'enregistrement lisible par un dispositif d'interaction vocale sur lequel est enregistré 10 le programme selon la revendication 12.
FR1554629A 2015-05-22 2015-05-22 Technique d'interaction d'un dispositif utilisateur avec un dispositif appele Withdrawn FR3036570A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1554629A FR3036570A1 (fr) 2015-05-22 2015-05-22 Technique d'interaction d'un dispositif utilisateur avec un dispositif appele

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1554629A FR3036570A1 (fr) 2015-05-22 2015-05-22 Technique d'interaction d'un dispositif utilisateur avec un dispositif appele

Publications (1)

Publication Number Publication Date
FR3036570A1 true FR3036570A1 (fr) 2016-11-25

Family

ID=54140583

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1554629A Withdrawn FR3036570A1 (fr) 2015-05-22 2015-05-22 Technique d'interaction d'un dispositif utilisateur avec un dispositif appele

Country Status (1)

Country Link
FR (1) FR3036570A1 (fr)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012068510A1 (fr) * 2010-11-20 2012-05-24 Millind Mittal Procédé et appareil pour des systèmes de réponse vocale à répartiteur automatisé équipé en plus d'un canal de données

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012068510A1 (fr) * 2010-11-20 2012-05-24 Millind Mittal Procédé et appareil pour des systèmes de réponse vocale à répartiteur automatisé équipé en plus d'un canal de données

Similar Documents

Publication Publication Date Title
US10084912B2 (en) Communication of information during a call
EP2174476B1 (fr) Système et procédé de communication d&#39;affichage du contenu d&#39;un contact d&#39;un utilisateur
US8355678B2 (en) System and method for controlling communications during an E-reader session
EP2443806B1 (fr) Module client ussd generique intelligent embarque dans un terminal de telecommunications
FR3039030A1 (fr) Procede et dispositif d&#39;etablissement de communications webrtc
CN101834957A (zh) 一种基于家庭网关的来电管理方法及系统
FR3036570A1 (fr) Technique d&#39;interaction d&#39;un dispositif utilisateur avec un dispositif appele
EP2820821B1 (fr) Procede et dispositif de mise a disposition d&#39;au moins une donnee de communication
EP3104586A1 (fr) Procédé de partage d&#39;un contenu numérique en cours de communication
EP2992657B1 (fr) Procédé et dispositif pour contrôler l&#39;utilisation d&#39;un flux de données d&#39;une communication
EP4348985B1 (fr) Équipement et procédé de restitution de contenu audio dans le cadre d&#39;un service numérique interactif
US10951771B2 (en) Method and apparatus for call handling control
EP3643057B1 (fr) Procédé d&#39;établissement d&#39;une communication avec un serveur interactif
EP4348985A1 (fr) Équipement et procede de restitution de contenu audio dans le cadre d&#39;un service numerique interactif
WO2015128561A1 (fr) Procede et dispositif de decouverte des capacites de communication relatives a un utilisateur d&#39;un terminal
EP3219090A1 (fr) Procédé et dispositif de communication
FR3023117A1 (fr) Procede et dispositif d&#39; etablissement d&#39; une communication
FR2828368A1 (fr) Procede de transmission et de restitution d&#39;un message multimedia pour terminal mobile
EP3021552A1 (fr) Procédé et dispositif de communication via un espace d&#39;interaction partagé
FR3034275A1 (fr) Procede et dispositif du nommage d&#39;un terminal

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20161125

ST Notification of lapse

Effective date: 20180131