[go: up one dir, main page]

FR3143816A1 - Procédé de gestion de la consultation d’un contenu numérique - Google Patents

Procédé de gestion de la consultation d’un contenu numérique Download PDF

Info

Publication number
FR3143816A1
FR3143816A1 FR2213381A FR2213381A FR3143816A1 FR 3143816 A1 FR3143816 A1 FR 3143816A1 FR 2213381 A FR2213381 A FR 2213381A FR 2213381 A FR2213381 A FR 2213381A FR 3143816 A1 FR3143816 A1 FR 3143816A1
Authority
FR
France
Prior art keywords
user
consultation
content
data
digital content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2213381A
Other languages
English (en)
Inventor
Ghislain Moncomble
Thomas Bultel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR2213381A priority Critical patent/FR3143816A1/fr
Publication of FR3143816A1 publication Critical patent/FR3143816A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/306User profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/565Conversion or adaptation of application format or content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Procédé de gestion de la consultation d’un contenu numérique L’invention se rapporte à un procédé de gestion de la consultation d’un contenu numérique (C2) apte à être restitué par un dispositif, caractérisé en ce qu’il comprend les étapes suivantes : Rassemblement (R) préalable de données relatives à la consultation de contenus numériques (C1, C1’, C1’’) par un ensemble de premiers utilisateurs (U1, U1’, U1’’)Classification (C) préalable des premiers utilisateurs (U1, U1’, U1’’) en différents groupes selon les premières données rassemblées (R) au préalableObtention (O) de données lors de la consultation d’un contenu numérique (C2) par un utilisateur (U2), lesdites données étant relatives à la consultation du contenu (C2) par l’utilisateur (U2) Affectation (A) de l’utilisateur (U2) à un des groupes des premiers utilisateurs (U1, U1’, U1’’) issus de l’étape préalable de classification (C), en fonction des données obtenues (O) Modification (M) du contenu numérique (C2) en fonction du groupe auquel l’utilisateur (U2) a été affecté précédemment Figure 1

Description

Procédé de gestion de la consultation d’un contenu numérique
Le domaine technique est celui de la consultation de contenus numériques.
Plus précisément, l’invention se rapporte à un procédé de gestion de la consultation d’un contenu numérique apte à être restitué par un dispositif de traitement de données équipé d’un processeur.
Les contenus numériques dont il est question peuvent être n’importe quel contenu qui peut être restitué par un dispositif tel qu’un ordinateur, une tablette, un ordiphone, une télévision ou tout autre dispositif similaire qui comprend un programme de lecture du contenu numérique tel qu’un programme de visionnage de vidéos, ou d’affichage de texte ou autre. Il peut s’agir d’une vidéo, ou bien d’un texte, ou bien d’une piste audio, ou plus généralement d’un mélange de ces trois types de contenus. Par exemple, un contenu numérique selon l’invention sera un contenu multimédia, formé principalement de textes, dans lequel il sera possible de naviguer via des liens hypertextes, et qui comprendra également des vidéos ou des bandes sons. Un programme permettant de lire un tel contenu numérique sera alors un navigateur Web comprenant des modules de lecture de vidéos ou de bandes son. Mais l’invention peut s’appliquer aussi bien à un contenu uniquement textuel ou à un contenu formé uniquement d’une vidéo.
L’apprentissage de domaines techniques passe souvent par la consultation de contenus numériques. Ces contenus sont des documents techniques qui peuvent être majoritairement formés de textes à lire, qui seront lus sur ordinateur et qui comprennent aussi des contenus multimédias et des liens hypertextes pour naviguer dans le document. En particulier, des informations complémentaires au contenu du document peuvent être accédées par le lecteur. Ces contenus peuvent être des contenus d’information basique sur le domaine du document, par exemple des définitions de termes, ou bien des glossaires. Ces contenus peuvent aussi être des contenus d’information avancée, par exemple des informations complémentaires, qu’il n’est pas nécessaire de consulter dans un premier temps pour comprendre les grandes lignes du domaine technique, mais qu’il est utile de consulter ultérieurement pour une meilleure compréhension du domaine.
Un apprenant va alors avoir un parcours d’apprentissage spécifique selon son niveau de compétences générales et de connaissance du domaine. Un apprenant débutant aura tendance à regarder davantage les contenus d’information basique et n’ira pas consulter les compléments, alors qu’un apprenant déjà confirmé aura un parcours plus rapide de certains documents ou parties de documents et n’ira pas consulter les contenus d’information basique. Il pourra cependant s’attarder sur des contenus complémentaires.
Le besoin d’avoir un parcours de consultation différencié se trouve principalement dans la consultation de documents techniques mais peut aussi être ressenti dans la consultation de tout type de document, y compris pour des consultations de loisir. Selon son appétence, un spectateur pourra s’attarder sur certaines scènes d’un livre ou d’un film, selon sa catégorie, et au contraire vouloir accélérer sur d’autres.
Etat de la technique
Il existe des systèmes d’aide à l’apprentissage qui vont faciliter le parcours d’apprentissage d’un utilisateur dans un document technique. Ces systèmes s’appuient sur l’observation de l’utilisateur pendant son parcours d’apprentissage. Une caméra va être pointée sur l’utilisateur et suivre son regard. En situation de lecture, ceci permet à un système d’aide à l’apprentissage de détecter les passages sur lesquels l’utilisateur passe davantage de temps, ou bien au contraire ceux sur lesquels l’utilisateur passe rapidement. Le système d’aide à l’apprentissage peut alors proposer des contenus complémentaires à l’utilisateur pour lui faciliter l’apprentissage d’un passage du document sur lequel il passe davantage de temps. Ces contenus complémentaires peuvent être par exemple des définitions, ou bien des versions plus détaillées ou simplifiées du même contenu et peuvent être présentées dans des fenêtres « pop-up » ou bien via des messages audios ou vidéos.
En situation de consultation d’une vidéo, le filmage de l’utilisateur va permettre de déterminer un suivi de l’attention. L’analyse du visage de l’utilisateur en train de consulter une vidéo permet de déterminer son niveau d’attention, en s’appuyant par exemple sur le mouvement des yeux, qui peuvent rouler en cas d’incompréhension, ou ne plus être fixés sur l’écran, ou bien en s’appuyant sur le froncement des sourcils ou sur tout autre indice pertinent. Le suivi de l’attention au moment du passage difficile lui-même ne révèlera pas de difficulté immédiate, mais une perte de concentration juste après. La partie qui devra être complétée par des explications supplémentaires n’est donc pas la partie dans laquelle le spectateur perd sa concentration, mais celle immédiatement précédente. La perte d’attention va en général perdurer car l’utilisateur a perdu le fil de la présentation, même si les séquences suivantes ne présentent pas de difficulté du point de vue de l’utilisateur. Les passages suivants devront donc également être complétés en général. Dans ce cas, des contenus complémentaires pourraient être proposés et pourront comprendre des messages invitant à revenir en arrière ou à visualiser une version plus simple du passage qui a déclenché la perte d’attention.
Ces propositions de contenus complémentaires ne s’appuient que sur les actions préalables de l’utilisateur. A ce titre, elles ne sont pas forcément adaptées à la nature réelle de l’utilisateur. Celui-ci peut passer davantage de temps sur un passage d’un document à un moment donné pour une raison externe, et il lui sera proposé un contenu complémentaire alors qu’il n’en a pas besoin, ce que l’utilisateur percevra comme un dysfonctionnement du système d’aide à l’apprentissage.
Un autre inconvénient de l’état de l’art est que les aides ne seront déclenchées que lorsqu’un utilisateur bute ou hésite sur un contenu particulier ou perd son attention à la suite de la vision d’un passage difficile. Ce système implique donc des arrêts de la part de l’utilisateur pour que le système puisse déterminer son hésitation. Finalement, ce système fait perdre du temps à l’utilisateur puisqu’il n’est pas possible de déterminer à l’avance, sans arrêt de l’utilisateur, quels sont les contenus qu’il sera approprié de compléter.
De plus, de tels systèmes doivent être actifs tout au long du parcours d’apprentissage de l’utilisateur, afin de lui proposer des contenus appropriés en réaction directe aux hésitations que l’utilisateur a sur certains contenus. Ce fonctionnement en continu du système d’aide à l’apprentissage est très consommateur en ressources de calcul ou autres.
L’invention vient améliorer la situation.
L’invention
Selon un premier aspect fonctionnel, l’invention a trait à un procédé de gestion de la consultation d’un contenu numérique apte à être restitué par un dispositif, caractérisé en ce qu’il comprend les étapes suivantes :
  • Rassemblement préalable de données, dites premières données, relatives à la consultation de contenus numériques, dits premiers contenus, par un ensemble de premiers utilisateurs
  • Classification préalable des premiers utilisateurs en différents groupes selon les premières données rassemblées au préalable
  • Obtention de données, dites deuxièmes données, lors de la consultation d’un contenu numérique, dit deuxième contenu, par un utilisateur, dit deuxième utilisateur, lesdites deuxièmes données étant relatives à la consultation du deuxième contenu par le deuxième utilisateur
  • Affectation du deuxième utilisateur à un des groupes des premiers utilisateurs issus de l’étape préalable de classification, en fonction des deuxièmes données
  • Modification du deuxième contenu numérique en fonction du groupe auquel le deuxième utilisateur a été affecté précédemment
Grâce à l’invention, les modifications de contenu permettant de faciliter la consultation de celui-ci pour un utilisateur donné ne s’appuient pas seulement sur la consultation du contenu par l’utilisateur mais sur la consultation de tout un ensemble de contenus par tout un ensemble d’utilisateurs. Grâce à la classification de ces premiers utilisateurs, et à l’observation de la consultation d’un contenu par un deuxième utilisateur, il est possible de classifier le deuxième utilisateur et de modifier le contenu qu’il consulte pour faciliter sa consultation. Les premiers contenus concerneront en général un même domaine. Le deuxième contenu consulté pourra faire partie des premiers contenus, mais ce n’est pas une obligation totale. En général, le deuxième contenu appartiendra au même domaine que les premiers contenus. Ainsi des groupes d’utilisateurs pourront être définis quant à leurs compétences dans le domaine auquel appartiennent les différents contenus et donc sur les particularités de leurs parcours de consultation des contenus.
La modification du deuxième contenu numérique consulté par le deuxième utilisateur va permettre de limiter les phases d’hésitation, de reprise, sur les passages non maîtrisés par le deuxième utilisateur, et permettra aussi d’accélérer la consultation des passages maîtrisés. La modification utilise la classification de l’utilisateur qui correspond à des parcours similaires de consultation et donc de façon indirecte à un niveau de compétences ou à un ensemble d’appétences observé chez les premiers utilisateurs.
Un avantage de l’invention est donc de permettre l’économie de ressources consommées par le deuxième utilisateur pendant sa consultation du deuxième contenu en rendant plus fluide son parcours de consultation du deuxième contenu. Il diminuera sa consommation électrique et la taille occupée par le contenu consulté en mémoire pourra également diminuer. Un autre avantage est que l’utilisateur comprendra mieux le contenu consulté et gagnera donc du temps lors de sa consultation.
Selon encore un premier mode de mise en œuvre particulier de l’invention, la modification du deuxième contenu numérique se fait de surcroît en fonction des deuxièmes données obtenues.
Grâce à ce mode, les deuxièmes données, relatives au parcours de consultation du deuxième contenu par le deuxième utilisateur, sont également utilisées de façon directe, et pas seulement de façon indirecte à travers l’affectation du deuxième utilisateur à un des groupes d’utilisateurs. Ces deuxièmes données permettent de connaître un niveau de compétence de l’utilisateur face à des concepts présentés dans son parcours du deuxième contenu. Cette information a l’avantage de pouvoir rendre plus précise les modifications utiles dans le parcours du deuxième contenu. Les deuxièmes données seront enregistrées tout le long de leur obtention. Lors de consultations ultérieures, les deuxièmes données relatives à des consultations passées pourront également être utilisées et mettre en évidence les évolutions du niveau de compétence du deuxième utilisateur.
Selon un deuxième mode de mise en œuvre particulier de l’invention, qui pourra être mis en œuvre alternativement ou cumulativement avec le précédent mode, les premières données rassemblées au préalable comprennent des données relatives à la durée de consultation de passages desdits premiers contenus par lesdits premiers utilisateurs.
Grâce à ce deuxième mode, une information de durée de consultation est recueillie et permet de détecter les passages qui sont facilement assimilés par les utilisateurs lors de leur consultation ou au contraire qui sont difficiles et prennent du temps à être assimilés. Cet ensemble de données permettra d’informer la phase de classification des utilisateurs qui sera donc plus précise. Ces données sont en général davantage pertinentes quand elles concernent la consultation de contenus écrits.
Selon un troisième mode de mise en œuvre particulier de l’invention, qui pourra être mis en œuvre alternativement ou cumulativement avec les modes précédents, le procédé comprend une étape de capture du suivi du regard desdits premiers utilisateurs et les premières données rassemblées au préalable comprennent des données relatives au suivi du regard des premiers utilisateurs.
Grâce à ce mode, les informations de suivi de regard donnent des données précises permettant de regrouper les utilisateurs suivant leur facilité à consulter certains passages des contenus numériques. Lors d’une lecture, un regard butant sur les mots, revenant en arrière, indique une difficulté sur un passage donné. Lors de la consultation d’une vidéo, le décrochage du regard, qui ne suit plus l’écran, peut indiquer que le passage précédent était difficile pour l’utilisateur dont le regard est suivi. Dans tous les cas, ces données permettent d’informer la phase de classification des utilisateurs, classification qui sera donc plus précise.
Selon un quatrième mode de mise en œuvre particulier de l’invention, qui pourra être mis en œuvre alternativement ou cumulativement avec les précédents modes, le procédé comprend une étape de filmage desdits premiers utilisateurs et les premières données rassemblées au préalable comprennent des données relatives au niveau d’attention des premiers utilisateurs.
Grâce à ce mode, des données relatives au niveau d’attention des premiers utilisateurs sont rassemblées tout au long de la consultation des premiers contenus. Ces données peuvent être obtenues par un filmage des premiers utilisateurs qui ne se limite pas au suivi du regard mais pourra également détecter des expressions complètes du visage, comprenant des mouvements d’yeux, mais aussi des froncements de sourcils, des mouvements de la tête, des battements de pied, des soupirs ou toute autre expression pertinente pour déterminer le niveau d’attention. L’avantage de ce mode est là encore d’informer au mieux la phase de classification afin d’obtenir la classification la plus exacte possible des premiers utilisateurs en différents groupes. Un avantage de ne pas se limiter au suivi du regard mais à un filmage complet de l’utilisateur est de permettre de détecter une perte d’attention y compris d’un utilisateur qui se limite à écouter un contenu uniquement sonore, tel qu’un podcast, ou une émission radiodiffusée.
Selon un cinquième mode de mise en œuvre particulier de l’invention, qui pourra être mis en œuvre alternativement ou cumulativement avec les précédents modes, les deuxièmes données obtenues comprennent des données relatives à la durée de consultation de passages dudit deuxième contenu par ledit deuxième utilisateur.
Selon un sixième mode de mise en œuvre particulier de l’invention, qui pourra être mis en œuvre cumulativement avec les modes précédents, le procédé comprend une étape de capture du suivi du regard dudit deuxième utilisateur et les deuxièmes données obtenues comprennent des données relatives au suivi du regard du deuxième utilisateur.
Selon un septième mode de mise en œuvre particulier de l’invention, qui pourra être mis en œuvre cumulativement avec les modes précédents, le procédé comprend une étape de filmage dudit deuxième utilisateur et les deuxièmes données obtenues comprennent des données relatives au niveau d’attention du deuxième utilisateur.
Grâce à ces trois modes, des données similaires à celles qui ont été rassemblées pour réaliser la classification des premiers utilisateurs sont recueillies pour le deuxième utilisateur. Ces données obtenues au sujet du deuxième utilisateur permettront de réaliser une affectation du deuxième utilisateur dans un des groupes obtenus lors de la classification des premiers utilisateurs de façon pertinente, en déterminant les passages dans le deuxième contenu qui sont faciles à consulter pour le deuxième utilisateur, ou au contraire les passages qui présentent des difficultés.
Selon un huitième mode de mise en œuvre particulier de l’invention, qui pourra être mis en œuvre cumulativement avec les modes précédents, la modification dudit deuxième contenu comprend l’insertion ou la suppression de passages dans le deuxième contenu, les passages insérés ou supprimés étant choisis en fonction du groupe auquel le deuxième utilisateur a été affecté précédemment et des deuxièmes données obtenues.
Grâce à ce mode, le procédé permet d’adapter le contenu numérique, en cours de consultation, aux connaissances ou aux appétences de l’utilisateur telles qu’elles ont pu être observées et telles qu’elles ont contribué à la classification de l’utilisateur. Comme la classification reprend des informations issues de parcours de consultation précédents des premiers utilisateurs sur le même contenu, ou sur des contenus traitant du même domaine ou présentant des passages similaires, ainsi que les deuxièmes données rassemblées sur la consultation déjà effectuée par le deuxième utilisateur, les modifications présentées ici permettront d’adapter le deuxième contenu aux connaissances du deuxième utilisateur. Cette adaptation permettra de consommer moins de ressources, par exemple en termes de mémoire ou de consommation électrique, car l’adaptation du contenu rendra le parcours de consultation par le deuxième utilisateur beaucoup plus fluide.
L’adaptation de contenu pourra également être appliquée à d’autres contenus avant que le deuxième utilisateur ne commence à consulter ceux-ci.
Selon un neuvième mode de mise en œuvre particulier de l’invention, qui pourra être mis en œuvre cumulativement avec les modes précédents, la modification dudit deuxième contenu comprend la modification de la vitesse de défilement de passages audios ou audiovisuels du deuxième contenu, la vitesse de défilement desdits passages étant choisie en fonction du groupe auquel le deuxième utilisateur a été affecté et des deuxièmes données obtenues.
Ce mode de réalisation réalise également une adaptation du contenu selon la classification dans laquelle le deuxième utilisateur a été affectée et les deuxièmes données obtenues jusqu’à présent quant à la consultation du contenu. Cette modification est spécialement adaptée aux contenus audios et audio-visuels. Des passages qui sont a priori faciles pour le deuxième utilisateur, telle que sa classification permet de le déduire, ou plus généralement des passages qui ne l’intéressent pas, seront accélérés ; et d’autres plus difficiles seront ralentis, ou en tout cas passés à vitesse normale. Grâce à ce mode, les adaptations de contenu, qui permettent de consommer moins de ressources pour la consultation du contenu, s’appliquent également à des contenus audio-visuels.
Selon un dixième mode de mise en œuvre particulier de l’invention, qui pourra être mis en œuvre cumulativement avec les modes précédents, l’ensemble des deuxièmes données obtenues lors d’une consultation du deuxième contenu par le deuxième utilisateur sont conservées et le deuxième contenu numérique est modifié lors de consultations ultérieures par le deuxième utilisateur en fonction du groupe auquel le deuxième utilisateur a été affecté et en fonction de l’ensemble des deuxièmes données conservées.
Grâce à ce mode, les deuxièmes données obtenues au fur et à mesure de consultations successives du deuxième contenu par le deuxième utilisateur sont conservées au fur et à mesure des consultations et sont utilisées pour affiner les adaptations successives du deuxième contenu. Ce mode permet par exemple de prendre en compte l’amélioration par le deuxième utilisateur de sa maîtrise du domaine traité par le deuxième contenu. L’avantage sera là encore une plus grande fluidité de la consultation du deuxième contenu par le deuxième utilisateur et donc une économie de ressources mémoire ou de consommation électrique ainsi que du temps de consultation par le deuxième utilisateur.
Selon un onzième mode de mise en œuvre particulier de l’invention, qui pourra être mis en œuvre cumulativement avec les modes précédents, d’autres contenus numériques du même domaine que les premiers contenus sont modifiés avant leur consultation par le deuxième utilisateur en fonction du groupe auquel le deuxième utilisateur a été affecté.
Grâce à ce mode, la classification de l’utilisateur déterminée lors de sa consultation du deuxième contenu permet de modifier des contenus du même domaine avant que l’utilisateur ne les consulte. Cette modification à l’avance garantira une plus grande fluidité de consultation par le deuxième utilisateur et donc une plus grande économie de ressources mémoire ou de consommation électrique. L’ensemble des données de consultation de contenus par le deuxième utilisateur peut également être sauvegardé et utilisé.
Selon un premier aspect matériel, l’invention se rapporte à une entité de gestion de la consultation d’un contenu numérique apte à être restitué par un dispositif, caractérisée en ce qu’elle comprend les modules suivants :
  • Un module de rassemblement préalable de données, dites premières données, relatives à la consultation de contenus numériques, dits premiers contenus, par un ensemble de premiers utilisateurs
  • Un module de classification préalable des premiers utilisateurs en différents groupes selon les premières données rassemblées au préalable
  • Un module d’obtention de données, dites deuxièmes données, lors de la consultation d’un contenu numérique, dit deuxième contenu, par un utilisateur, dit deuxième utilisateur, lesdites deuxièmes données étant relatives à la consultation du deuxième contenu par le deuxième utilisateur
  • Un module d’affectation du deuxième utilisateur à un des groupes des premiers utilisateurs issus de l’étape préalable de classification, en fonction des deuxièmes données
  • Un module de modification du deuxième contenu numérique en fonction du groupe auquel le deuxième utilisateur a été affecté précédemment
Grâce à cet aspect matériel, le procédé de gestion de la consultation de contenu numérique pourra être exécuté et améliorera l’utilisation de ressources par le deuxième utilisateur lors de cette consultation.
Selon un autre aspect matériel, l’invention a trait à un programme d’ordinateur apte à être mis en œuvre par une entité de gestion, le programme comprenant des instructions de code qui, lorsqu’il est exécuté par un processeur, réalise les étapes du procédé du gestion de la consultation d’un contenu numérique défini ci-dessus.
Enfin, selon un autre aspect matériel, l’invention a trait à un support de données sur lequel est enregistré un programme d’ordinateur comprenant des séquences d’instructions pour la mise en œuvre du procédé de gestion de la consultation d’un contenu numérique défini ci-dessus.
Les supports de données peuvent être n'importe quelle entité ou dispositif capable de stocker les programmes. Par exemple, les supports peuvent comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement magnétique tel qu’un un disque dur. D'autre part, les supports peuvent être des supports transmissibles tels qu'un signal électrique ou optique, qui peuvent être acheminés via un câble électrique ou optique, par radio ou par d'autres moyens. Les programmes selon l'invention peuvent être en particulier téléchargés sur un réseau de type Internet. Alternativement, le support d'informations peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
L'invention sera mieux comprise à la lecture de la description qui suit, donnée à titre d'exemple, et faite en référence aux dessins annexées sur lesquels :
représente une entité de gestion implémentant le procédé, ainsi qu’un groupe de premiers utilisateurs et un deuxième utilisateur.
La représente une entité de gestion 100 implémentant le procédé de gestion de la consultation d’un contenu électronique C2 selon l’invention. L’entité de gestion en question sera le plus souvent un serveur informatique. Elle présente en général l’architecture matérielle d’un ordinateur conventionnel et comporte notamment un processeur, une mémoire vive de type RAM (pour l’anglaisRead Access Memory) et une mémoire morte telle qu’une mémoire de type Flash, ROM (pour l’anglaisRead Only Memory), ou autres, non représentés sur la figure, ainsi que des dispositifs d’entrée-sortie tels que claviers et/ou écrans (non représentés sur la figure). L’entité de gestion peut être un serveur matériel ou bien être déployée sur une architecture informatique en nuage (de l’anglaiscloud computing). L’entité de gestion dispose de liaisons de communication (non représentées sur la ) qui lui permettent de communiquer avec d’autres entités pour échanger des données ou des instructions. Une telle liaison de communication sera typiquement fournie par un réseau de type Internet mais on peut imaginer que, pour des raisons de confidentialité des contenus électroniques manipulés et consultés, l’entité de gestion 100 communique exclusivement via un réseau local LAN (de l’anglaisLocal Area Network) et que l’ensemble des contenus électroniques consultés par le procédé selon l’invention ne soit accessibles que par ce réseau local LAN. Les liaisons de communication seront assurées indifféremment par des liaisons filaires ou sans fil, utilisant par exemple des protocoles tels que WiFi ou Bluetooth.
L’entité de gestion 100 comprend un module 101 de rassemblement R préalable de données, dites premières données, relatives à la consultation de contenus numériques C1, C1’, C1’’ par un ensemble de premiers utilisateurs U1, U1’, U1’’.
L’entité de gestion 100 comprend un module 102 de classification C préalable des premiers utilisateurs U1, U1’, U1’’ en différents groupes selon les premières données rassemblées R au préalable.
L’entité de gestion 100 comprend un module 103 d’obtention O de données, dites deuxièmes données, lors de la consultation d’un contenu numérique C2, dit deuxième contenu, par un utilisateur U2, dit deuxième utilisateur, lesdites deuxièmes données étant relatives à la consultation du deuxième contenu C2 par le deuxième utilisateur U2.
L’entité de gestion 100 comprend un module 104 d’affectation A du deuxième utilisateur U2 à un des groupes des premiers utilisateurs U1, U1’, U1’’ issus de l’étape préalable de classification C en fonction des deuxièmes données.
L’entité de gestion 100 comprend un module 105 de modification M du deuxième contenu numérique C2 en fonction du groupe auquel le deuxième utilisateur U2 a été affecté A précédemment.
Les contenus numériques C1, C1’, C1’’, C2 peuvent être des contenus de tout type. Un exemple typique de contenu sera un contenu textuel dans lequel il sera possible de naviguer via des liens hypertextes. Dans ce contenu majoritairement textuel, on pourra trouver des extraits sonores ou des vidéos, de longueur variable, qui précisent certains éléments ou bien introduisent des notions. Un autre exemple pourra être un contenu majoritairement sonore ou audiovisuel dans lequel des interactions de l’utilisateur permettront de faire apparaître des explications textuelles complémentaires. Le contenu sera plus ou moins interactif ; dans un cas, l’interaction des utilisateurs U1, U1’, U1’’, U2 se limitera à faire défiler du texte pour le lire, ou à utiliser le lecteur audio ou vidéo pour lire, mettre en pause, accélérer ou ralentir le défilement du contenu sonore ou audio-visuel, mais dans d’autres cas, le contenu pourra être complètement interactif et scénarisé, et prendre la forme d’un jeu vidéo dans lequel les interactions de l’utilisateur avec le contenu numérique permettent de faire apparaître ou non certains passages.
Les contenus numériques C1, C1’, C1’’, C2 peuvent être consultés par les utilisateurs U1, U1’, U1’’, U2 par tous types de dispositifs électroniques tels que des ordinateurs, portables ou non, des tablettes, des ordiphones (de l’anglaissmartphone) ou des liseuses dédiées à l’affichage de contenus textuels. Les contenus seront consultés la plupart du temps à travers un logiciel dédié ou par un logiciel permettant de remplir ce rôle parmi d’autres, comme un navigateur Web. Dans certains cas, le contenu numérique peut être présenté à plusieurs utilisateurs qui le consultent en commun, mais dans la plupart des cas, les utilisateurs U1, U1’, U1’’ consulteront les contenus C1, C1’, C1’’, C2 de façon individuelle, et ce mode de consultation individuelle permettra un meilleur fonctionnement du procédé selon l’invention.
Les contenus numériques C1, C1’, C1’’, C2 peuvent être enregistrés comme des fichiers directement présents dans les mémoires des dispositifs électroniques qui servent à les consulter. Ils peuvent également être enregistrés sur des supports mémoire de masse tels que disques DVD ou CD-ROM. Ils peuvent également être enregistrés à distance des dispositifs de consultation et accédés via une liaison de communication telle qu’un réseau Internet ou telle qu’un réseau local si des raisons de confidentialité le nécessitent.
Les contenus numériques C1, C1’, C1’’ peuvent être des documents techniques utilisés dans le cadre de formations, documents techniques que les utilisateurs U1, U1’, U1’’ doivent consulter pour apprendre des notions. Mais les procédés selon l’invention peuvent s’appliquer à tous types de contenus numériques, y compris des fictions ou des documentaires que les utilisateurs U1, U1’, U1’’ consultent pour leur plaisir.
Les contenus numériques C1, C1’, C1’’ peuvent être des contenus différents entre eux, mais il peut aussi s’agir d’un même contenu C1 consulté par plusieurs utilisateurs distincts U1, U1’, U1’’. S’il s’agit de contenus différents, ils traiteront cependant en général de sujets proches, que l’on pourra rattacher en général à un seul domaine, tels que les réseaux de télécommunications, le développement informatique, la chimie organique ou tout autre domaine, afin que les données rassemblées quant aux difficultés de compréhension de passages par les utilisateurs puissent être pertinentes.
Les procédés selon l’invention commencent par une étape préalable de rassemblement R de données, dites premières données, relatives à la consultation de contenus numériques C1, C1’, C1’’, dits premiers contenus, par un ensemble de premiers utilisateurs U1, U1’, U1’’.
Les données rassemblées R peuvent être de plusieurs types.
Comme indiqué sur la , les utilisateurs U1, U1’, U1’’ peuvent être filmés par des caméras et les données rassemblées R seront alors des vidéos des utilisateurs U1, U1’, U1’’ synchronisées avec des données indiquant quels sont les passages de contenus numériques C1, C1’, C1’’ qu’ils sont en train de consulter. En particulier, les données rassemblées comprendront des informations de suivi du regard des utilisateurs U1, U1’, U1’’. Ces informations permettent de discerner, quand les utilisateurs consultent des contenus textuels, quels sont les passages qui sont difficiles à comprendre pour ses utilisateurs. Dans cette situation, un utilisateur va buter sur les mots, revenir plusieurs fois sur sa lecture, alors que les passages qui ne présentent pas de difficultés seront lus de manière fluide par les utilisateurs U1, U1’, U1’’.
En plus des informations de suivi du regard, le filmage des utilisateurs peut apporter des informations relatives au niveau d’attention des utilisateurs lors de la consultation de contenus audios ou audiovisuels. Le niveau d’attention pourra être déterminé, en plus de la direction du regard, qui pourra se porter ou non sur l’écran, par des éléments tels que l’expression plus ou moins concentrée ou renfrognée des utilisateurs, par leurs mouvements d’yeux (roulement des yeux, lever des yeux au ciel), par la fréquence de clignements des yeux, par des froncements de sourcils, par des soupirs plus ou moins prononcés, par la fréquence de bâillements, par le changement d’orientation de la tête, par des battements de doigts ou des jambes, ou par tout autre indice jugé pertinent dans ce domaine. Le suivi du regard et de façon plus générale, le filmage des utilisateurs U1, U1’, U1’’, permettent de discerner une perte d’attention de la part des utilisateurs U1, U1’, U1’’, en remarquant que le regard n’est plus fixé sur la vidéo ou tout autre indice de perte d’attention. Dans ce cas, les passages difficiles sont ceux visionnés juste avant la perte d’attention détectée, et la perte d’attention pourra perdurer un certain temps après sa détection. Des indices relatifs à la gestuelle ou aux grimaces peuvent également être utilisés, que ce soit pour la consultation d’une vidéo ou d’un passage textuel. Les données relatives à la perte d’attention peuvent être amendées par des informations issues de l’analyse du contenu lui-même, qui peut par exemple présenter une prosodie homogène, ou un manque de relances, qui auront tendance à diminuer le niveau d’attention des utilisateurs U1, U1’, U1’’ indépendamment de leur maîtrise du domaine auquel appartient le document.
D’autres données peuvent concerner la navigation des utilisateurs U1, U1’, U1’’ pendant la consultation des contenus C1, C1’, C1’’. Si ces contenus permettent la navigation des utilisateurs, par exemple via des liens hypertextes, le parcours de navigation des utilisateurs permettra de voir des passages qui ont dû être complétés par la navigation vers des compléments, par exemple des pages de définition ou des glossaires. La difficulté d’un passage pour un utilisateur donné peut être associé à sa navigation vers des contenus complémentaires tels que des définitions, des glossaires ou des versions simplifiées du passage en question. Cette navigation des utilisateurs U1, U1’, U1’’ peut également les voir consulter des informations complémentaires distinctes des contenus C1, C1’, C1’’ et une telle navigation externe pourra aussi faire partie des données rassemblées R.
D’autres données vont concerner la durée de consultation de passages des premiers contenus C1, C1’, C1’’ par les utilisateurs U1, U1’, U1’’. L’interprétation de la durée de consultation doit prendre en compte les durées relatives de consultation et non des durées absolues, car la nature intrinsèque du document peut entraîner une consultation ralentie même pour un utilisateur spécialiste du domaine dans le cas d’un contenu ardu.
L’étape de rassemblement R de données de consultation permet donc d’établir des informations quant à la difficulté de passages des contenus U1, U1’, U1’’. Ces données peuvent également utiliser des annotations réalisées par des spécialistes des contenus, qui peuvent utiliser leurs connaissances du domaine pour faire des liens entre tels ou tels passages. Par exemple, un spécialiste du domaine auquel les contenus appartiennent peut indiquer que tel passage est un complément de tel autre passage, qui sera potentiellement utilisé par des utilisateurs en difficulté comme complément pour améliorer leur compréhension.
Ces annotations relatives à la sémantique des passages des contenus sont utiles pour les procédés selon l’invention mais ne sont pas indispensables. En effet, les observations de navigation corrélées par exemple avec les observations de suivi de regard pour les documents textuels peuvent indiquer que tel passage est souvent utilisé comme complément après la détection que le passage en question est difficile pour un utilisateur donné. Sans ajout d’annotation extérieure, l’information pertinente peut donc être dérivée des observations des consultation des contenus numériques C1, C1’, C1’’ par les utilisateurs U1, U1’ et U1’’.
Les procédés selon l’invention comprennent ensuite une étape préalable de classification C des utilisateurs U1, U1’, U1’’. La classification C utilisera par exemple des technologies d’apprentissage automatique (de l’anglaismachine learning). Cet apprentissage pourra être supervisé ou non supervisé suivant que des informations externes peuvent connaître les similarités entre utilisateurs U1, U1’, U1’’ relativement à leurs connaissances et difficultés quant au domaine traité dans les contenus numériques C1, C1’, C1’’.
Les contenus numériques C1, C1’, C1’’ sont en général des contenus différents entre eux, mais il peut aussi s’agir d’un même contenu C1 consulté par plusieurs utilisateurs distincts U1, U1’, U1’’. Dans le cas où il s’agit d’un même contenu C1, la classification C des utilisateurs U1, U1’, U1’’ donnera immédiatement des groupes d’utilisateurs similaires quant à leur facilité de compréhension ou à leurs difficultés relativement aux passages du contenu unique C1. Cependant, la consultation de contenus numériques C1, C1’, C1’’ distincts peut également apporter des informations permettant de classifier de façon pertinente les utilisateurs U1, U1’, U1’’ si les contenus traitent d’un même domaine.
Des annotations extérieures peuvent également aider la classification C en faisant le lien entre des passages similaires de contenus distincts C1, C1’, C1’’. Ces annotations peuvent être obtenues automatiquement en s’appuyant sur des techniques d’analyse de texte qui vont reconnaître que des termes similaires sont présents dans des passages de contenus distincts C1, C1’, C1’’ traitant d’un même domaine. Ces termes peuvent être par exemple des acronymes représentatifs d’un sujet précis du domaine technique traité par les contenus. Des passages de contenus distincts pourront être par exemple annotés comme passage de définition d’un même sujet ou au contraire passage d’approfondissement du même sujet. Les durées relatives de consultation de ces passages témoigneront donc du niveau de compétence des différents utilisateurs sur ces différents sujets du domaine. Ce sont ces différents niveaux de compétence des utilisateurs qui permettent de réaliser une classification C pertinente des utilisateurs U1, U1’, U1’’.
La classification C va donc permettre d’obtenir des groupes d’utilisateurs parmi les premiers utilisateurs U1, U1’, U1’’ selon leurs facilités ou difficultés à consulter des passages du ou des contenus numériques C1, C1’, C1’’ ainsi que sur les compléments qu’ils ont pu consulter pour pallier ces difficultés.
L’étape de classification C va bien sûr être plus précise en fonction du nombre des premiers utilisateurs U1, U1’, U1’’ dont les données de consultation sont rassemblées R. Plus ce nombre d’utilisateurs est élevé, plus la classification C sera précise. Cependant, à partir d’un certain nombre de premiers utilisateurs, l’amélioration de la classification C progressera peu.
Le nombre de classes d’utilisateurs obtenues peut être défini a priori comme étant un paramètre de l’étape de classification C. Par exemple, le procédé selon l’invention peut classifier C les premiers utilisateurs U1, U1’, U1’’ comme ou bien experts du domaine traité par les contenus numériques C1, C1’, C1’’ ou bien débutants du même domaine, et ce choix de classification C en deux groupes est fait a priori avant exécution du procédé selon l’invention. Une autre possibilité est de laisser l’étape de classification C déterminer de façon libre le nombre de groupes obtenus. Par exemple, si des domaines distincts sont traités dans les premiers contenus numériques C1, C1’, C1’’, des premiers utilisateurs peuvent être experts d’un domaine et pas d’un autre et réciproquement, et on peut donc obtenir plusieurs combinaisons et un plus grand nombre de groupes d’utilisateurs obtenu à la suite de la classification C. Enfin, pour un même domaine, plusieurs compétences peuvent être présentes parmi les utilisateurs. Un groupe d’utilisateurs pourra être compétent sur un sujet précis du domaine et incompétent sur les autres et l’ensemble des combinaisons possibles peut se présenter.
Les procédés selon l’invention comprennent ensuite une étape initiale d’obtention O de données relatives à la consultation d’un contenu numérique C2 par un utilisateur U2.
Cette étape d’obtention O de données est très proche de l’étape de rassemblement R préalable de données. Elle va utiliser un outillage similaire, par exemple une caméra apte à suivre le regard de l’utilisateur U2, ainsi qu’un suivi de la consultation du contenu numérique C2 par l’utilisateur U2 afin de pouvoir associer les données de suivi du regard de l’utilisateur U2 avec les passages consultés du contenu numérique C2. L’étape d’obtention O de données comprend également un filmage de l’utilisateur U2 en sus du suivi de son regard afin de déterminer des niveaux d’attention sur les différents passages consultés ou bien écoutés ou regardés par l’utilisateur U2. L’étape d’obtention O de données va donc permettre d’obtenir des données relatives à la durée de consultation des passages du contenu numérique C2 par l’utilisateur O2 et à son niveau d’attention. Les données obtenues O permettent donc comme pour les données rassemblées R de disposer d’informations sur les difficultés ou au contraire les facilités que les différents passages du contenu numérique C2 présentent lors de sa consultation par l’utilisateur U2.
Le contenu numérique C2 peut être un contenu différent des premiers contenus C1, C1’, C1’’ même si les procédés selon l’invention peuvent s’appliquer aussi si le contenu C2 est l’un des contenus C1, C1’, C1’’ ou si les contenus pour lesquels des données de consultation sont rassemblées R et obtenues O sont un même contenu numérique. Cette identité de contenu n’est cependant pas indispensable si des annotations préalables permettent d’établir des liens entre des passages des contenus distincts C1, C1’, C1’’ et C2. De telles annotations peuvent être réalisées par des experts du domaine qui connaissent la similarité des sujets traités par des passages distincts mais peuvent être aussi réalisées automatiquement par des systèmes d’analyse de contenu qui peuvent trouver automatiquement des proximités sémantiques entre des passages de contenus distincts. Ces proximités peuvent par exemple identifier des passages de définition de concepts identiques, définitions exprimées dans des termes différents. Les analyses s’appuyant sur la présence d’acronymes, de définitions permettent de faire un lien entre des passages et des compétences des utilisateurs. Même si le contenu C2 n’appartient pas au groupe de premiers contenus C1, C1’, C1’’, la présence de passage relatifs à des compétences identiques d’un même domaine permettra de faire le lien entre les compétences des utilisateurs U1, U1’, U1’’ telles que vues lors de leur consultation des documents C1, C1’, C1’’ et les compétences de l’utilisateur U2. Les systèmes automatiques d’analyse de contenu sont connus de l’état de l’art et ne sont pas davantage détaillés ici.
Les procédés selon l’invention comprennent ensuite une étape d’affectation A du deuxième utilisateur U2 à un des groupes des premiers utilisateurs U1, U1’, U1’’ issus de l’étape préalable de classification C, en fonction des deuxièmes données obtenues O.
L’étape d’affectation A est bien connue des systèmes d’apprentissage automatique. A partir des données rassemblées R, une classification C des utilisateurs U1, U1’, U1’’ a été faite et les données obtenues O permettront de déterminer la similarité que l’utilisateur U2 présente dans sa consultation du contenu C2 avec un des groupes déterminés par la classification C.
Ainsi, par exemple pour un document écrit, si l’utilisateur U2 bute au cours de la lecture de C2 sur tel groupe d’acronymes ou de mots clés du domaine, et pas sur tel autre groupe d’acronymes et de mots clés de ce même domaine, une simple comparaison entre les compétences acquises ou non acquises de chaque groupe d’utilisateurs obtenus à la suite de la classification C permettra de rattacher le nouvel utilisateur U2 à tel ou tel groupe de niveau. En sus des compétences des utilisateurs, les différents groupes peuvent refléter plus généralement les préférences des utilisateurs.
Le procédé présente donc l’avantage de pouvoir s’appliquer à un nouveau document C2 du domaine, distinct des documents C1, C1’, C1’’. De plus, il suffira de repérer au niveau de C2 un nombre limité de références aux compétences du domaine, et de vérifier lors de la consultation de C2 l’attention de l’utilisateur U2 vis-à-vis de ces références, pour affecter A l’utilisateur U2 dans tel ou tel groupe. Ainsi, si les références sont nombreuses en début de la consultation C2, l’utilisateur U2 sera affecté A dès le début de la consultation du contenu C2, et le restant du contenu C2 pourra être modifié M à la volée, de même que d’autres contenus du même domaine que consultera ultérieurement l’utilisateur U2. Cette modification M d’autres contenus du même domaine aura lieu en général avant la consultation de ces contenus par l’utilisateur U2, ce qui assurera le parcours de consultation le plus fluide à l’utilisateur U2.
L’étape d’affectation A peut également avoir lieu si les contenus C1, C1’, C1’’ et C2 sont un seul même contenu puisque le rassemblement R et l’obtention O de données se feront dans ce cas quant à la consultation d’un même contenu numérique par différents utilisateurs U1, U1’, U1’’, U2. Dans ce cas, l’affectation A de l’utilisateur U2 à un des groupes des premiers utilisateurs U1, U1’, U1’’ se fait par rapport à la consultation d’un même contenu. Mais on a vu que des annotations de proximité sémantique peuvent permettre de réaliser les étapes de classification C et d’affectation A même quand les contenus consultés C1, C1’, C1’’ et C2 sont distincts.
L’étape d’affectation A va également être plus précise si le nombre de premiers utilisateurs U1, U1’, U1’’ est plus grand et a permis à l’étape préalable de classification C de déterminer des groupes d’utilisateurs de façon suffisamment précise.
L’étape d’affectation A permet donc de rapprocher l’utilisateur U2 d’un groupe des premiers utilisateurs classifiés C. Ce rapprochement est fonction des difficultés ou au contraire des facilités que l’utilisateur U2 a présentées lors de sa consultation des différents passages du contenu C2, difficultés ou facilités qui témoignent des compétences que présente l’utilisateur U2 et qui correspondent aux groupes obtenus à la suite de la classification C. Les difficultés ou facilités sont bien sûr révélées par les données obtenues O.
L’affectation A aura lieu même si l’ensemble des compétences déduites pour l’utilisateur U2 ne correspondent pas exactement à un des groupes obtenus à la suite de la classification C et même si elle reste approchée.
Du point de vue temporel, l’étape d’affectation A aura besoin de données obtenues O quant à la consultation du contenu C2 par l’utilisateur U2. Dès que l’étape d’obtention O commencera à obtenir des données, celles-ci seront adressées au module 104 qui réalise l’étape d’affectation A. L’étape d’affectation A peut commencer avec les premières données obtenues O de consultation. Quand un nombre suffisant de données est obtenu O, l’affectation A peut être réalisée. L’affectation A va donc en général être réalisé avant la fin de la consultation complète du contenu C2 par l’utilisateur U2. L’affectation A peut donc se faire alors que la consultation du contenu C2 par l’utilisateur U2 se poursuit, ou bien elle peut également se faire alors que la consultation est arrêtée temporairement, avant que l’utilisateur U2 ne reprenne sa consultation du contenu C2.
Une fois que l’étape d’affectation A a donné un premier résultat rapprochant l’utilisateur U2 d’un des groupes déterminés par la classification C, l’entité de gestion peut continuer à obtenir O des données relatives à la consultation du contenu C2 par l’utilisateur U2. Les données nouvellement obtenues O peuvent alors alimenter l’étape d’affectation A qui se poursuit en prenant en compte ces nouvelles données, de façon cumulative aux données précédemment obtenues O. Les données nouvellement obtenues O peuvent finalement changer le résultat de l’affectation A et rattacher l’utilisateur U2 à un autre groupe que celui auquel il avait été précédemment affecté A.
Les procédés selon l’invention comprennent ensuite une étape de modification M du deuxième contenu numérique C2 en fonction du groupe auquel le deuxième utilisateur U2 a été affecté.
L’étape de modification M va permettre d’adapter le contenu numérique C2 afin de rendre plus facile sa consultation par l’utilisateur U2.
Cette adaptation se fera majoritairement sur le restant du contenu C2, qui reste à consulter par l’utilisateur U2.
La modification M peut également se faire sur d’autres documents du même domaine que l’utilisateur U2 consultera ultérieurement lors de son parcours d’apprentissage.
L’affectation A permet de rapprocher l’utilisateur U2 d’un des groupes de premiers utilisateurs déterminés par la classification C. Ce rapprochement permet de déterminer quels sont les passages du contenu C2 pour lesquels on peut s’attendre à des difficultés de consultation pour l’utilisateur U2, ou bien au contraire les passages qui seront faciles à consulter. Cette détermination peut être directe si le contenu C2 faisait partie des premiers contenus C1, C1’, C1’’ ou bien, comme on l’a déjà vu, s’appuyer sur des annotations préalables, obtenues automatiquement ou pas, qui rapprochent sémantiquement des passages des différents contenus.
La modification M du contenu C2 peut commencer dès qu’une affectation A de l’utilisateur U2 a été réalisée ; donc la modification M peut avoir lieu en cours de consultation du contenu C2 par l’utilisateur U2. Si l’affectation A de l’utilisateur U2 change à la suite de l’obtention O de nouvelles données de consultation, cela peut entraîner une nouvelle modification M du contenu C2. Autrement dit, les étapes d’obtention O de données de consultation du contenu C2 par l’utilisateur U2, d’affectation A de l’utilisateur U2 à un des groupes déterminés, et de modification M du contenu C2 peuvent avoir lieu de façon continue tout au long de la consultation du contenu C2 par l’utilisateur U2.
Dans des modes de réalisation, la modification M du contenu C2 se fait de surcroît en fonction des deuxièmes données obtenues O, qui donnent directement des indications sur le parcours de consultation effectué jusqu’à présent par le deuxième utilisateur U2. De plus, l’ensemble des deuxièmes données obtenues O lors d’une consultation du deuxième contenu C2 par le deuxième utilisateur U2 peuvent être conservées. Des consultations successives permettront de noter les changements dans les compétences maîtrisées par l’utilisateur U2 et l’ensemble de ces données sont utilisées pour une adaptation du deuxième contenu C2 ou d’autres contenus du même domaine avant des consultations ultérieures par le deuxième utilisateur U2.
Lorsque les modifications M du contenu C2 consistent en des ajouts servant à préciser des concepts du contenu C2, et que plusieurs ajouts sont possibles communiquant des informations plus ou moins détaillées, le choix des contenus ajoutés lors de l’étape de modification M va prendre en compte le niveau de compétence de l’utilisateur U2 tel qu’il peut être déduit des données obtenues O relatives à la consultation du contenu C2 par l’utilisateur U2. De tels contenus équivalents seront indexés par l’un des groupes de premiers utilisateurs U1, U1’, U1’’ obtenus par l’étape de classification C. Autrement dit, lorsque plusieurs contenus équivalents sont conservés en regard d’un mot, groupe de mots ou expression particulière d’une zone de difficulté, le contenu équivalent choisi pour la modification M correspondra à un contenu indexé sur le groupe dans lequel l’utilisateur U2 a été affecté A, car ce groupe correspond à un niveau de compétence des utilisateurs U1, U1’, U1’’.
La modification M du contenu C2 peut prendre plusieurs formes selon la nature du contenu numérique C2.
Une forme de modification M possible du contenu C2 peut être l’insertion de contenus complémentaires. Si l’utilisateur U2 a été affecté A à un groupe d’utilisateurs tel qu’on peut s’attendre à ce qu’il éprouve une difficulté de compréhension pour un passage donné, l’insertion d’un contenu explicatif plus détaillé que le contenu original permettra à l’utilisateur U2 de disposer immédiatement du contenu explicatif, placé à l’endroit où il en a besoin, sans que l’utilisateur U2 n’ait à effectuer une navigation ou une recherche de contenu complémentaire.
Une autre forme possible de modification M est au contraire une suppression de contenu. Si l’affectation A a rapproché l’utilisateur U2 d’un groupe déterminé par la classification comme étant à l’aise avec certaines notions si bien qu’on peut s’attendre à ce que l’utilisateur U2 sautera des passages explicatifs, ou les fera défiler très rapidement, la modification M pourra consister en la suppression d’un tel passage du contenu C2.
L’avantage de telles modifications M est donc d’adapter en cours de consultation le contenu C2 aux compétences attendues de l’utilisateur U2, telles qu’elles ont pu être déduites par son affectation A à la suite des premières données obtenues de sa consultation du contenu C2. La modification M va donc apporter une économie de ressources mémoire ou électriques en facilitant la navigation de l’utilisateur U2 lorsqu’il consulte le contenu C2.
Les modifications M tiennent également compte de l’historique des adaptations antérieures réalisées pour cet utilisateur U2, et ce afin de prendre en compte son élévation progressive de compétence sur le domaine des contenus C1, C1’, C1’’ et C2.
Ainsi, par exemple, si l’explication détaillée d’un acronyme a été insérée un certain nombre de fois par un remplacement à la volée, une explication simplifiée pourra être insérée lors de modifications M ultérieures et à partir d’un certain nombre de consultations du même contenu, l’acronyme ne sera plus traité et aucune explication ne sera insérée, la compétence étant jugée comme acquise, ce qui pourra être déterminé par l’affectation A dans une classification différente de l’utilisateur U2.
A l’inverse, si l’acronyme n’a pas été consulté sur une longue période dans la consultation du document C2, le remplacement pourra être effectué.
Les contenus insérés ou supprimés pourront être déterminés à l’avance par les créateurs du contenu C2. Quand le contenu C2 est un document technique qui doit être consulté par l’utilisateur U2 pour se former à un domaine technique, le contenu C2 aura été préparé par une équipe de formation, et cette préparation peut comprendre la préparation de documents complémentaires de certains passages, ou bien au contraire l’annotation du caractère optionnel d’autres passages, ces passages optionnels pouvant être ou bien des contenus approfondis qui peuvent être ignorés dans une première lecture par des non-spécialistes du domaine ou bien au contraire des contenus simplifiés ou basiques qui pourront être ignorés, car déjà connus par des utilisateurs connaissant déjà un peu le domaine. Le fait que les contenus pouvant être insérés ou supprimés soient déterminés à l’avance par les créateurs du contenu C2 permet de simplifier la détermination de tels passages.
Cependant, les contenus insérés ou supprimés peuvent être aussi déterminés automatiquement grâce à l’étape de rassemblement R préalable de données de consultation des premiers contenus C1, C1’, C1’’ par les premiers utilisateurs U1, U1’, U1’’. En plus d’apporter des données utiles à la classification C des utilisateurs U1, U1’, U1’’ en différents groupes, l’étape de rassemblement R de données peut indiquer quels sont les passages consultés ou les documents complémentaires recherchés pour améliorer la compréhension de certains passages, ou bien au contraire quels sont les passages ignorés ou consultés très rapidement. Ces éléments seront bien sûr similaires pour les utilisateurs d’un même groupe, ledit groupe étant déterminé par l’étape de classification C. Ces éléments permettent donc d’obtenir automatiquement des passages à compléter, en forçant la consultation de documents complémentaires, ou bien au contraire de passages à supprimer, en anticipant sur les passages qui seront ignorés. Ces modifications M ne peuvent se faire qu’après l’affectation A de l’utilisateur U2 à un des groupes déterminés par la classification C et reprennent les passages complétés ou au contraire ignorés par les utilisateurs du groupe auquel a été affecté A l’utilisateur U2.
Une autre forme possible de modification M est adaptée au contenu numérique C2 quand celui-ci est un document audio ou une vidéo ou en tout cas aux extraits vidéos qui font partie du contenu numérique C2. Il s’agit de réaliser des accélérations ou au contraire des ralentissements de la vitesse de défilement de certains passages du contenu C2. De telles modifications M peuvent là aussi être définies a priori par les créateurs du contenu C2 mais aussi être obtenues automatiquement grâce aux données rassemblées R relatives à l’observation de la consultation des premiers contenus C1, C1’, C1’’ par les premiers utilisateurs U1, U1’, U1’’. Si le contenu C2 est identique à l’un des premiers contenus, les modifications M du type ralentissement ou accélération de certains passages vidéo pourront être obtenues automatiquement car elles auront été effectuées par les premiers utilisateurs U1, U1’, U1’’ du groupe auquel l’utilisateur U2 aura été affecté A. Si le contenu C2 est distinct, des annotations de proximité sémantique entre passages, obtenues automatiquement ou définies par les créateurs de contenu, permettront d’obtenir une information identique.
Il est également possible d’insérer des contenus audios explicatifs dans un contenu C2 audio ou audio-visuel. Dans un contenu C2 réduit à une bande audio, un ajout explicatif inséré pourra avoir une autre voix pour préciser un terme ou apporter une définition. Dans une bande vidéo, la modification M peut consister en une pause et en l’insertion d’une bande son explicative précisant un terme ou apportant une définition.
Les différentes modifications M du contenu numérique C2 permettent donc à l’utilisateur U2 d’avoir un parcours de consultation le plus fluide possible, en anticipant la navigation de l’utilisateur U2 dans le contenu C2 et dans d’autres contenus traitant du même domaine que U2 devrait consulter dans le futur, en anticipant le fait de ne pas consulter certains passages et en anticipant également les possibles accélérations ou ralentissements que l’utilisateur U2 pourrait appliquer aux contenus vidéos. Une telle fluidité accrue permettra d’obtenir une meilleure compréhension du domaine par l’utilisateur U2 et d’économiser les différentes ressources électriques, mémoire, de calcul utilisées pour la consultation du contenu numérique C2.
Signalons enfin ici que, dans le présent texte, le terme « module » peut correspondre aussi bien à un composant logiciel qu’à un composant matériel ou un ensemble de composants matériels et logiciels, un composant logiciel correspondant lui-même à un ou plusieurs programmes ou sous-programmes d’ordinateur ou de manière plus générale à tout élément d’un programme apte à mettre en œuvre une fonction ou un ensemble de fonctions telles que décrites pour les modules concernés. De la même manière, un composant matériel correspond à tout élément d’un ensemble matériel (ou hardware) apte à mettre en œuvre une fonction ou un ensemble de fonctions pour le module concerné (circuit intégré, carte à puce, carte à mémoire, etc.). En particulier, l’entité de gestion 100 est présentée comme une entité unique, mais chaque module pourrait faire partie d’un programme informatique séparé ou d’autres regroupements sont possibles. Un regroupement logique serait alors de regrouper les modules 101 et 102 qui réalisent les étapes préalables de rassemblement R de données et de classification C des utilisateurs U1, U1’, U1’’ dans une seule entité informatique en charge de ces étapes préalables, et de regrouper les modules 103, 104 et 105 qui réalisent, potentiellement en continu, les étapes d’obtention O de données, d’affectation A de l’utilisateur U2 et de modification M du contenu C2 dans une seconde entité informatique en charge de la réalisation de cette partie du procédé selon l’invention.

Claims (15)

  1. Procédé de gestion de la consultation d’un contenu numérique (C2) apte à être restitué par un dispositif, caractérisé en ce qu’il comprend les étapes suivantes :
    • Rassemblement (R) préalable de données, dites premières données, relatives à la consultation de contenus numériques (C1, C1’, C1’’), dits premiers contenus, par un ensemble de premiers utilisateurs (U1, U1’, U1’’)
    • Classification (C) préalable des premiers utilisateurs (U1, U1’, U1’’) en différents groupes selon les premières données rassemblées (R) au préalable
    • Obtention (O) de données, dites deuxièmes données, lors de la consultation d’un contenu numérique (C2), dit deuxième contenu, par un utilisateur (U2), dit deuxième utilisateur, lesdites deuxièmes données étant relatives à la consultation du deuxième contenu (C2) par le deuxième utilisateur (U2)
    • Affectation (A) du deuxième utilisateur (U2) à un des groupes des premiers utilisateurs (U1, U1’, U1’’) issus de l’étape préalable de classification (C), en fonction des deuxièmes données obtenues (O)
    • Modification (M) du deuxième contenu numérique (C2) en fonction du groupe auquel le deuxième utilisateur (U2) a été affecté précédemment
  2. Procédé de gestion de la consultation d’un contenu numérique (C2) selon la revendication 1 caractérisé en ce que la modification (M) du deuxième contenu numérique (C2) se fait de surcroît en fonction des deuxièmes données obtenues (O)
  3. Procédé de gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 ou 2 caractérisé en ce que les premières données rassemblées (R) au préalable comprennent des données relatives à la durée de consultation de passages des premiers contenus (C1, C1’, C1’’) par les premiers utilisateurs (U1, U1’, U1’’)
  4. Procédé de gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 à 3 caractérisé en ce que le procédé comprend une étape de capture du suivi du regard des premiers utilisateurs (U1, U1’, U1’’) et en ce que les premières données rassemblées (R) au préalable comprennent des données relatives au suivi du regard des premiers utilisateurs (U1, U1’, U1’’)
  5. Procédé de gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 à 4 caractérisé en ce que le procédé comprend une étape de filmage des premiers utilisateurs (U1, U1’, U1’’) et en ce que les premières données rassemblées (R) au préalable comprennent des données relatives au niveau d’attention des premiers utilisateurs (U1, U1’, U1’’)
  6. Procédé de gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 à 5 caractérisé en ce que les deuxièmes données obtenues (O) comprennent des données relatives à la durée de consultation de passages du deuxième contenu (C2) par le deuxième utilisateur (U2)
  7. Procédé de gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 à 6 caractérisé en ce que le procédé comprend une étape de capture du suivi du regard du deuxième utilisateur (U2) et les deuxièmes données obtenues (O) comprennent des données relatives au suivi du regard du deuxième utilisateur (U2)
  8. Procédé de gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 à 7 caractérisé en ce que le procédé comprend une étape de filmage du deuxième utilisateur (U2) et en ce que les deuxièmes données obtenues (O) comprennent des données relatives au niveau d’attention du deuxième utilisateur (U2)
  9. Procédé de gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 à 8 caractérisé en ce que la modification (M) du deuxième contenu (C2) comprend l’insertion ou la suppression de passages dans le deuxième contenu (C2), les passages insérés ou supprimés étant choisis en fonction du groupe auquel le deuxième utilisateur (U2) a été affecté (A) précédemment et des deuxièmes données obtenues (O)
  10. Procédé de gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 à 9 caractérisé en ce que la modification (M) du deuxième contenu (C2) comprend la modification de la vitesse de défilement de passages audios ou audiovisuels du deuxième contenu (C2), la vitesse de défilement desdits passages étant choisie en fonction du groupe auquel le deuxième utilisateur (U2) a été affecté (A) et des deuxièmes données obtenues (O)
  11. Procédé de gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 à 10 caractérisé en ce que l’ensemble des deuxièmes données obtenues (O) lors d’une consultation du deuxième contenu (C2) par le deuxième utilisateur (U2) sont conservées et caractérisé en ce que le deuxième contenu numérique (C2) est modifié (M) lors de consultations ultérieures par le deuxième utilisateur (U2) en fonction du groupe auquel le deuxième utilisateur (U2) a été affecté (A) et en fonction de l’ensemble des deuxièmes données conservées
  12. Procédé de gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 à 11 caractérisé en ce que d’autres contenus numériques du même domaine que les premiers contenus (C1, C1’, C1’’) sont modifiés (M) avant leur consultation par le deuxième utilisateur (U2) en fonction du groupe auquel le deuxième utilisateur (U2) a été affecté (A)
  13. Entité de gestion (100) de la consultation d’un contenu numérique (C2) apte à être restitué par un dispositif, caractérisée en ce qu’elle comprend les modules suivants :
    • Un module (101) de rassemblement (R) préalable de données, dites premières données, relatives à la consultation de contenus numériques (C1, C1’, C1’’), dits premiers contenus, par un ensemble de premiers utilisateurs (U1, U1’, U1’’)
    • Un module (102) de classification (C) préalable des premiers utilisateurs (U1, U1’, U1’’) en différents groupes selon les premières données rassemblées (R) au préalable
    • Un module (103) d’obtention (O) de données, dites deuxièmes données, lors de la consultation d’un contenu numérique (C2), dit deuxième contenu, par un utilisateur (U2), dit deuxième utilisateur, lesdites deuxièmes données étant relatives à la consultation du deuxième contenu (C2) par le deuxième utilisateur (U2)
    • Un module (104) d’affectation (A) du deuxième utilisateur (U2) à un des groupes des premiers utilisateurs (U1, U1’, U1’’) issus de l’étape préalable de classification (C), en fonction des deuxièmes données obtenues (O)
    • Un module (105) de modification (M) du deuxième contenu numérique (C2) en fonction du groupe auquel le deuxième utilisateur (U2) a été affecté (A) précédemment
  14. Programme d’ordinateur apte à être mis en œuvre par une entité de gestion (100), le programme comprenant des instructions de code qui, lorsqu’il est exécuté par un processeur, réalise les étapes du procédé du gestion de la consultation d’un contenu numérique (C2) selon l’une des revendications 1 à 7
  15. Support de données sur lequel est enregistré un programme d’ordinateur selon la revendication 14
FR2213381A 2022-12-14 2022-12-14 Procédé de gestion de la consultation d’un contenu numérique Pending FR3143816A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2213381A FR3143816A1 (fr) 2022-12-14 2022-12-14 Procédé de gestion de la consultation d’un contenu numérique

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2213381 2022-12-14
FR2213381A FR3143816A1 (fr) 2022-12-14 2022-12-14 Procédé de gestion de la consultation d’un contenu numérique

Publications (1)

Publication Number Publication Date
FR3143816A1 true FR3143816A1 (fr) 2024-06-21

Family

ID=85222488

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2213381A Pending FR3143816A1 (fr) 2022-12-14 2022-12-14 Procédé de gestion de la consultation d’un contenu numérique

Country Status (1)

Country Link
FR (1) FR3143816A1 (fr)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7222185B1 (en) * 2002-10-03 2007-05-22 Cisco Technology, Inc. Methods and apparatus for distributing content within a content delivery system
WO2007103938A2 (fr) * 2006-03-06 2007-09-13 Veveo, Inc. Procedes et systemes de selection et de presentation de contenu bases sur des preferences d'utilisateur apprises
WO2013045815A1 (fr) * 2011-09-29 2013-04-04 France Telecom Procede et dispositif de gestion dynamique de la distribution de donnees dans un reseau de telecommunications
FR3012711A1 (fr) * 2013-10-29 2015-05-01 Orange Procede de traitement d'au moins un contenu audiovisuel supplementaire, dispositif et programme d'ordinateur associes
US20160203726A1 (en) * 2013-08-21 2016-07-14 Quantum Applied Science And Research, Inc. System and Method for Improving Student Learning by Monitoring Student Cognitive State
WO2018024999A1 (fr) * 2016-08-05 2018-02-08 Xilopix Moyens de diffusion d'un contenu personnalisé dans un réseau de communication

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7222185B1 (en) * 2002-10-03 2007-05-22 Cisco Technology, Inc. Methods and apparatus for distributing content within a content delivery system
WO2007103938A2 (fr) * 2006-03-06 2007-09-13 Veveo, Inc. Procedes et systemes de selection et de presentation de contenu bases sur des preferences d'utilisateur apprises
WO2013045815A1 (fr) * 2011-09-29 2013-04-04 France Telecom Procede et dispositif de gestion dynamique de la distribution de donnees dans un reseau de telecommunications
US20160203726A1 (en) * 2013-08-21 2016-07-14 Quantum Applied Science And Research, Inc. System and Method for Improving Student Learning by Monitoring Student Cognitive State
FR3012711A1 (fr) * 2013-10-29 2015-05-01 Orange Procede de traitement d'au moins un contenu audiovisuel supplementaire, dispositif et programme d'ordinateur associes
WO2018024999A1 (fr) * 2016-08-05 2018-02-08 Xilopix Moyens de diffusion d'un contenu personnalisé dans un réseau de communication

Similar Documents

Publication Publication Date Title
Amato et al. AI in the media and creative industries
US12431112B2 (en) Systems and methods for transforming digital audio content
BRPI0708456A2 (pt) método para prover um sumário de diversas imagens, dispositivo adaptado para gerar um sumário de diversas imagens, sistema, código de programa executável por computador, e, portador de dados
US11776536B2 (en) Multi-modal interface in a voice-activated network
US20240087547A1 (en) Systems and methods for transforming digital audio content
Messer et al. SeeNSearch: A context directed search facilitator for home entertainment devices
EP4335111A1 (fr) Procede informatise de de-linearisation audiovisuelle
EP2104937B1 (fr) Procede de creation d'un nouveau sommaire d'un document audiovisuel comportant deja un sommaire et des reportages et recepteur mettant en oeuvre le procede
US20250014606A1 (en) Chat application for video content creation
US20250299508A1 (en) Device and Method for Multimodal Video Analysis
US20210397652A1 (en) Method and apparatus for producing video material, electronic device and computer readable medium
FR3143816A1 (fr) Procédé de gestion de la consultation d’un contenu numérique
FR2877452A1 (fr) Procede de selection d'un bouton dans une barre graphique, et recepteur mettant en oeuvre le procede
EP1997040A1 (fr) Procédé, dispositif et système de gestion d'informations structurées au sein d'une scène graphique
Xu et al. Users tagging visual moments: timed tags in social video
WO2022177894A1 (fr) Systèmes et procédés de transformation de contenu audio numérique
US20250168473A1 (en) Programmatic media preview generation
WO2021198611A1 (fr) Procede et dispositif de personnalisation de contenu multimedia generique
FR3148347A1 (fr) Procédé de production et diffusion d’une vidéo
EP2388973B1 (fr) Procédé de récupération automatique de documents annexes dans une édition multimédia
EP2212809A1 (fr) Procédé et dispositif de production d'un document audiovisuel d'un format prédéterminé à partir d'un document d'origine d'un format prédéterminé.
EP1479012B1 (fr) Indexation automatique de documents audio-textuels en fonction de leur difficulte de comprehension
EP3073395A1 (fr) Procédé et dispositif d'accès à une pluralité de contenus, terminal et programme d'ordinateur correspondants
WO2023232715A1 (fr) Recommandation de données textuelles en cours d'acquisition
FR3041125A1 (fr) Generateur automatique de document de synthese et moteur de recherche l'utilisant

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240621