[go: up one dir, main page]

WO2011073572A1 - Procede et programme d' ordinateur pour l' affichage et l' edition d' un texte sur un ecran video - Google Patents

Procede et programme d' ordinateur pour l' affichage et l' edition d' un texte sur un ecran video Download PDF

Info

Publication number
WO2011073572A1
WO2011073572A1 PCT/FR2010/052728 FR2010052728W WO2011073572A1 WO 2011073572 A1 WO2011073572 A1 WO 2011073572A1 FR 2010052728 W FR2010052728 W FR 2010052728W WO 2011073572 A1 WO2011073572 A1 WO 2011073572A1
Authority
WO
WIPO (PCT)
Prior art keywords
text
displayed
reading
sound
reader
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/FR2010/052728
Other languages
English (en)
Inventor
Denis Mercier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ALIEN AFTER ALL Sas
Original Assignee
ALIEN AFTER ALL Sas
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ALIEN AFTER ALL Sas filed Critical ALIEN AFTER ALL Sas
Publication of WO2011073572A1 publication Critical patent/WO2011073572A1/fr
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes

Definitions

  • the invention relates to the technical field of digital books, that is to say books whose text is not printed on paper but displayed on a video screen to be read.
  • This technical field includes electronic display devices for digital books, in the form of specialized portable terminals or programs executable on personal computers.
  • Electronic display devices for electronic books known commercially as “e-books”, are known, which make it possible to carry large quantities of literary works in an object of small volume and low weight. These devices use video screens for text display, in a format comparable to that of a book and in display conditions as comfortable as possible, given the technology available.
  • Audiovisual works based on literary works are also known, in which sounds, images and video sequences mingle with the text to offer the reader a combination of different perceptions. But these works are made especially and impose a rhythm of reading of the text which follows a general course.
  • the present invention provides a method of displaying a text that creates a sound and visual environment adapted to the text while allowing the reader to discover this text at his own pace.
  • the present invention relates to a method of displaying a text on a video screen, in which is added to the raw text images and / or sounds related to the displayed text,
  • a reader of a text is free to discover this text at his own pace.
  • sound or visual events that must occur when the reader reaches a given passage of text will trigger automatically and at the right time.
  • the events in question can be sound effects, background music, lights, particles (real-time special effect simulating effects of smoke, mist, fluid, rain, snow or light, such as the one known as the Bokeh effect) or images, generally referred to as "video sequences", which can be pre-recorded or calculated in real time, thanks in particular to a graphics engine that manages lighting and virtual shadows such as Unity 3D. from Unity Technologies.
  • a video sequence of the text inscribed on a virtual background illuminated by at least one virtual light source is displayed, and a visual event is selected from the following events :
  • a virtual mask carrying an image or a 3D object is presented above the text, with a mode of appearance, possibly a speed of movement with a path to follow and a mode of erasure,
  • a video sequence is displayed by the virtual background, under the text, by being read at its own speed or at a read reading speed known to the reader.
  • a sound event is chosen from the following events:
  • - sound sheet music a piece of music whose duration is known in advance is played with a volume that follows a predefined progression, generally rising, in plateau and down,
  • the moment when the reader arrives at the predetermined location by tracking the eyes of the reader according to the method designated "eye tracking" is determined. This first mode of implementation However, it requires important technical means, which are not widespread until now and relatively expensive.
  • the text is displayed on successive pages and, for at least one displayed page, it is determined when the reader of the text reaches the predetermined location by calculating a timeout from a known reading speed and the location, in the page, of said location.
  • the known reading speed is obtained by measuring the time taken by the reader to read a page preceding that currently being displayed. This measured time can be directly used to calculate the reading speed used for the first time or to correct a reading speed already used previously, for example calculated as an average over several pages previously read.
  • the device can recalculate the reading speed known each time the reader changes pages.
  • the reader may be invited to read a "standard” text, for example a preface, to measure the speed of reading to be taken into account to animate the text of the first page of the book.
  • a "standard” text for example a preface
  • the reader is prompted to directly enter its reading speed, for example by indicating a number of words read per minute or by increasing or decreasing a standard proposed value during reading.
  • the reading speed of the reader is measured by monitoring the eyes of the reader, according to the "eye tracking" method.
  • the technical means of eye tracking are too expensive, it can nevertheless make it possible, for an acceptable cost, to measure the reading speed of the reader, because this measure, more global, requires less advanced technical means. It remains relevant to trigger an event by calculating a waiting time from the reading speed known to the reader, but this speed is obtained by the eye tracking method.
  • the advantage of using this method is that the reading speed known to the reader can be re-evaluated at any time, to take into account almost instantaneously its accelerations and slowdowns of reading.
  • the text to be animated incorporates tags that mark the locations of the text from which events must be triggered or interrupted.
  • tags that mark the locations of the text from which events must be triggered or interrupted.
  • the tags remain valid even after translation of the text into a language with relatively few syntactic differences with the original language. They can also be easily moved for a translation into a language with a syntax significantly different from that of the original language.
  • the invention also relates to a computer program for displaying a text on a video screen by adding to the plain text images and / or sounds related to the displayed text,
  • the invention also relates to a text editing program for modifying a file containing a text for the display of this text by implementing the method described above, with the addition of images and / or sounds related to the displayed text,
  • beacons of sound and / or visual events means for including, in the file, beacons of sound and / or visual events to be triggered during the reading of the text when it is displayed according to the method described above,
  • attachment to the file is meant adding to the file a block of data that does not get entangled with the text (unlike the event tags, which are in the text).
  • Definitions can be "attached” to the text, by analogy with the format of e-mails. More generally, the definitions can be gathered in a block of data separate from the text but included in the same file. In a variant, the definitions are gathered in a separate file, but are still considered, according to the invention, as attached to the file containing the text.
  • the invention also relates to a digital file containing a text to be displayed on a computer screen by implementing the method described above, characterized in that it includes:
  • At least one sound and / or visual event tag to be triggered during the reading of the text when it is displayed
  • At least one numerical definition of a sound and / or visual event to be triggered during the reading of the text at least one numerical definition of a sound and / or visual event to be triggered during the reading of the text.
  • the invention finally relates to a combination of a display computer program as described above and at least a portion of a digital file as described above.
  • reading the file according to the means described above does not necessarily require that the entire file be present on the computer. Only at a given moment are the information relating to the displayed page and to the sound and / or visual events in progress.
  • the file can therefore be downloaded in pieces, for example according to the streaming technique. It can of course also be present in full on a mass memory connected to the computer, such as a DVD, a hard disk, a memory card, etc.
  • FIG. 1 represents a computer screen on which a program for displaying a text according to the invention operates
  • FIG. 2 is a symbolic representation of a digital file containing a text to be displayed according to the invention
  • FIG. 3 is a schematic representation of a graphics engine for image creation feeding the program of FIG. 1;
  • FIG. 4 is a flow diagram of the progress of a preliminary phase for measuring the reading speed of a reader
  • FIG. 5 is a flowchart of the progress of the text display program according to the invention.
  • FIG. 6 represents a computer screen on which a text editing program according to the invention operates.
  • FIG. 1 there is shown a computer screen 1, on which is displayed a window 3 containing a text 5 and an image of a ghost 7.
  • the text is displayed by the text display program according to the invention, which adds visual and / or sound effects to the text as it is read by a reader.
  • the computer has a pointer 9 but could also work without pointer, thanks to a touch screen.
  • the explanations that follow will be given for a touch screen and can be transposed to a pointer operation.
  • the text 5 that appears in the window 3 comes from a digital file 11, a schematic representation of which is given in FIG. 2.
  • This text is a succession of words recorded one behind the other, with interposition of implementation codes. form, as is known, and in particular leaps of pages 15, shown by a solid line in the figure.
  • the text image 5 is provided by a computer program referred to as a "real-time engine" for creating images.
  • An example of a real-time image creation engine is schematically illustrated in FIG. 3:
  • a page of the text, that is to say a part of the text between two page breaks 15, is written with implementation shape on a virtual background 17, which is illuminated by two virtual light sources 19 each having a specific color and intensity.
  • a virtual mask 21 in 2D (two dimensions) or in 3D (three dimensions) can be superimposed on the bottom 17. This mask carries an opaque portion 21a in the shape of a ghost, which then projects its shadow on the bottom 17.
  • the bottom 17, on which the text appears may "carry" a color or a video sequence that appears in the background of the text.
  • the result of the illumination of the bottom 17 by the two light sources 19, possibly with superposition of the mask 21, is an image taken by a virtual camera 23.
  • an imaginary marker 13 indicates the location of the program at a given moment during this course.
  • Tags ⁇ 1>, ⁇ / 1>, ⁇ 2>, ⁇ / 2>, ⁇ 3> and ⁇ / 3> are positioned in the text to trigger its animation according to the invention.
  • the syntax of these tags is not limited to these examples and can be more complex, in particular containing parameters indicating for example durations, levels, references of attachments attached to the text.
  • Certain attachments are represented schematically by DATAI, DATA2, DATA3 blocks associated with the tags ⁇ 1>, ⁇ 2> and ⁇ 3> respectively. Attachments are blocks of data that do not get entangled with the text and that are exploited by the real-time engine for creating images or a sound generator, to animate the display of the text.
  • the program directs the real-time imaging engine to move the mask 21 over the bottom 17.
  • the program reaches the ⁇ 1 /> tag, the mask 21 must disappear.
  • tags ⁇ 2> and ⁇ 3> are triggered by tags ⁇ 2> and ⁇ 3>.
  • FIG. 4 shows a flowchart of a preliminary phase of the text display program in which the reading speed of a reader is determined. This speed will be used as the speed V of text travel by the text display program.
  • This preliminary phase of the program is implemented by having the reader read a standard text devoid of animations, so that the reader is neither slowed nor pressed in his reading.
  • a specific text of a single page, such as a preface, can be used, not to start the illustrated work that the reader is about to discover.
  • step 41 the text to be read on the screen is displayed.
  • step 42 we wait for an action from the reader to signal that he begins reading the page, for example the pressing of a key on the screen.
  • step 43 a timer is triggered.
  • step 44 we wait for another action by the reader to signal that he has finished reading the page, for example pressing a key on the screen.
  • step 45 the stopwatch is stopped.
  • this flowchart does not pretend to reflect all the treatments carried out by the program, but only those implemented by the invention.
  • the flowchart does not account for the management of the end of the loop (for example when reading reaches the end of the page), index increments (for example for a passage to the next word) or suspensions of reading (or "paused") requested by the user during playback.
  • the present description provides an opportunity to pause playback: 1 °) the reader touches the area of the screen at the location of its reading, 2 °) a mark appears on the screen at the location of the finger of the reader, for example a fingerprint, which materializes the fact that the reader has touched the screen and which locates the place where the reading was suspended, 3 °) if the program of display of the text is closed, the location of the pause is recorded and will be materialized by re-displaying the fingerprint at the same place when the next text file is opened, 4 °) the player retouches the screen in any location of the page (that is to say on the fingerprint or before or after in the text, after possibly stopping and restarting the display program) and the animations are restarted according to the tags present in the text in upstream of the recovery location.
  • the reader can resume reading a few lines back. If playback is restarted shortly after pausing, the restart takes place at the exact location of the mark, while if playback is restarted much later, restarting occurs at the beginning of the phrase containing the mark. .
  • Step 51 is a step of waiting for an action of the reader to show that he is beginning to read. This may be the start of playback (the player has just started the program, it starts the book or resumes playback at a previously marked location) or the action of turning the previous page (the player has just started complete the reading on the previous page).
  • the reader As soon as the reader indicates that he is beginning to read, the first page of the text on the screen is displayed during a step 52. If the reader starts reading, we immediately proceed to the next step 53. On the other hand, If the player has just finished reading the previous page and turns the page, it pauses for about a second (but this time is only an example and must be adjusted according to the dimensions of the page ) to give the reader time to look back at the beginning of the text of the new page displayed.
  • step 53 a stopwatch is triggered.
  • step 54 the program reads a first word and determines, by syntax recognition, whether it is a beacon of sound or visual event.
  • a script is a succession of actions executed by the real-time engine of creating images, such as the previously described action of moving the mask 21 above the bottom.
  • scripts runs independently of the main program flow. Examples of scripts are:
  • scripts have the effect of modifying the sound emitted by the computer and / or the image of the text displayed in the window 3 as the reader progresses in the text, so that the sound and visual environment is adapted to the story.
  • Some scripts run interactively, asking the reader to confirm an action, or to perform an action or choice. In this case, during the time that is left to the reader to make his choice, the timer stops, to prevent the program to get ahead of the player.
  • Examples of sound and visual events that can be played when running a script are:
  • - sound sheet music a piece of music whose duration is known in advance is played with a volume that follows a predefined progression, generally rising, in plateau and down,
  • a mask carrying an opaque image or a 3D object is presented above the text, with a mode of appearance, possibly a speed of movement with a path to follow and a mode of erasure
  • a video sequence is displayed by the bottom (17), under the text, being read at its own speed or reading speed (V) read previously.
  • FIG. 6 schematically shows a screen 61 of a computer on which a file editor specializing in the manipulation of texts containing beacons of sound and / or visual events is executed.
  • This editor makes it possible to display, in a window 63, a text 65 according to its formatting as desired by the publisher of the book and to add thereto event and / or visual event tags.
  • the use of the editor consists in selecting a part of text 65, then in choosing the object that one wishes to attach to it by defining it by informing its parameters and possibly loading additional files.
  • the text associated with the object can be highlighted by a colored highlighting to materialize the fact that an animation is attached to it.
  • the editor then inserts a start tag and an end tag (if necessary), respectively before the first word and after the last word of the selected text and incorporates the definitions and parameters of the object as an attachment of the text, according to a technique of adding attachments that the skilled person will choose from various well-known solutions.
  • the invention can be implemented on all kinds of computers in the broad sense, for example on machines commonly referred to by the following expressions: personal computer, tablet PC, PMP, netbook, notebook, smartphone.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

L'invention concerne un procédé et un programme d'ordinateur pour l'affichage d'un texte (5) sur un écran video (1 ), dans lequel on ajoute au texte brut des images (7) et/ou des sons liés au texte affiché. On affiche le texte (5) sur l'écran, on détermine à quel moment un lecteur du texte parvient en un emplacement prédéterminé du texte et, 5 à ce moment, on déclenche au moins un événement sonore et/ou visuel lié au passage du texte délimité par cet emplacement. L'invention concerne également un éditeur de texte, un fichier numérique et la combinaison du programme d'affichage et d'une partie au moins du fichier numérique.

Description

PROCEDE ET PROGRAMME D' ORDINATEUR POUR L' AFFICHAGE ET L' EDITION D' UN TEXTE SUR
UN ECRAN VIDEO
L'invention concerne le domaine technique des livres numériques, c'est-à-dire les livres dont le texte n'est pas imprimé sur du papier mais affiché sur un écran video pour être lu. Ce domaine technique inclut les dispositifs électroniques d'affichage de livres numériques, sous forme de terminaux portables spécialisés ou de programmes exécutables sur des ordinateurs personnels.
Dans la suite de la description, le mot « lecteur » désignera une personne physique lisant un texte.
On connaît les dispositifs électroniques d'affichage de livres électroniques, désignés commercialement « e-books », qui permettent d'emporter de grandes quantités d'oeuvres littéraires dans un objet de petit volume et de faible poids. Ces dispositifs utilisent des écrans video pour l'affichage des textes, dans un format comparable à celui d'un livre et dans des conditions d'affichage aussi confortables que possible, compte tenu de la technologie disponible.
Cependant, pour la lecture proprement dite, ces dispositifs n'apportent pas d'information supplémentaire, mais cherchent au contraire à offrir aux lecteurs des conditions les plus proches possible de celles d'une lecture sur papier.
On connaît par ailleurs les oeuvres audiovisuelles basées sur des oeuvres littéraires, dans lesquelles des sons, des images et des séquences video se mêlent au texte pour offrir au lecteur une combinaison de différentes perceptions. Mais ces oeuvres sont réalisées spécialement et imposent un rythme de lecture du texte qui suit un déroulement général.
La présente invention propose un procédé d'affichage d'un texte qui crée une ambiance sonore et visuelle adaptée au texte tout en laissant le lecteur découvrir ce texte à son rythme.
La présente invention a pour objet un procédé d'affichage d'un texte sur un écran video, dans lequel on ajoute au texte brut des images et/ou des sons liés au texte affiché,
caractérisé en ce qu'on affiche le texte sur l'écran, on détermine à quel moment un lecteur du texte parvient en un emplacement prédéterminé du texte et, à ce moment, on déclenche au moins un événement sonore et/ou visuel lié au passage du texte délimité par cet emplacement.
Grâce à l'invention, un lecteur d'un texte est libre de découvrir ce texte à son propre rythme. Au cours de cette lecture, des événements sonores ou visuels qui doivent se dérouler lorsque le lecteur parvient à un passage donné du texte se déclenchent automatiquement et au bon moment. Les événements en question peuvent être des bruitages, des musiques d'ambiance, des lumières, des particules (effet spécial temps réel simulant des effets de fumée, de brume, de fluide, de pluie, de neige ou encore de lumière, comme notamment celui connu sous le nom d'effet Bokeh) ou des images, globalement désignées « séquences video », lesquelles peuvent être pré-enregistrées ou calculées en temps réel, grâce notamment à un moteur graphique gérant l'éclairage et les ombres virtuels tel que Unity 3D de Unity Technologies. Ainsi, dans un mode de mise en oeuvre de l'invention, pour afficher le texte, on affiche une séquence video du texte inscrit sur un fond virtuel éclairé par au moins une source lumineuse virtuelle, et un événement visuel est choisi parmi les événements suivants :
- lumière : un ou plusieurs paramètres d'une source lumineuse virtuelle sont modifiés,
- particules : un ou plusieurs paramètres d'une ou plusieurs particules virtuelles sont modifiés,
- ombres : un masque virtuel portant une image ou un objet 3D est présenté au dessus du texte, avec un mode d'apparition, éventuellement une vitesse de déplacement avec un trajet à suivre et un mode d'effacement,
- fond : une séquence vidéo est affichée par le fond virtuel, sous le texte, en étant lue à sa vitesse propre ou à une vitesse de lecture de lecture connue du lecteur.
De même, dans un mode de mise en oeuvre de l'invention, un événement sonore est choisi parmi les événements suivants :
- musique loop : un morceau de musique est joué en boucle tant qu'aucun script d'arrêt ne vient l'arrêter,
- musique en nappe sonore : un morceau de musique dont la durée est connue à l'avance est joué avec un volume sonore qui suit une progression prédéfinie, généralement montante, en plateau et descendante,
- bruitage : un son à durée fixe est joué.
Dans un mode de mise en oeuvre de l'invention, on détermine le moment où le lecteur parvient à l'emplacement prédéterminé par suivi des yeux du lecteur, selon la méthode désignée « eye tracking ». Ce premier mode de mise en oeuvre nécessite cependant des moyens techniques importants, peu répandus à ce jour et relativement coûteux.
Dans un autre mode de mise en oeuvre de l'invention, on affiche le texte sur des pages successives et, pour au moins une page affichée, on détermine le moment où le lecteur du texte parvient à l'emplacement prédéterminé par calcul d'un délai d'attente à partir d'une vitesse de lecture connue et de l'emplacement, dans la page, dudit emplacement.
Dans un mode de mise en oeuvre particulier de l'invention, la vitesse de lecture connue est obtenue par mesure du temps mis par le lecteur pour lire une page précédant celle en cours d'affichage. Ce temps mesuré peut être directement utilisé pour calculer la vitesse de lecture utilisée pour la première fois ou pour corriger une vitesse de lecture déjà utilisée précédemment, par exemple calculée comme une moyenne sur plusieurs pages précédemment lues.
Ainsi, au fil de la lecture, le dispositif peut recalculer la vitesse de lecture connue à chaque fois que le lecteur change de page.
De même, en début de lecture, le lecteur peut être invité à lire un texte « étalon », par exemple une préface, pour mesurer la vitesse de lecture à prendre en compte pour animer le texte de la première page du livre.
Dans un autre mode de réalisation, le lecteur est invité à saisir directement sa vitesse de lecture, par exemple en indiquant un nombre de mots lus par minute ou en augmentant ou diminuant lors de la lecture une valeur standard proposée.
Dans un autre mode de réalisation, la vitesse de lecture du lecteur est mesurée par suivi des yeux du lecteur, selon la méthode de « eye tracking ». En effet, si, pour obtenir une détermination suffisamment précise de l'emplacement exact du regard d'un lecteur pendant une lecture cursive, les moyens techniques de eye tracking sont trop coûteux, il peuvent cependant permettre, pour un coût acceptable, de mesurer la vitesse de lecture du lecteur, car cette mesure, plus globale, requiert des moyens techniques moins avancés. Il demeure alors pertinent de déclencher un événement par calcul d'un délai d'attente à partir de la vitesse de lecture connue du lecteur, mais cette vitesse étant obtenue par la méthode de eye tracking. L'intérêt du recours à cette méthode est que la vitesse de lecture connue du lecteur peut être ré-évaluée à tout moment, pour tenir compte quasi instantanément de ses accélérations et ralentissements de lecture.
Dans un mode de réalisation préféré de l'invention, on incorpore au texte à animer des balises qui marquent les emplacements du texte à partir desquels des événements doivent être déclenchés ou interrompus. Ainsi, pour gérer les événements, il suffit de parcourir le texte et de déclencher ou d'interrompre au moins un événement lorsqu'on rencontre une balise d'événement.
Ce marquage du texte par des balises présente de nombreux avantages, parmi lesquels :
- Création du fichier numérique de gestion des événements : il n'est pas utile de constituer un fichier séparé qu'il faudrait synchroniser en lecture avec le texte lui- même. Il suffit d'inclure les balises aux bons endroits dans le texte et de parcourir le texte à la vitesse de lecture définie.
- Traductions : les balises demeurent valables même après traduction du texte dans une langue présentant relativement peu de différences syntaxiques avec la langue d'origine. Elles peuvent aussi être facilement déplacées pour une traduction dans une langue ayant une syntaxe nettement différente de celle de langue d'origine.
L'invention a aussi pour objet un programme d'ordinateur d'affichage d'un texte sur un écran video en ajoutant au texte brut des images et/ou des sons liés au texte affiché,
caractérisé en ce qu'il comprend des instruction pour mettre en oeuvre le procédé décrit ci-dessus.
L'invention a aussi pour objet un programme d'édition de texte permettant de modifier un fichier contenant un texte en vue de l'affichage de ce texte par mise en oeuvre du procédé décrit ci-dessus, avec ajout d'images et/ou de sons liés au texte affiché,
caractérisé en ce qu'il comprend :
- des moyens pour inclure, dans le fichier, des balises d'événements sonores et/ou visuels à déclencher pendant la lecture du texte lors de son affichage selon le procédé décrit ci-dessus,
- des moyens pour attacher au fichier des définitions numériques des événements sonores et/ou visuels à déclencher pendant la lecture du texte.
On entend par « attacher au fichier » le fait d'adjoindre au fichier un bloc de données qui ne s'enchevêtrent pas avec le texte (contrairement aux balises d'événements, qui se trouvent dans le texte). Les définitions peuvent être « mises en pièce jointe » du texte, par analogie avec le format des courriers électroniques. De façon plus générale, les définition peuvent être réunies dans un bloc de données séparé du texte mais inclus dans le même fichier. Dans une variante, les définitions sont réunies dans un fichier séparé, mais sont toujours considérées, selon l'invention, comme attachées au fichier contenant le texte.
L'invention a aussi pour objet un fichier numérique contenant un texte à afficher sur un écran d'ordinateur par mise en oeuvre du procédé décrit ci-dessus, caractérisé en ce qu'il inclut :
- entre des mots du texte, au moins une balise d'événement sonore et/ou visuel à déclencher pendant la lecture du texte lors de son affichage,
- en dehors du texte, au moins une définition numérique d'un événement sonore et/ou visuel à déclencher pendant la lecture du texte.
L'invention a enfin pour objet une combinaison d'un programme d'ordinateur d'affichage tel que décrit ci-dessus et d'au moins une partie d'un fichier numérique tel que décrit ci-dessus.
Il convient de noter que la lecture du fichier selon les moyens décrits ci-dessus ne requiert pas nécessairement que l'intégralité du fichier soit présente sur l'ordinateur. Seules sont indispensables, à un instant donné, les informations relatives à la page affichée et aux événements sonores et/ou visuels en cours de déroulement. Le fichier peut donc être téléchargé par morceaux, par exemple selon la technique du streaming. Il peut bien entendu aussi être présent en totalité sur une mémoire de masse reliée à l'ordinateur, telle qu'un DVD, un disque dur, une carte mémoire, etc.
Afin de mieux faire comprendre l'invention, on va en décrire maintenant des modes des réalisation non limitatifs, en référence aux dessins annexés, dans lesquels :
- la figure 1 représente un écran d'ordinateur sur lequel fonctionne un programme d'affichage d'un texte selon l'invention,
- la figure 2 est une représentation symbolique d'un fichier numérique contenant un texte à afficher selon l'invention,
- la figure 3 est une représentation schématique d'un moteur graphique de création d'images alimentant le programme de la figure 1 ,
- la figure 4 est un organigramme du déroulement d'une phase préliminaire de mesure de la vitesse de lecture d'un lecteur,
- la figure 5 est un organigramme du déroulement du programme d'affichage de texte selon l'invention,
- la figure 6 représente un écran d'ordinateur sur lequel fonctionne un programme d'édition de texte selon l'invention.
Sur la figure 1 , on a représenté un écran d'ordinateur 1 , sur lequel est affichée une fenêtre 3 contenant un texte 5 et une image d'un fantôme 7.
Le texte est affiché grâce au programme d'affichage de texte selon l'invention, qui ajoute des effets visuels et/ou sonores au texte pendant sa lecture par un lecteur.
L'ordinateur possède un pointeur 9 mais pourrait également fonctionner sans pointeur, grâce à un écran tactile. Les explications qui vont suivre seront données pour un écran tactile et sont transposables à un fonctionnement avec pointeur.
Le texte 5 qui apparaît dans la fenêtre 3 est issu d'un fichier numérique 11 , dont une représentation schématique est fournie à la figure 2. Ce texte est une succession de mots enregistrés les uns derrière les autres, avec interposition de codes de mise en forme, comme cela est connu, et notamment des sauts de pages 15, matérialisés par un trait continu sur la figure.
L'image du texte 5 est fournie par un programme informatique désigné « moteur temps réel » de création d'images. Un exemple d'un moteur temps réel de création d'images est schématiquement illustré à la figure 3 : Une page du texte, c'est-à-dire une partie du texte comprise entre deux sauts de page 15, est inscrite avec mise en forme sur un fond virtuel 17, lequel est éclairé par deux sources lumineuses virtuelles 19 ayant chacune une couleur et une intensité déterminées. Un masque virtuel 21 en 2D (deux dimensions) ou en 3D (trois dimensions) peut venir se superposer au fond 17. Ce masque porte une partie opaque 21 a en forme de fantôme, qui projette alors son ombre sur le fond 17. Le fond 17, sur lequel le texte apparaît, peut « porter » une couleur ou une séquence vidéo qui apparaît en arrière plan du texte.
Le résultat de l'éclairage du fond 17 par les deux sources lumineuses 19, avec éventuellement superposition du masque 21 , est une image prise par une caméra virtuelle 23.
Il faut bien comprendre que les objets et phénomènes visuels expliqués ci- dessus sont virtuels et que le rendu, sous forme d'images issues de la caméra virtuelle 23, résulte de calculs effectués par le moteur graphique.
Ces images sont envoyées dans la fenêtre 3 du programme d'affichage.
Pendant la lecture du texte sur l'écran par le lecteur, personne physique, le programme parcourt le texte virtuellement, à une vitesse V prédéterminée. Sur la figure 2, un marqueur imaginaire 13 indique l'emplacement où se trouve le programme à un instant donné pendant ce parcours.
Des balises <1 >, </1 >, <2>, </2>, <3> et </3> sont positionnées dans le texte pour déclencher son animation selon l'invention. Bien entendu, la syntaxe de ces balises n'est pas limitée à ces exemples et peut être plus complexe, en contenant notamment des paramètres indiquant par exemple des durées, des niveaux, des références de pièces jointes attachées au texte. Certaines pièces jointes sont représentées schématiquement par des blocs DATAI , DATA2, DATA3 associés aux balises <1 >, <2> et <3> respectivement. Les pièces jointes sont des bloc de données qui ne s'enchevêtrent pas avec le texte et qui sont exploitées par le moteur temps réel de création d'images ou un générateur de sons, pour animer l'affichage du texte.
Ainsi, lorsqu'il atteint la balise <1 >, le programme ordonne au moteur temps réel de création d'images de déplacer le masque 21 au-dessus du fond 17. Lorsque le programme atteint la balise <1/>, le masque 21 doit disparaître.
D'autres événements, sonores ou visuels, sont déclenchés par les balises <2> et <3>.
Sur la figure 4, on a représenté un organigramme d'une phase préliminaire du programme d'affichage de texte dans laquelle est déterminée la vitesse de lecture d'un lecteur. Cette vitesse sera utilisée comme vitesse V de parcours du texte par le programme d'affichage du texte. Cette phase préliminaire du programme est mise en oeuvre en faisant lire au lecteur un texte étalon dépourvu d'animations, de manière que le lecteur ne soit ni ralenti, ni pressé dans sa lecture. Un texte spécifique d'une seule page, telle une préface, peut être utilisé, pour ne pas entamer l'oeuvre illustrée que le lecteur s'apprête à découvrir.
Lors d'une étape 41 , on affiche le texte à lire à l'écran. A l'étape 42, on attend une action du lecteur pour signaler qu'il entame la lecture de la page, par exemple l'appui d'une touche sur l'écran. A l'étape 43, on déclenche un chronomètre. A l'étape 44, on attend une autre action du lecteur pour signaler qu'il a terminé la lecture de la page, par exemple un appui sur une touche sur l'écran.
A l'étape 45, on stoppe le chronomètre.
A l'étape 46, on calcule la vitesse de lecture V du lecteur, par exemple en divisant le nombre de mots lus par le temps indiqué par le chronomètre, ou, inversement, on calcule le temps moyen T=1/V de lecture d'un mot, en divisant le temps indiqué par le chronomètre par le nombre de mots lus.
A l'issue de ces étapes, on dispose d'une vitesse de lecture qui est considérée, dans un premier temps, comme la vitesse de lecture prédéterminée du lecteur à utiliser dans le programme d'affichage de texte.
En référence à la figure 5, on va maintenant décrire le principe de fonctionnement du programme d'affichage du texte proprement dit.
Avant d'entrer dans le détail de l'organigramme de la figure 5, il convient de préciser que cet organigramme ne prétend pas refléter tous les traitements effectués par le programme, mais seulement ceux mis en oeuvre par l'invention. En particulier, l'organigramme ne rend pas compte de la gestion des fins de boucle (par exemple lorsque la lecture arrive en fin de page), des incrémentations d'indices (par exemple pour un passage au mot suivant) ou des suspensions de lecture (ou « mises en pause ») demandées par l'utilisateur pendant une lecture. On notera toutefois que la présente description fournit une possibilité de réaliser la mise en pause de la lecture : 1 °) le lecteur touche la zone de l'écran à l'emplacement de sa lecture, 2°) une marque apparaît sur l'écran à l'emplacement du doigt du lecteur, par exemple une empreinte digitale, qui matérialise le fait que le lecteur a touché l'écran et qui localise l'endroit où la lecture a été suspendue, 3°) si le programme d'affichage du texte est fermé, l'emplacement de la pause est enregistré puis sera matérialisé par ré-affichage de l'empreinte digitale au même endroit lors de la prochaine ouverture du fichier texte, 4°) le lecteur retouche l'écran en n'importe quel emplacement de la page (c'est-à-dire sur l'empreinte digitale ou avant ou après dans le texte, après éventuellement arrêt et redémarrage du programme d'affichage) et les animations sont relancées en fonction des balises présentes dans le texte en amont de l'emplacement de la reprise. Ainsi, après une mise en pause, le lecteur peut reprendre la lecture quelques lignes en arrière. Si la lecture est relancée peu de temps après la mise en pause, le redémarrage a lieu à l'endroit exact de la marque, tandis que si la lecture est relancée beaucoup plus tard, le redémarrage a lieu au début de la phrase contenant la marque.
L'étape 51 est une étape d'attente d'une action du lecteur pour montrer qu'il commence à lire. Il peut s'agir du démarrage de la lecture (le lecteur vient de lancer le programme, il commence le livre ou reprend la lecture à un emplacement marqué précédemment) ou de l'action consistant à tourner la page précédente (le lecteur vient d'achever la lecture de la page précédente).
Dès que le lecteur signale qu'il commence à lire, on affiche la première page du texte à l'écran lors d'une étape 52. Si le lecteur démarre la lecture, on passe immédiatement à l'étape suivante 53. En revanche, si le lecteur vient d'achever la lecture de la page précédente et de tourner la page, on marque une pause d'environ une seconde (mais cette durée n'est qu'un exemple et doit être ajustée en fonction des dimensions de la page) pour laisser le temps au lecteur de remonter son regard au début du texte de la nouvelle page affichée.
Lors de l'étape 53, on déclenche un chronomètre. A l'étape 54, le programme lit un premier mot et détermine, par reconnaissance syntaxique, s'il s'agit d'une balise d'événement sonore ou visuel.
- S'il ne s'agit pas d'une telle balise, le programme se poursuit par une étape d'attente 55, qui attend jusqu'à ce que le chronomètre ait atteint le temps T=1/V pour revenir à l'étape 53.
- S'il s'agit d'une balise d'événement sonore ou visuel, le programme déclenche, à l'étape 56, un script lié à cette balise, à partir des paramètres fournis par celle-ci. Un script est une succession d'actions exécutées par le moteur temps réel de création d'images, comme l'action précédemment décrite de déplacement du masque 21 au dessus du fond.
Le script s'exécute indépendamment du déroulement du programme principal. Des exemples de scripts sont :
- changement des réglages d'une source lumineuse,
- déplacement d'une source lumineuse,
- déplacement d'un masque ou d'un objet 3D (fourni en pièce jointe),
- émission de particules,
- déclenchement ou arrêt de la lecture d'un fichier audio,
- déclenchement ou arrêt de la lecture d'une séquence vidéo.
On comprend que ces scripts ont pour effet de modifier le son émis par l'ordinateur et/ou l'image du texte affiché dans la fenêtre 3 à mesure que le lecteur progresse dans le texte, de façon que l'ambiance sonore et visuelle soit adaptée au récit.
Certains scripts se déroulent de manière interactive, en demandant au lecteur de confirmer une action, ou d'effectuer une action ou un choix. Dans ce cas, pendant le temps qui est laissé au lecteur pour faire son choix, le chronomètre s'interrompt, pour éviter que le programme ne prenne de l'avance sur le lecteur.
Des exemples d'événements sonores et visuels pouvant être joués lors de l'exécution d'un script sont :
- musique loop : un morceau de musique est joué en boucle tant qu'aucun script d'arrêt ne vient l'arrêter,
- musique en nappe sonore : un morceau de musique dont la durée est connue à l'avance est joué avec un volume sonore qui suit une progression prédéfinie, généralement montante, en plateau et descendante,
- bruitage : un son à durée fixe est joué.
- lumière : un ou plusieurs paramètres d'une source lumineuse sont modifiés
- particules : un ou plusieurs paramètres d'une ou plusieurs particules sont modifiés
- ombres : un masque portant une image opaque ou un objet 3D est présenté au dessus du texte, avec un mode d'apparition, éventuellement une vitesse de déplacement avec un trajet à suivre et un mode d'effacement
- fond : une séquence vidéo est affichée par le fond (17), sous le texte, en étant lue à sa vitesse propre ou à la vitesse de lecture (V) de lecture renseignée préalablement.
Lorsque le lecteur a terminé la lecture de la page affichée, il demande l'affichage de la page suivante (ou précédente). A ce moment, le programme peut ajuster la vitesse de lecture V (ou le temps T=1/V) en prenant en considération le temps que vient de mettre le lecteur pour lire tous les mots de la page s'il n'y a pas eu d'interruptions. Cette prise en compte peut se faire de différentes manières, soit en remplaçant l'ancienne valeur par la nouvelle valeur de V (ou de T=1/V), soit en combinant l'ancienne et la nouvelle valeurs dans une moyenne pondérée par exemple.
Sur la figure 6, on a représenté schématiquement un écran 61 d'un ordinateur sur lequel s'exécute un éditeur de fichiers spécialisé dans la manipulation de textes contenant des balises d'événements sonores et/ou visuels.
Cet éditeur permet d'afficher, dans une fenêtre 63, un texte 65 selon sa mise en forme telle que souhaitée par l'éditeur de l'ouvrage et d'y ajouter des balises d'événements sonores et/ou visuels.
Pour cela, l'éditeur propose différentes menus et sous-menus pour des objets tels que :
- video 65
>volume sonore
>opacité
>dimensions
>position
- lumière 67
>intensité
>couleur
>position
transformation (rotation, translation, réduction...)
- musique 69
>volume sonore
>durée
>fade in / fade out (montée en volume/baisse de volume)
- bruitage 71
>volume sonore
- ombre 73
>motif
>position
>couleur
transformation (rotation, translation, réduction...)
- objets divers 75
>image >position
>taille
>opacité
- particules 76
>opacité
>intensité
>couleur
>position
transformation (rotation, translation, réduction...)
L'utilisation de l'éditeur consiste à sélectionner une partie de texte 65, puis à choisir l'objet que l'on souhaite y attacher en le définissant par renseignement de ses paramètres et éventuellement en chargeant des fichiers additionnels. Le texte associé à l'objet peut être mis en évidence par un surlignage coloré pour matérialiser le fait qu'une animation y est attachée.
L'éditeur insère alors une balise de début et une balise de fin (si nécessaire), respectivement avant le premier mot et après le dernier mot du texte sélectionné et incorpore les définitions et paramètres de l'objet en pièce jointe du texte, selon une technique d'ajout de pièces jointes que l'homme du métier saura choisir parmi différentes solutions bien connues.
Grâce à cet éditeur, on peut facilement constituer un fichier tel que celui schématisé sur la figure 2.
L'invention peut être mise en oeuvre sur toutes sortes d'ordinateurs au sens large, par exemple sur des machines communément désignées par les expressions suivantes : ordinateur personnel, tablette PC, PMP, netbook, notebook, smartphone.
Il est bien entendu que l'invention n'est pas limitée aux modes de mise en oeuvre et de réalisation qui viennent d'être décrits et qu'elle pourra recevoir toute modification désirable sans sortir pour cela du cadre des revendications.

Claims

REVENDICATIONS
1. Procédé d'affichage d'un texte (5) sur un écran video (1 ), dans lequel on ajoute au texte brut des images (7) et/ou des sons liés au texte affiché,
caractérisé en ce qu'on affiche le texte (5) sur l'écran, on détermine à quel moment un lecteur du texte parvient en un emplacement prédéterminé du texte et, à ce moment, on déclenche au moins un événement sonore et/ou visuel lié au passage du texte délimité par cet emplacement, le moment où le lecteur du texte parvient à l'emplacement prédéterminé étant déterminé par calcul d'un délai d'attente à partir d'une vitesse (V) de lecture connue et de l'emplacement, dans une page, dudit emplacement.
2. Procédé selon la revendication 1 , dans lequel on affiche le texte (5) sur des pages successives.
3. Procédé selon la revendication 2, dans lequel on mesure le temps d'affichage d'une page, on calcule la vitesse à laquelle un lecteur du texte a lu cette page et on en déduit la vitesse (V) de lecture connue à utiliser pour une page suivante.
4. Procédé selon l'une des revendications 1 à 3, dans lequel on déclenche ou on interrompt au moins un événement lorsqu'on rencontre une balise d'événement (<1 >, </1 >, <2>, </2>, <3>, </3>).
5. Procédé selon l'une des revendications 1 à 4, dans lequel, pour afficher le texte (5), on affiche une séquence video du texte inscrit sur un fond virtuel éclairé par au moins une source lumineuse (19) virtuelle, et un événement visuel est choisi parmi les événements suivants :
- lumière : un ou plusieurs paramètres d'une source lumineuse virtuelle (19) sont modifiés,
- particules : un ou plusieurs paramètres d'une ou plusieurs particules virtuelles sont modifiés,
- ombres : un masque virtuel (21 ) portant une image ou un objet 3D est présenté au dessus du texte, avec un mode d'apparition, éventuellement une vitesse de déplacement avec un trajet à suivre et un mode d'effacement,
- fond : une séquence vidéo est affichée par le fond virtuel (17), sous le texte, en étant lue à sa vitesse propre ou à une vitesse de lecture (V) de lecture connue du lecteur.
6. Procédé selon la revendication 5, dans lequel la séquence video est calculée en temps réel, au moment de l'affichage de chaque image composant ladite séquence video.
7. Procédé selon l'une des revendication 1 à 6, dans lequel un événement sonore est choisi parmi les événements suivants :
- musique loop : un morceau de musique est joué en boucle tant qu'aucun script d'arrêt ne vient l'arrêter,
- musique en nappe sonore : un morceau de musique dont la durée est connue à l'avance est joué avec un volume sonore qui suit une progression prédéfinie, généralement montante, en plateau et descendante,
- bruitage : un son à durée fixe est joué.
8. Programme d'ordinateur d'affichage d'un texte (5) sur un écran video (1 ) en ajoutant au texte brut des images et/ou des sons liés au texte affiché,
caractérisé en ce qu'il comprend des instruction pour mettre en oeuvre le procédé selon l'une des revendications 1 à 7.
9. Programme d'édition de texte (65) permettant de modifier un fichier (11 ) contenant un texte en vue de l'affichage de ce texte par mise en oeuvre du procédé selon l'une des revendications 1 à 7 avec ajout d'images et/ou de sons liés au texte affiché,
caractérisé en ce qu'il comprend :
- des moyens pour inclure dans le fichier des balises d'événements (<1 >, </1 >, <2>, </2>, <3>, </3>) sonores et/ou visuels à déclencher pendant la lecture du texte lors de son affichage selon le procédé de l'une des revendications 1 à 7,
- des moyens pour attacher au fichier des définitions numériques des événements sonores et/ou visuels à déclencher pendant la lecture du texte.
10. Fichier numérique (11 ) contenant un texte à afficher sur un écran d'ordinateur par mise en oeuvre du procédé selon l'une des revendications 1 à 7, caractérisé en ce qu'il inclut :
- entre des mots du texte, au moins une balise d'événement (<1 >, </1 >, <2>, </2>, <3>, </3>) sonore et/ou visuel à déclencher pendant la lecture du texte lors de son affichage,
- en dehors du texte, au moins une définition numérique d'un événement sonore et/ou visuel à déclencher pendant la lecture du texte.
11 . Combinaison d'un programme d'ordinateur selon l'une des revendications 8 et 9 et d'au moins une partie d'un fichier numérique selon la revendication 10.
PCT/FR2010/052728 2009-12-15 2010-12-14 Procede et programme d' ordinateur pour l' affichage et l' edition d' un texte sur un ecran video Ceased WO2011073572A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0959011A FR2953949A1 (fr) 2009-12-15 2009-12-15 Procede et programme d'ordinateur pour l'affichage d'un texte sur un ecran video, programme d'ordinateur d'edition de texte, fichier numerique contenant un texte a afficher sur un ecran d'ordinateur et combinaison d'un tel programme d'ordinateur d'affichage d'un texte et d'au moins une partie d'un tel fichier numerique
FR0959011 2009-12-15

Publications (1)

Publication Number Publication Date
WO2011073572A1 true WO2011073572A1 (fr) 2011-06-23

Family

ID=42201000

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2010/052728 Ceased WO2011073572A1 (fr) 2009-12-15 2010-12-14 Procede et programme d' ordinateur pour l' affichage et l' edition d' un texte sur un ecran video

Country Status (2)

Country Link
FR (1) FR2953949A1 (fr)
WO (1) WO2011073572A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2490868A (en) * 2011-05-09 2012-11-21 Nds Ltd A method of playing an audio track associated with a document in response to tracking the gaze of a user
US9613653B2 (en) 2011-07-26 2017-04-04 Booktrack Holdings Limited Soundtrack for electronic text

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AULIKKI HYRSKYKARI: "Eyes in Attentive Interfaces: Experiences from Creating iDict, a Gaze-Aware Reading Aid", DISSERTATION IN INTERACTIVE TECHNOLOGY, UNIVERSITY OF TAMPERE, FINLAND, no. 4, 2006, XP002596345 *
GEORG BUSCHER, ANDREAS DENGEL, LUDGER VAN ELST, FLORIAN MITTAG: "Generating and Using Gaze-Based Document Annotations", CHI '08 EXTENDED ABSTRACTS ON HUMAN FACTORS IN COMPUTING SYSTEMS, FLORENCE, ITALY, 2008, ACM, pages 3045 - 3050, XP002596346, ISBN: 978-1-60558-012-X, Retrieved from the Internet <URL:http://portal.acm.org/citation.cfm?id=1358628.1358805> [retrieved on 20100805] *
RALF BIEDERT, GEORG BUSCHER, ANDREAS DENGE: "The eyeBook", INFORMATIK-SPEKTRUM, vol. 33, no. 3, 30 September 2009 (2009-09-30), pages 272 - 281, XP002596343, ISSN: 1432-122X, Retrieved from the Internet <URL:http://www.springerlink.com/content/940122605w243655/> [retrieved on 20100805], DOI: 10.1007/s00287-009-0381-2 *
RALF BIEDERT,GEORG BUSCHER, ANDREAS DENGEL: "Text 2.0, wie blickaktiver text lesen verändern kann", July 2009 (2009-07-01), DFKI, Kaiserslautern, XP002596344, Retrieved from the Internet <URL:http://data.text20.net/documentation/text20.de.pdf> [retrieved on 20100805] *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2490868A (en) * 2011-05-09 2012-11-21 Nds Ltd A method of playing an audio track associated with a document in response to tracking the gaze of a user
US9613653B2 (en) 2011-07-26 2017-04-04 Booktrack Holdings Limited Soundtrack for electronic text
US9613654B2 (en) 2011-07-26 2017-04-04 Booktrack Holdings Limited Soundtrack for electronic text
US9666227B2 (en) 2011-07-26 2017-05-30 Booktrack Holdings Limited Soundtrack for electronic text

Also Published As

Publication number Publication date
FR2953949A1 (fr) 2011-06-17

Similar Documents

Publication Publication Date Title
Usai The death of cinema: History, cultural memory and the digital dark age
US10971121B2 (en) Systems and methods for transforming digital audio content into visual topic-based segments
US20150261419A1 (en) Web-Based Video Navigation, Editing and Augmenting Apparatus, System and Method
US20150032766A1 (en) System and methods for the presentation of media in a virtual environment
US20120276504A1 (en) Talking Teacher Visualization for Language Learning
US20150142434A1 (en) Illustrated Story Creation System and Device
Halligan et al. The music documentary: acid rock to electropop
KR20170066415A (ko) 문맥적 데이터를 이용한 비디오 편집 및 클러스터를 이용한 컨텐트 검색
Panagia Impressions of Hume: Cinematic Thinking and the Politics of Discontinuity
US20180367626A1 (en) Automatic digital media interaction feedback
de Burgh-Woodman Advertising in contemporary consumer culture
CN117915157A (zh) 转录和基于文本的视频编辑的面部感知说话人日志化
WO2025010025A1 (fr) Application de dialogue en ligne pour la création de contenu vidéo
WO2011073572A1 (fr) Procede et programme d&#39; ordinateur pour l&#39; affichage et l&#39; edition d&#39; un texte sur un ecran video
EP1377937A1 (fr) Procede et systeme d&#39;animation d&#39;un personnage en trois dimensions
US10691871B2 (en) Devices, methods, and systems to convert standard-text to animated-text and multimedia
FR2825556A1 (fr) Generation d&#39;une description dans un langage de balisage d&#39;une structure d&#39;un contenu multimedia
Grzenkowicz et al. Addressing TikTok’s multimodal complexity: a multi-level annotation scheme for the audio-visual design of short video content
Lösel et al. Filming, Researching, Annotating: Research Video Handbook
WO2018236601A1 (fr) Exploration de supports numériques basée sur le contexte et rétroaction d&#39;interaction de supports numériques automatique
CA3154695A1 (fr) Procede et systeme pour editorialiser des contenus d&#39;enregistrements audio ou audiovisuels numeriques d&#39;une intervention orale
Rossolatos A multimodal discourse analytic approach to the articulation of Martini’s “desire” positioning in filmic product placement
Emerson Digital poetry as reflexive embodiment
Hoadley et al. Semaphore: cross-domain expressive mapping with live notation
FR3102869A1 (fr) Procédé d’affichage d’un document textuel enrichi en associant des expressions d’un texte avec des informations explicatives, et dispositifs associés

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10809017

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: CONSTATATION DE LA PERTE D UN DRAIT CONFORMEMENT A LA REGLE 112(1) CBE DATEE LE 12.06.2012

122 Ep: pct application non-entry in european phase

Ref document number: 10809017

Country of ref document: EP

Kind code of ref document: A1