[go: up one dir, main page]

FR3045178A1 - Navigation directe dans un extrait video - Google Patents

Navigation directe dans un extrait video Download PDF

Info

Publication number
FR3045178A1
FR3045178A1 FR1562256A FR1562256A FR3045178A1 FR 3045178 A1 FR3045178 A1 FR 3045178A1 FR 1562256 A FR1562256 A FR 1562256A FR 1562256 A FR1562256 A FR 1562256A FR 3045178 A1 FR3045178 A1 FR 3045178A1
Authority
FR
France
Prior art keywords
touch
video
images
banner
strip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1562256A
Other languages
English (en)
Inventor
Christophe Rufin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1562256A priority Critical patent/FR3045178A1/fr
Priority to US16/061,188 priority patent/US11089374B2/en
Priority to PCT/FR2016/053129 priority patent/WO2017098111A1/fr
Priority to EP16815614.9A priority patent/EP3387520A1/fr
Publication of FR3045178A1 publication Critical patent/FR3045178A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention concerne un procédé de navigation dans un contenu vidéo, la navigation s'effectuant à partir d'une interface utilisateur graphique (2) affichée par un écran tactile (26), l'interface utilisateur comprenant : • un lecteur vidéo (3) apte à lire le contenu vidéo ; • un bandeau (4) comprenant une pluralité fixe d'images (27 ; 28 ; 29 ; 30 ; 31) extraites du contenu vidéo, les images s'étendant dans une direction parallèle au bandeau et dans un ordre chronologique.

Description

Navigation directe dans un extrait vidéo
La présente invention appartient au domaine de la restitution de contenus vidéo par un écran tactile. Elle concerne en particulier un procédé et un dispositif de navigation dans contenu vidéo.
Cette méthode est particulièrement avantageuse pour sélectionner des extraits vidéo de quelques secondes dans des contenus vidéo dont la durée est inférieure à deux minutes.
On entend par « contenu vidéo », tout type de contenu apte à restituer des images animées formant une vidéo, accompagnées ou non de son. Un exemple de contenu vidéo est un fichier avi ou mpeg. Dans la suite de la description, les termes « contenu vidéo » et « vidéo » seront indistinctement utilisés.
On entend par « navigation dans un contenu vidéo » la possibilité pour un utilisateur de parcourir différents instants du contenu vidéo, par exemple en lançant la vidéo à partir d’un instant donné ou en visualisant une image correspondant à un instant donné de la vidéo.
On entend par « écran tactile » tout type d’écran apte à être contrôlé par un mouvement de l’utilisateur, cette définition prenant notamment en compte le contrôle d’écran par une analyse des mouvements effectués à proximité, directe ou plus lointaine, de l’écran. Des écrans de technologie à ondes de surface, capacitive, à infrarouge, NFI (pour « Near Field Imaging », imagerie en champs proche en français), à détection visuelle de mouvements (comme le dispositif Kinect, MARQUE DEPOSEE) sont des exemples d’écrans tactiles.
La navigation au sein d’une vidéo restituée par un écran tactile s’effectue habituellement à l’aide d’une barre d’avancement incrustée ou située à proximité d’une zone dédiée à la restitution de la vidéo. On appelle la zone dédiée à la restitution de la vidéo « lecteur de contenu vidéo ».
Par exemple, il est possible de naviguer dans un contenu vidéo restitué (par exemple sur l’écran tactile d’une tablette) par la plateforme de streaming YouTube, MARQUE DEPOSEE, à l’aide d’une barre d’avancement située sous le lecteur de contenu vidéo. Pour ce faire, l’utilisateur peut placer son doigt sur un endroit précis de la barre d’avancement, l’endroit précis correspondant à un instant donné du contenu vidéo. Lorsqu’il place son doigt ainsi, le lecteur de contenu vidéo restitue la vidéo à partir de l’instant donné du contenu vidéo.
Si elle est simple et robuste, cette méthode de navigation ne guide toutefois pas l’utilisateur pour l’aider à sélectionner l’instant précis de la vidéo qu’il cherche à atteindre. En effet, cette méthode ne propose pas de vue d’ensemble de la vidéo à l’utilisateur. Ce dernier doit donc tâtonner en sélectionnant de nombreux endroits de la barre d’avancement pour arriver à trouver un instant précis de la vidéo. Un tel tâtonnement est particulièrement problématique dans le cas d’un écran tactile de petite taille où il est difficile de placer un doigt à un endroit précis de la barre d’avancement.
Pour faciliter la navigation, il a également pu être proposé d’afficher des vignettes représentant des images de taille réduite extraites d’un passage du contenu vidéo. De telles vignettes sont par exemple au nombre de cinq et sont affichées sous le lecteur de contenu vidéo. Les vignettes donnent ainsi à l’utilisateur une idée rapide du passage couvert par les vignettes. L’utilisateur peut parcourir la totalité de la vidéo en faisant défiler les vignettes pour sélectionner d’autres passages. Une fois la vignette appropriée trouvée suite au défilement, il peut lancer la lecture de la vidéo à partir de l’image représentée par la vignette en sélectionnant cette vignette.
Ceci est contraignant dans la mesure où un grand nombre d’opérations est nécessaire pour arriver au passage pertinent. En outre, une telle méthode multiplie le nombre d’entrées possibles (sélection image ; défilement image ; lecture vidéo, etc.) à intégrer à l’écran tactile ce qui est problématique d’un point de vue encombrement de l’écran tactile (cas des petits écrans) et accroît la complexité du logiciel de navigation (ressources de calcul et consommation d’énergie accrues).
La présente invention vient améliorer la situation. A cet effet, un premier aspect de l’invention concerne un procédé de navigation dans un contenu vidéo, la navigation s’effectuant à partir d’une interface utilisateur graphique affichée par un écran tactile, l’interface utilisateur comprenant : • un lecteur vidéo apte à restituer le contenu vidéo ; • un bandeau comprenant une pluralité fixe d’images extraites du contenu vidéo, les images s’étendant dans une direction parallèle au bandeau et dans un ordre chronologique ; le procédé comportant les étapes de : - détection d’un toucher de l’écran tactile par l’utilisateur au niveau du bandeau, le toucher étant de type glissement s’étendant dans la direction parallèle au bandeau ; - sur détection du toucher, affichage successif, par le lecteur vidéo, d’images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement ; - sur détection d’une interruption du toucher, lecture du contenu vidéo par le lecteur vidéo à partir d’une dernière image affichée par le lecteur vidéo, correspondant à une dernière image touchée lors du mouvement de glissement.
On entend par « interface utilisateur graphique », tout dispositif de dialogue homme-machine, dans lequel les objets à manipuler sont dessinés sous forme de pictogrammes à l'écran, de sorte que l'utilisateur peut les utiliser en imitant la manipulation physique de ces objets avec un dispositif de pointage (doigts, stylet ou encore souris par exemple). En particulier, l’interface utilisateur graphique peut comprendre un affichage de divers composants comme le lecteur vidéo et le bandeau, certains composants, ou certaines zones de composants, étant sélectionnâmes par Γ utilisateur.
On entend par « bandeau comprenant une pluralité fixe d’images extraites du contenu vidéo » tout type de partie de l’interface graphique utilisateur apte à présenter au moins une image, par exemple de taille réduite. En particulier, le fait que le bandeau ne comprenne qu’une pluralité fixe d’image signifie ici qu’il n’est pas possible pour l’utilisateur de modifier les images présentes dans le bandeau : il ne peut pas faire défiler ces images au sein du bandeau pour parcourir le contenu vidéo. La pluralité d’image est fixe par rapport au contenu vidéo dans lequel souhaite naviguer l’utilisateur, les images comprises sur le bandeau étant différentes lorsque le contenu vidéo change.
On entend ici par « direction parallèle au bandeau » une direction qui suive un mouvement général du bandeau. Le terme « parallèle » peut donc ici être considéré équivalent à « tangent », en particulier dans les situations où le bandeau présente une forme courbe (bandeau de forme circulaire, elliptique, etc.).
On entend par « toucher de type glissement », tout type d’interaction, de contact ou de proximité, de l’utilisateur avec l’écran comprenant un mouvement de déplacement. L’interaction de l’utilisateur avec l’écran peut être réalisée par un contact physique ou de proximité, par exemple, entre un membre de l’utilisateur (au moins un doigt, nez, menton, un bras etc.) ou tout type de stylet tenu par l’utilisateur, par exemple, avec l’écran tactile. En anglais, un tel type de toucher est parfois appelé « slide input » ou « sliding input ».
On entend par « lecteur de contenu vidéo » une partie de l’interface utilisateur graphique apte à restituer le contenu vidéo, typiquement en affichant la suite d’image constituant la vidéo.
La pluralité d’images comprise dans le bandeau étant fixe, l’utilisateur n’a pas à faire défiler les images du bandeau pour parcourir le contenu vidéo. Pour qu’un nombre suffisant d’images soit présent dans le bandeau et que ces images donnent ainsi une représentation fidèle de la totalité du contenu vidéo, il faut que ces images soient suffisamment petites. Cette réduction de la taille des images se fait ici sans perte de clarté pour l’utilisateur dans la mesure où un affichage successif par le lecteur vidéo des images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement est prévu. L’utilisateur peut donc directement et facilement accéder à une partie de la vidéo qui l’intéresse, sans avoir à tâtonner sur une barre d’avancement. Π n’a en outre pas à faire défiler d’images dans le bandeau pour parvenir à la partie du contenu vidéo qui l’intéresse, même si l’écran tactile dont il dispose est de petite taille.
En outre, le fait que la lecture de la vidéo soit déclenchée dès qu’est détectée une interruption du toucher réduit encore la complexité de la navigation au sein du contenu vidéo et réduit à quelques secondes le temps nécessaire à l’utilisateur pour accéder à un contenu pertinent. En effet, un seul geste suffit à lancer la vidéo à l’endroit précisément voulu par l’utilisateur. La réduction du temps et des interactions avec l’écran tactile usuellement requis pour lancer la vidéo à un moment précis a également pour effet de réduire les ressources en calcul et en batterie nécessaires à une telle navigation.
On entend par « interruption du toucher » tout type d’interruption du mouvement de glissement. Comme détaillé ci-après, il peut s’agir d’un simple arrêt ou ralentissement du mouvement comme d’une séparation physique entre l’utilisateur et l’écran tactile.
Dans un mode de réalisation, le toucher de type glissement est détecté s’il s’étend dans un sens suivant l’ordre chronologique des images comprises dans le bandeau. Le geste utilisé pour parcourir le contenu vidéo est donc instinctif ce qui réduit le temps nécessaire à l’utilisateur pour prendre en main le procédé de navigation selon le premier aspect de l’invention. Dans un mode de réalisation, le toucher de type glissement est détecté s’il s’étend dans un sens suivant l’ordre chronologique ou anti-chronologique des images comprises dans le bandeau.
Dans un autre mode de réalisation, les images du bandeau s’étendent dans un ordre chronologique de la gauche vers la droite. Ici encore, l’orientation des images dans un ordre chronologique de la gauche vers la droite est instinctive. Une autre orientation pourra également être envisagée, notamment dans des régions où il est plus instinctif pour les utilisateurs de représenter un ordre chronologique de la droite vers la gauche.
Dans un mode de réalisation, le contenu vidéo a une durée inférieure ou égale à deux minutes. La présente invention est en effet particulièrement avantageuse dans le cas de courtes vidéos. En effet, plus la vidéo est courte, moins l’utilisateur aura de difficultés à se repérer dans la vidéo à partir d’un faible nombre d’images extraites de la vidéo. Ainsi, le nombre d’images à inclure dans le bandeau peut être plus faible dans le cas de courtes vidéos que dans le cas de vidéo plus longues. Or, un faible nombre d’image à inclure dans le bandeau améliore la lisibilité du bandeau et simplifie encore l’utilisation du procédé selon l’invention.
Dans un mode de réalisation, la taille des images comprises sur le bandeau est définie pour que lesdites images puissent être affichées côtes à côtes dans le bandeau. Une vision d’ensemble du contenu vidéo est ainsi garantie à l’utilisateur dans la mesure où la clarté des images du bandeau est assurée (aucun chevauchement d’image n’étant possible).
Dans un autre mode de réalisation, le bandeau présente l’une au moins des caractéristiques suivantes : • le bandeau présente une forme rectangulaire ; • le bandeau présente une forme carrée ; • le bandeau présente une forme circulaire ; • le bandeau est situé sous le lecteur de contenu vidéo ; • le bandeau est situé sur le lecteur de contenu vidéo ; • le bandeau est situé à droite du lecteur de contenu vidéo ; • le bandeau est situé à gauche du lecteur de contenu vidéo ; • le bandeau est incrusté dans le lecteur de contenu vidéo ; • le bandeau est accolé au lecteur de contenu vidéo.
Les spécificités techniques et géométriques de l’écran tactile peuvent donc être prises en compte pour choisir la forme et la localisation du bandeau au sein de l’interface utilisateur graphique. Ainsi, un bandeau de forme rectangulaire est adapté à un écran rectangulaire, par exemple au format 16/9 ème, quand un bandeau circulaire est plus adapté à un écran carré. De la même manière, incruster le bandeau dans le lecteur est par exemple particulièrement pertinent quand les contraintes d’encombrement de l’écran sont fortes (écran de petite taille).
Dans un mode de réalisation, la navigation est effectuée par un utilisateur d’un dispositif électronique, l’écran tactile étant compris sur le dispositif électronique. Dans ce mode de réalisation, l’interruption du toucher correspond à une séparation entre l’écran tactile et l’utilisateur. On entend par « séparation entre l’écran tactile et l’utilisateur » toute séparation physique entre l’écran tactile et l’utilisateur (au moins un doigt de l’utilisateur, stylet maintenu par l’utilisateur, etc.). L’action de l’utilisateur pour mettre en œuvre le procédé de navigation selon le présent mode de réalisation se résume ainsi à un simple geste. Les interactions entre l’utilisateur et l’écran sont ainsi réduites au minimum, ce qui a pour effet de réduire au maximum la consommation en énergie imposée au dispositif électronique par l’écran tactile.
En variante, l’interruption du toucher correspond à un arrêt du glissement. Cette variante donne un degré de liberté supplémentaire pour contrôler la navigation dans le contenu vidéo. En effet, si l’arrêt du glissement correspond au lancement de la vidéo, il est possible de prévoir d’associer d’autres fonctions à une séparation physique entre l’utilisateur et l’écran tactile (pause vidéo, retour au début, etc.).
Dans un autre mode de réalisation, le procédé comporte en outre l’étape de, sur détection d’une confirmation d’interruption du toucher, extraction d’un extrait du contenu vidéo, l’extrait débutant par la dernière image affichée par le lecteur vidéo et finissant par la fin du contenu vidéo.
En variante, le procédé comporte en outre l’étape de, sur détection d’une confirmation d’interruption de toucher, extraction d’un extrait du contenu vidéo, l’extrait débutant par la dernière image affichée par le lecteur vidéo et présentant une durée prédéterminée.
La « confirmation d’interruption du toucher » correspond à tout type d’interaction entre l’utilisateur et l’écran tactile ayant pour effet de confirmer l’interruption du toucher. Comme détaillé ci-après, cette confirmation d’interruption peut par exemple consister à lever le doigt de l’écran tactile (confirmation) après avoir arrêté le mouvement de glissement (interruption de toucher).
Deux gestes (glissement et confirmation d’arrêt de glissement) suffisent donc à sélectionner puis extraire une partie d’une vidéo. Lorsque l’extrait finit par la fin de la vidéo, l’utilisateur est certain que la partie de la vidéo qui l’intéresse sera comprise dans l’extrait. Dans le cas où la durée de l’extrait est fixe, l’utilisateur définit l’extrait de manière plus précise.
La mise en œuvre d’un tel procédé est particulièrement adaptée à l’utilisation de smartphone, pour « téléphone intelligent » en français. En effet, ces dispositifs, qui intègrent fréquemment des fonctions multimédia de lecture de vidéo, présentent des contraintes d’encombrement de l’écran et de consommation en ressources de calcul et en énergie qui rendent très pertinent un procédé simple et peu gourmand en ressources pour sélectionner et extraire une partie d’un contenu vidéo. En outre, les smartphones intègrent des fonctions de partage, par exemple sur des réseaux sociaux, qui font massivement appel à des briques logicielles de lecture/sélection/extraction de contenus vidéo.
Un deuxième aspect de l’invention concerne un programme informatique comportant des instructions pour la mise en œuvre du procédé selon le premier aspect de l’invention, lorsque ces instructions sont exécutées par un processeur.
Un troisième aspect de l’invention concerne un dispositif électronique apte à lire un contenu vidéo, le dispositif comportant : - un écran tactile ; -un microcontrôleur agencé pour effectuer les étapes suivantes : • affichage sur l’écran tactile d’une interface utilisateur graphique comprenant un lecteur vidéo apte à restituer le contenu vidéo et un bandeau comprenant une pluralité fixe d’images extraites du contenu vidéo, les images s’étendant dans une direction parallèle au bandeau et dans un ordre chronologique ; • détection d’un toucher de l’écran tactile par l’utilisateur au niveau du bandeau, le toucher étant de type glissement s’étendant dans la direction parallèle au bandeau ; • sur détection du toucher, affichage successif, par le lecteur vidéo, d’images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement ; • sur détection d’une interruption du toucher, lecture du contenu vidéo par le lecteur vidéo à partir d’une dernière image affichée par le lecteur vidéo, correspondant à une dernière image touchée lors du mouvement de glissement. D’autres caractéristiques et avantages de l’invention apparaîtront à l’examen de la description détaillée ci-après, et des dessins annexés sur lesquels: la figure 1 illustre un contexte d’utilisation de l’invention, selon un mode de réalisation ; les figures 2A à 2C illustrent des bandeaux selon des modes de réalisation de l’invention ; les figures 3A et 3B sont des diagrammes illustrant les étapes d’un procédé selon un mode de réalisation de l’invention ; la figure 4 illustre un microcontrôleur, selon un mode de réalisation de l’invention. L’invention est décrite ci-après dans son application, non limitative, à un dispositif électronique de type smartphone comprenant un écran tactile contrôlé par au moins un doigt d’un utilisateur. D’autres applications telles qu’un contrôlé de l’écran tactile d’une tablette par un stylet ou encore un contrôle par détection de mouvements par une console de jeux sont également possibles.
La figure 1 représente un dispositif électronique 1, l’invention est décrite ci-après pour un dispositif électronique de type smartphone, comprenant un écran tactile 26 affichant une interface utilisateur graphique 2. L’affichage de l’interface utilisateur peut être obtenu lorsque l’utilisateur lance une application dédiée à la lecture d’une vidéo. Une telle application peut être intégrée à une autre application à l’aide d’outils logiciels connus (plugins, API, etc.). Cette application peut également être appelée par une autre application (instruction de lancement de l’application de lecture de vidéo par une application spécifique à un réseau social par exemple).
Dans un mode de réalisation, l’application est lancée sur réception (et éventuellement confirmation par l’utilisateur) d’un message de notification reçu d’un objet connecté. Par exemple, sur détection d’une instruction de l’utilisateur d’un décodeur TV, le décodeur peut sélectionner un extrait, appelé « contenu vidéo » ou « vidéo » dans la suite de la description, du signal vidéo consulté par l’utilisateur (typiquement au plus 2 min du signal diffusé par une chaîne de télévision) et le transmettre (éventuellement via le boîtier, « box », de terminaison d’un opérateur) au smartphone de l’utilisateur. Une fois le contenu vidéo reçu par le smartphone, le smartphone peut informer l’utilisateur par une notification. Sur sélection de la notification, l’interface utilisateur graphique 2 décrite ci-après peut être affichée pour la mise en œuvre du procédé selon le premier aspect de l’invention, décrit en détail ci-après. L’interface utilisateur graphique 2 comprend au moins deux parties, un lecteur de contenu vidéo 3 et un bandeau 4. Le lecteur de contenu vidéo 3 est apte à afficher une lecture du contenu vidéo. Le signal sonore lié au contenu vidéo peut être diffusé simultanément à la lecture du contenu vidéo. En variante, aucun signal sonore n’est diffusé. Un exemple de vidéo dans laquelle une voiture 5 se déplace sur une route est donné pour la suite de la description. Il est admis, dans la suite de la description, que la voiture se déplace de la gauche vers la droite et finit par s’arrêter à un feu de croisement au niveau d’une intersection.
Le bandeau 4 comprenant une pluralité fixe d’images (27 ; 28 ; 29 ; 30 ; 31) extraites du contenu vidéo, les images s’étendant dans une direction parallèle au bandeau et dans un ordre chronologique. En particulier, dans un mode de réalisation, les images du bandeau s’étendent dans un ordre chronologique de la gauche vers la droite. De plus, dans un autre mode de réalisation, la taille des images comprises sur le bandeau est définie pour que lesdites images puissent être affichées côtes à côtes dans le bandeau. En variante, les images peuvent se superposer, au moins en partie, les unes aux autres afin de pouvoir représenter plus d’images sur un espace moindre.
Le bandeau 4 peut présenter différentes formes et être situé à différents endroits de l’interface graphique utilisateur, comme cela est décrit ci-après en référence aux figures 2A à 2C.
La figure 2A illustre une interface utilisateur graphique dans laquelle le bandeau 4 est accolé à droite du lecteur vidéo 3. Le toucher de type glissement, effectué par un doigt 6 de l’utilisateur, et décrit ci-après en détail en référence aux figures 3A et 3B, peut ici parcourir le bandeau du haut vers le bas, par exemple en suivant l’ordre chronologique des images du bandeau. En effet, les images du bandeau s’étendent dans un ordre chronologique du haut vers le bas sur la figure 2A.
La figure 2B illustre le cas où le bandeau 4 est accolé en haut du lecteur vidéo 3. Dans cette situation, le toucher de type glissement peut être effectué également de la gauche vers la droite, en suivant un ordre chronologique des images.
La figure 2C représente quant à elle le cas où le bandeau 4 est de forme circulaire et est au moins partiellement incrusté au lecteur vidéo 3. Le toucher de type glissement peut ici parcourir le bandeau de manière circulaire, par exemple dans le sens horaire. Les images du bandeau peuvent dans ce cas s’étendre également dans un ordre chronologique dans le sens horaire. Comme indiqué ci-avant, dans ce cas, le toucher de type glissement s’étendant dans une direction parallèle au bandeau s’entend d’un toucher suivant l’ordre chronologique du bandeau, c'est-à-dire ici un mouvement circulaire dans le sens horaire. Ainsi, dans ce cas, il également possible de se référer à un toucher de type glissement s’étendant dans une direction tangente au bandeau.
Les figures 3A et 3B illustrent le procédé de navigation dans le contenu vidéo.
Comme mentionné ci-avant, le procédé peut par exemple être mis en œuvre lorsque l’utilisateur reçoit une notification l’informant qu’un contenu vidéo extrait à partir d’un décodeur TV est disponible sur son smartphone. Lorsque l’utilisateur sélectionne (clic) sur la notification, il peut être redirigé vers l’interface utilisateur graphique.
Comme présenté par l’illustration 16, l’utilisateur visualisant l’interface utilisateur graphique commence à effectuer un toucher de type glissement au niveau du bandeau 4, dans une direction parallèle au bandeau (le bandeau étant ici de forme rectangulaire), dans le sens chronologique des images du bandeau (ici de la gauche vers la droite) avec son doigt 6. Ce toucher de type glissement est alors détecté à une étape 7 par un microcontrôleur, décrit ci-après en référence à la figure 4. Les mécanismes intervenant dans cette détection sont connus de l’homme du métier, la durée et le nombre d’entrées utilisateur (points d’entrée détectés par l’écran tactile) utilisés pour la détection pouvant notamment être très faible. De plus, la détection peut comporter un taux d’erreur acceptable pour traiter des cas où le doigt de l’utilisateur dévie de la direction pour laquelle le toucher de type glissement doit être détecté.
Une fois le toucher de type glissement détecté, un affichage successif, par le lecteur vidéo, d’images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement est prévu à l’étape 8. Ceci est représenté par les illustrations 17 à 13. En effet, à mesure que le doigt 6 de l’utilisateur se déplace sur le bandeau, les images affichées par le lecteur vidéo correspondent aux images touchées par le doigt sur le bandeau. Par exemple, à l’illustration 18, le doigt sélectionne l’image 29 du bandeau, où la voiture est située un peu après le milieu de l’image. Cette image est alors affichée par le lecteur vidéo pour que l'utilisateur puisse visualiser correctement cette image au cours de son mouvement de toucher de type glissement.
Il est ici précisé que l’étape 8 de détection comme l’étape 9 d’affichage successif peuvent être effectuées pour un toucher de type glissement s’étendant en suivant l’ordre chronologique des images mais aussi pour un toucher de type glissement s’étendant en suivant tout type d’ordre autre que chronologique. Un toucher de type glissement s’étendant dans un ordre anti-chronologique est par exemple possible, les images affichées par le lecteur vidéo correspondant toujours respectivement aux images touchées par le doigt de l’utilisateur. Dans le cas du bandeau circulaire, le toucher peut également passer d’une première image du bandeau à une deuxième image du bandeau bien que d’autres images, intercalaires d’un point de vue chronologique, soit situées entre la première et deuxième image (passage par l’intérieur du cercle, via un diamètre du cercle par exemple). Des combinaisons de différents touchers sont également possibles, dans la mesure où un affichage successif, par le lecteur vidéo, d’images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement est prévu.
Ensuite, une étape de détection d’une interruption du toucher, comprenant les sous-étapes de détection d’un arrêt du glissement 10 et de confirmation d’interruption de toucher 11, est mise en œuvre. A la sous-étape 10, le microcontrôleur détecte que l’utilisateur stoppe son mouvement de glissement, sans toutefois relever le doigt de l’écran tactile. Ainsi, à l’illustration 14, le doigt n’est plus en mouvement et est arrêté sur l’image 30. A la sous-étape 11, un test est effectué pour vérifier que l’utilisateur souhaite bien notifier le smartphone d’une interruption du toucher de type glissement. Cette confirmation peut prendre la forme d’un lever du doigt 6 (séparation physique entre l’écran tactile et l’utilisateur) ou tout autre type d’interaction de l’utilisateur avec le smartphone (confirmation par la voix, par un clic sur une fenêtre pop-up, etc.). Une demande de confirmation peut être affichée à l’écran par le smartphone, par exemple via l’affichage d’une notification indiquant : « si vous souhaitez confirmer l’arrêt du toucher de type glissement, vous pouvez simplement relever votre doigt de l’écran ».
Si l’interruption du toucher n’est pas confirmée, le procédé peut reprendre à l’étape 9 et l’utilisateur peut continuer son toucher de type glissement pour reprendre l’affichage successif des images par le lecteur vidéo, par exemple dans un autre sens (sens anti-chronologique pour retourner à une image précédemment touchée).
Si l’interruption du toucher est confirmée, une lecture du contenu vidéo par le lecteur vidéo à partir de la dernière image (image 30 ici) affichée par le lecteur vidéo, correspondant à une dernière image (image 30 ici) touchée lors du mouvement de glissement est mise en œuvre à l’étape 12.
Sur détection d’une confirmation de l’interruption du toucher, plusieurs actions peuvent être mises en œuvre à l’étape 12. Dans un mode de réalisation, le contenu vidéo est alors simplement lu par le lecteur à partir de la dernière image (image 30 ici) affichée par ce lecteur. Dans un autre mode de réalisation, une extraction d’un extrait du contenu vidéo est effectuée. L’extrait peut alors débuter par la dernière image affichée par le lecteur vidéo (image 30 ici) et finir par la fin du contenu vidéo. En variante, l’extrait peut débuter par la dernière image affichée par le lecteur vidéo et présenter une durée prédéterminée (par exemple 15 secondes). Cet extrait peut ensuite être partagé par exemple via un réseau social ou via un plugin permettant de transmettre l’extrait par un email. D’autres actions sont envisageables à l’étape 12, comme par exemple l’affichage de métadonnées relatives à la vidéo, l’ouverture d’une fenêtre de contrôle de la vidéo (fonctions lecture, avance rapide, chapitre suivant, etc.), etc.
En variante, l’étape 12 de lecture/extraction/autres peut être mise en œuvre dès qu’un arrêt du toucher de type glissement est détecté, sans qu’une confirmation n’ait à intervenir.
Le détail d’un microcontrôleur 19, compris dans le dispositif électronique 1, notamment, à partir duquel les étapes sont mise en œuvre les étapes du procédé décrit en référence aux figures 3A et 3B, notamment, est ici décrit en référence à la figure 4.
Ce microcontrôleur 19 peut prendre la forme d’un boîtier comprenant des circuits imprimé, de tout type d’ordinateur ou de tout type de sous-partie du dispositif électronique 1.
Le microcontrôleur 19 comprend une mémoire vive 23 pour stocker des instructions pour la mise en œuvre par un processeur 22 des étapes du procédé décrit en référence aux figures 3A et 3B, notamment. Le dispositif comporte aussi une mémoire de masse 24 pour le stockage de données destinées à être conservées après la mise en œuvre du procédé.
Le microcontrôleur 19 peut en outre comporter un processeur de signal numérique (DSP) 21. Ce DSP 21 reçoit par exemple la vidéo pour mettre en forme, démoduler et amplifier, de façon connue en soi cette vidéo.
Le microcontrôleur 19 comporte également une interface d’entrée 20 pour la réception de données telles que la vidéo, les signaux d’entrée reçus de l’écran tactile, des paramètres de fonctionnement, etc. Le microcontrôleur 19 comporte en outre une interface de sortie 25 notamment pour la transmission de données d’affichage à destination de l’écran tactile.
La présente invention ne se limite pas aux formes de réalisation décrites ci-avant à titre d’exemples ; elle s’étend à d’autres variantes.
Ainsi, on a décrit ci-avant un mode de réalisation dans lequel le toucher de type glissement étant effectué par un doigt de l’utilisateur. Ce toucher de type glissement peut également être effectué à partir de plusieurs doigts, d’un stylet ou de tout type de dispositif de pointage sur l’écran tactile. En outre, le toucher de type glissement peut être détecté et traité par le procédé décrit ci-avant pour un mouvement effectué à proximité de l’écran tactile. L’invention est en effet directement applicable aux techniques de détection de mouvement (par exemple via une pluralité de caméra) où le toucher de type glissement peut typiquement correspondre à un mouvement rectiligne d’une main et la confirmation à une action de retrait de la main.
En outre, on a décrit ci-avant un mode de réalisation dans lequel le toucher de type glissement correspondait à un mouvement rectiligne. Le toucher de type glissement peut toutefois correspondre à tout type de mouvement et ainsi comprendre des ondulations ou des lignes brisées par exemple.

Claims (12)

  1. Revendications
    1. Procédé de navigation dans un contenu vidéo, la navigation s’effectuant à partir d’une interface utilisateur graphique (2) affichée par un écran tactile, l’interface utilisateur comprenant : • un lecteur vidéo (3) apte à restituer le contenu vidéo ; • un bandeau (4) comprenant une pluralité fixe d’images (27 ; 28 ; 29 ; 30 ; 31) extraites du contenu vidéo, les images s’étendant dans une direction parallèle au bandeau et dans un ordre chronologique ; le procédé comportant les étapes de : - détection (8) d’un toucher de l’écran tactile par l’utilisateur au niveau du bandeau, le toucher étant de type glissement s’étendant dans la direction parallèle au bandeau ; - sur détection du toucher, affichage (9) successif, par le lecteur vidéo, d’images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement ; - sur détection (10) d’une interruption du toucher, lecture (12) du contenu vidéo par le lecteur vidéo à partir d’une dernière image affichée par le lecteur vidéo, correspondant à une dernière image touchée lors du mouvement de glissement.
  2. 2. Procédé selon la revendication 1, dans lequel le toucher de type glissement est détecté s’il s’étend dans un sens suivant l’ordre chronologique des images comprises dans le bandeau.
  3. 3. Procédé selon l’une des revendications précédentes, dans lequel les images du bandeau s’étendent dans un ordre chronologique de la gauche vers la droite.
  4. 4. Procédé selon l’une des revendications précédentes, dans lequel le contenu vidéo a une durée inférieure ou égale à deux minutes.
  5. 5. Procédé selon l’une des revendications précédentes, dans lequel la taille des images comprises sur le bandeau est définie pour que lesdites images puissent être affichées côtes à côtes dans le bandeau.
  6. 6. Procédé selon l’une des revendications précédentes, dans lequel le bandeau (4) présente l’une au moins des caractéristiques suivantes : • le bandeau présente une forme rectangulaire ; • le bandeau présente une forme carrée ; • le bandeau présente une forme circulaire ; • le bandeau est situé sous le lecteur de contenu vidéo ; • le bandeau est situé sur le lecteur de contenu vidéo ; • le bandeau est situé à droite du lecteur de contenu vidéo ; • le bandeau est situé à gauche du lecteur de contenu vidéo ; • le bandeau est incrusté dans le lecteur de contenu vidéo ; • le bandeau est accolé au lecteur de contenu vidéo.
  7. 7. Procédé selon l’une des revendications précédentes, dans lequel la navigation est effectuée par un utilisateur d’un dispositif électronique, l’écran tactile étant compris sur le dispositif électronique (1), et dans lequel l’interruption du toucher correspond à une séparation entre l’écran tactile et l’utilisateur.
  8. 8. Procédé selon l’une des revendications 1 à 6, dans lequel l’interruption du toucher correspond à un arrêt du glissement.
  9. 9. Procédé selon l’une des revendications précédentes, dans lequel le procédé comporte en outre l’étape : - sur détection (11) d’une confirmation d’interruption de toucher, extraction (12) d’un extrait du contenu vidéo, l’extrait débutant par la dernière image affichée par le lecteur vidéo et finissant par la fin du contenu vidéo.
  10. 10. Procédé selon l’une des revendications 1 à 8, dans lequel le procédé comporte en outre l’étape : - sur détection (11) d’une confirmation d’interruption de toucher, extraction (12) d’un extrait du contenu vidéo, l’extrait débutant par la dernière image affichée par le lecteur vidéo et présentant une durée prédéterminée.
  11. 11. Programme informatique comportant des instructions pour la mise en œuvre du procédé selon l’une quelconque des revendications précédentes, lorsque ces instructions sont exécutées par un processeur (22).
  12. 12. Dispositif électronique (1) apte à lire un contenu vidéo, le dispositif comportant : - un écran tactile (26) ; -un microcontrôleur (19) agencé pour effectuer les étapes suivantes : • affichage sur l’écran tactile d’une interface utilisateur graphique comprenant un lecteur vidéo apte à restituer le contenu vidéo et un bandeau comprenant une pluralité fixe d’images extraites du contenu vidéo, les images s’étendant dans une direction parallèle au bandeau et dans un ordre chronologique ; • détection d’un toucher de l’écran tactile par l’utilisateur au niveau du bandeau, le toucher étant de type glissement s’étendant dans la direction parallèle au bandeau ; • sur détection du toucher, affichage successif, par le lecteur vidéo, d’images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement ; • sur détection d’une interruption du toucher, lecture du contenu vidéo par le lecteur vidéo à partir d’une dernière image affichée par le lecteur vidéo, correspondant à une dernière image touchée lors du mouvement de glissement.
FR1562256A 2015-12-11 2015-12-11 Navigation directe dans un extrait video Withdrawn FR3045178A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR1562256A FR3045178A1 (fr) 2015-12-11 2015-12-11 Navigation directe dans un extrait video
US16/061,188 US11089374B2 (en) 2015-12-11 2016-11-29 Direct navigation in a video clip
PCT/FR2016/053129 WO2017098111A1 (fr) 2015-12-11 2016-11-29 Navigation directe dans un extrait vidéo
EP16815614.9A EP3387520A1 (fr) 2015-12-11 2016-11-29 Navigation directe dans un extrait vidéo

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1562256A FR3045178A1 (fr) 2015-12-11 2015-12-11 Navigation directe dans un extrait video

Publications (1)

Publication Number Publication Date
FR3045178A1 true FR3045178A1 (fr) 2017-06-16

Family

ID=55300650

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1562256A Withdrawn FR3045178A1 (fr) 2015-12-11 2015-12-11 Navigation directe dans un extrait video

Country Status (4)

Country Link
US (1) US11089374B2 (fr)
EP (1) EP3387520A1 (fr)
FR (1) FR3045178A1 (fr)
WO (1) WO2017098111A1 (fr)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3084185B1 (fr) * 2018-07-19 2021-05-14 Wiko Dispositif electronique et procede pour generer une interface utilisateur graphique avec un arriere-plan dynamique
EP3753241A1 (fr) * 2018-10-09 2020-12-23 Google LLC Système et procédé permettant d'effectuer une opération de rembobinage à l'aide d'un dispositif de capture d'image mobile
USD905096S1 (en) * 2019-03-04 2020-12-15 Nationwide Mutual Insurance Company Display screen with animated graphical user interface
USD950583S1 (en) 2020-12-16 2022-05-03 Nationwide Mutual Insurance Company Display screen with animated graphical user interface
KR20230124379A (ko) * 2022-02-18 2023-08-25 삼성전자주식회사 전자 장치 및 전자 장치에서 객체를 디스플레이하는 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100231534A1 (en) * 2009-03-16 2010-09-16 Imran Chaudhri Device, Method, and Graphical User Interface for Moving a Current Position in Content at a Variable Scrubbing Rate
US20110275416A1 (en) * 2010-05-06 2011-11-10 Lg Electronics Inc. Mobile terminal and method for controlling the same
US20120166950A1 (en) * 2010-12-22 2012-06-28 Google Inc. Video Player with Assisted Seek
US20150121225A1 (en) * 2013-10-25 2015-04-30 Verizon Patent And Licensing Inc. Method and System for Navigating Video to an Instant Time

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129641B2 (en) * 2010-10-15 2015-09-08 Afterlive.tv Inc Method and system for media selection and sharing
EP2690879B1 (fr) * 2012-07-23 2016-09-07 LG Electronics, Inc. Terminal mobile et son procédé de commande
US10620810B2 (en) * 2015-05-15 2020-04-14 Spotify Ab Method and a system for performing scrubbing in a video stream
US10871868B2 (en) * 2015-06-05 2020-12-22 Apple Inc. Synchronized content scrubber

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100231534A1 (en) * 2009-03-16 2010-09-16 Imran Chaudhri Device, Method, and Graphical User Interface for Moving a Current Position in Content at a Variable Scrubbing Rate
US20110275416A1 (en) * 2010-05-06 2011-11-10 Lg Electronics Inc. Mobile terminal and method for controlling the same
US20120166950A1 (en) * 2010-12-22 2012-06-28 Google Inc. Video Player with Assisted Seek
US20150121225A1 (en) * 2013-10-25 2015-04-30 Verizon Patent And Licensing Inc. Method and System for Navigating Video to an Instant Time

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "iPad", 26 February 2013 (2013-02-26), XP055295850, Retrieved from the Internet <URL:https://en.wikipedia.org/w/index.php?title=IPad&oldid=540780732> [retrieved on 20160817] *
APPLE: "IOS 6.1 pour IPAD 4", SOFTWARE, 26 February 2013 (2013-02-26) *
GUY HART-DAVIS: "Teach Yourself VISUALLY (Tech) : Teach Yourself VISUALLY iPad 4th Generation and iPad mini (1)", 28 February 2013 (2013-02-28), pages 288 - 289, XP055295638, ISBN: 978-1-118-59632-6, Retrieved from the Internet <URL:http://site.ebrary.com/lib/epo/detail.action?docID=10657594&p00=teach+yourself+visually+ipad+4> [retrieved on 20160816] *

Also Published As

Publication number Publication date
EP3387520A1 (fr) 2018-10-17
WO2017098111A1 (fr) 2017-06-15
US11089374B2 (en) 2021-08-10
US20180367858A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
US12299273B2 (en) User interfaces for viewing and accessing content on an electronic device
US10572109B2 (en) Device, method, and graphical user interface for navigating media content
US10972682B1 (en) System and method for adding virtual audio stickers to videos
AU2024266811A1 (en) Identifying applications on which content is available
US8896552B2 (en) Gestures for selecting text
EP3387520A1 (fr) Navigation directe dans un extrait vidéo
US12321570B2 (en) Device, method, and graphical user interface for navigating media content
EP3249935A1 (fr) Barre de navigation dans une pluralité de contenu videos
CN109844709B (zh) 用于呈现信息的方法和计算机化系统
EP2634683B1 (fr) Procédé de navigation au sein d&#39;un contenu affichable à l&#39;aide de commandes de navigation, dispositif de navigation et programme associé
FR3074938A1 (fr) Procede d&#39;interaction avec un sous-titre affiche sur un ecran de television, dispositif, produit-programme d&#39;ordinateur et support d&#39;enregistrement pour la mise en œuvre d&#39;un tel procede
EP2466443A1 (fr) Traitement de données d&#39;interface graphique perfectionné.
FR2984545A1 (fr) Procede de navigation au sein d&#39;un contenu affichable a l&#39;aide de commandes de navigation, dispositif de navigation et programme associe
WO2015082817A1 (fr) Procédé de commande de l&#39;interaction avec un écran tactile et équipement mettant en oeuvre ce procédé
WO2020079357A1 (fr) Équipement et procédé de contrôle de la représentation d&#39;un contenu multimédia sur un écran tactile de l&#39;équipement
AU2017200632A1 (en) Device, method and, graphical user interface for navigating media content

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170616

ST Notification of lapse

Effective date: 20180831