FR2898757A1 - Procede et dispositif d'adaptation d'une frequence temporelle d'une sequence d'images video - Google Patents
Procede et dispositif d'adaptation d'une frequence temporelle d'une sequence d'images video Download PDFInfo
- Publication number
- FR2898757A1 FR2898757A1 FR0650866A FR0650866A FR2898757A1 FR 2898757 A1 FR2898757 A1 FR 2898757A1 FR 0650866 A FR0650866 A FR 0650866A FR 0650866 A FR0650866 A FR 0650866A FR 2898757 A1 FR2898757 A1 FR 2898757A1
- Authority
- FR
- France
- Prior art keywords
- video sequence
- images
- frequency
- time frequency
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000005070 sampling Methods 0.000 claims abstract description 90
- 238000004088 simulation Methods 0.000 claims abstract description 50
- 230000002123 temporal effect Effects 0.000 claims abstract description 40
- 238000004891 communication Methods 0.000 claims abstract description 34
- 230000005540 biological transmission Effects 0.000 claims abstract description 18
- 230000000694 effects Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 description 24
- 238000004422 calculation algorithm Methods 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000006837 decompression Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000004434 saccadic eye movement Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/156—Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/164—Feedback from the receiver or from the transmission channel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/587—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
L'invention concerne procédé d'adaptation d'une fréquence temporelle d'une séquence d'images vidéo en vue de sa transmission sur un réseau de communication, caractérisé en ce que des images de la séquence ayant été échantillonnées à une fréquence temporelle f1, le procédé comporte une étape de décision quant à la réalisation d'une étape de simulation d'un encodage d'images de la séquence vidéo échantillonnées à une fréquence temporelle f2 > f1, en vue de déterminer si la fréquence temporelle d'échantillonnage f1 de la séquence peut être augmentée, la décision étant prise en fonction d'au moins un critère (409 ; 513) relatif aux ressources d'un appareil de communication susceptible d'effectuer l'étape de simulation (412 ; 516) et/ou en fonction de l'évolution au cours du temps de caractéristiques de la séquence vidéo et/ou du réseau (512, 515).
Description
1 L'invention concerne un procédé et un dispositif d'adaptation d'une
fréquence temporelle d'une séquence d'images vidéo en vue de sa transmission sur un réseau de communication. Lorsque l'on compresse une séquence vidéo, par exemple en utilisant un algorithme d'encodage conforme à la norme MPEG-4, la qualité des images de la séquence vidéo après décompression peut s'avérer mauvaise. Ce cas se rencontre généralement lorsque les images de la séquence vidéo sont fortement texturées et possèdent un fort mouvement et/ou lorsque les débits sont faibles. Dans un tel cas de figure, il est connu de sous-échantillonner temporellement la séquence vidéo, ce qui revient à supprimer certaines des images de cette séquence. Ainsi, la qualité des images résultant du sous-échantillonnage est meilleure dans la mesure où le taux de compression est plus faible. Si l'on souhaite par exemple compresser sur un Mégabit 50 images en une seconde, on comprend qu'avec un sous-échantillonnage temporel de facteur deux, seules 25 images par seconde sont compressées sur un Mégabit. De ce fait, le taux de compression appliqué sur chacune des images de la séquence vidéo est réduit et la qualité de celles-ci s'en trouve améliorée. L'impression de fluidité résultant d'un tel sous-échantillonnage est souvent moins bonne mais peut-être admise dans certains cas.
Ceci peut se produire lorsque l'on considère que la netteté des images résultant du sous-échantillonnage est prioritaire, ou bien qu'elle est compensée par une interpolation temporelle après la décompression de la séquence vidéo. Il est connu du document US 6 633 609 d'améliorer les méthodes classiques d'encodage vidéo.
Classiquement, chaque image d'une séquence vidéo est encodée par un encodeur si les ressources calculatoires de cet encodeur sont disponibles. Or, il peut s'avérer que l'encodeur est déjà occupé et ne peut donc traiter l'image courante de la séquence vidéo. Dans ce cas, l'image courante est supprimée et il en est de même des autres images de la séquence lorsque l'encodeur est déjà actif.
Dans la mesure où ces suppressions d'images ne sont pas régulières, des saccades surviennent dans la séquence. 2 Dans ce document il est proposé de supprimer des images à intervalles réguliers afin d'éviter ce phénomène. A cet effet, la méthode proposée vise à évaluer le temps moyen de compression d'une image par l'encodeur et à générer une fréquence temporelle d'échantillonnage de la vidéo qui respecte ce temps moyen. Cependant, cette méthode n'est pas suffisamment efficace puisque la fréquence est ainsi générée une fois pour toutes, même si l'activité de l'encodeur varie au cours du temps. On connaît également du document intitulé Rate-Distorsion Models for Video Transcoding , SPIE Conference on Image and Video Communications and Processing, janvier 2003, une méthode d'encodage utilisant des modèles débit distorsion. Selon cette méthode, un premier modèle débit distorsion est utilisé dans le cas d'une simple quantification des images. Dans ce cas, la fréquence temporelle d'échantillonnage de la vidéo est supposée maximale et la valeur de la distorsion en fonction du débit visé est fournie par ce premier modèle. Le premier modèle débit-distorsion fait intervenir une équation reliant le débit et la distorsion qui est simple et bien connue de l'homme de l'art. Cette méthode fait également intervenir un deuxième modèle débit-distorsion qui est utilisé dans le cas où des images sont régulièrement supprimées et l'on considère alors que la fréquence temporelle d'échantillonnage est réduite par rapport au cas précédent. Le second modèle, quant à lui, présuppose que les images d'une même scène sont stationnaires et que la distorsion des images manquantes (les images manquantes sont remplacées par l'image décodée la plus proche d'un point de vue temporel) peut se déduire en utilisant la propriété de stationnarité. Pour ce faire, un modèle de distorsion temporel analytique est élaboré à partir d'une phase d'apprentissage de paramètres et d'une phase de segmentation de la vidéo en scènes homogènes.
Ainsi, selon l'enseignement de ce document, les deux modèles débit-distorsion fournissent, sur un intervalle de temps, deux mesures de la distorsion, à savoir une distorsion moyenne fournie par le premier modèle à résolution temporelle maximale et une distorsion moyenne fournie par le second modèle et qui prend en compte le sous-échantillonnage temporel des images.
La décision de sous-échantillonner la séquence vidéo sera alors prise en fonction des valeurs de distorsion calculées par ces modèles. 3 On notera que cette méthode est particulièrement compliquée à mettre en oeuvre, notamment en ce qui concerne les phases d'apprentissage et de segmentation, et fait intervenir de nombreux calculs. De plus, elle se base sur un modèle d'interpolation qui peut s'avérer peu fiable.
La présente invention vise à remédier à au moins un des inconvénients mentionnés ci-dessus en proposant d'adapter la fréquence temporelle d'échantillonnage d'une séquence vidéo de façon simple. A cet effet, l'invention a pour objet un procédé d'adaptation d'une fréquence temporelle d'une séquence d'images vidéo en vue de sa transmission sur un réseau de communication, caractérisé en ce que des images de la séquence ayant été échantillonnées à une fréquence temporelle le procédé comporte une étape de décision quant à la réalisation d'une étape de simulation d'un encodage d'images de la séquence vidéo échantillonnées à une fréquence temporelle f2 > en vue de déterminer si la fréquence temporelle d'échantillonnage f, de la séquence peut être augmentée, la décision étant prise en fonction d'au moins un critère relatif aux ressources d'un appareil de communication susceptible d'effectuer l'étape de simulation et/ou en fonction de l'évolution au cours du temps de caractéristiques de la séquence vidéo et/ou du réseau. Ainsi, avant de décider d'une augmentation de la fréquence temporelle d'échantillonnage, on va décider s'il est opportun de procéder à une simulation d'encodage à cette fréquence et ce, en fonction de différentes conditions. L'invention est donc particulièrement souple puisqu'elle permet d'adapter la fréquence d'échantillonnage de façon dynamique, en fonction de la réalisation de différentes conditions qui sont susceptibles d'évoluer au cours du temps. Par ailleurs, l'invention est particulièrement simple à mettre en oeuvre et s'avère plus précise que la technique utilisée dans l'art antérieur et qui fait intervenir des modèles débit-distorsion. On notera que la séquence vidéo peut être caractérisée par une énergie ou une activité vidéo pouvant être plus ou moins forte et par une qualité visuelle pouvant être plus ou moins élevée.
Le réseau, quant à lui, peut être caractérisé par sa capacité de transmission (exemple : bande passante disponible, temps de transmission des données...) qui peut être plus ou moins bonne (exemple : bande passante plus ou moins élevée, temps de transmission des données plus ou moins élevés...). Selon une caractéristique, l'évolution au cours du temps des caractéristiques de la séquence vidéo et/ou du réseau est constatée par rapport aux caractéristiques 4 initiales présentées par la séquence vidéo et/ou par le réseau lorsqu'il a été décidé d'utiliser la fréquence temporelle f, pour l'échantillonnage. On va ainsi observer l'évolution temporelle du contexte dans lequel la fréquence temporelle d'échantillonnage a été modifiée pour passer à la fréquence f,. Le contexte est défini par l'état de la séquence vidéo et/ou du réseau à un instant donné. Selon une caractéristique, le procédé comporte, préalablement à l'étape de décision quant à la réalisation d'une étape de simulation, une étape de mémorisation des caractéristiques de la séquence vidéo et/ou des caractéristiques du réseau à un instant donné en relation avec une fréquence temporelle d'échantillonnage des images de la séquence vidéo. Il est ainsi prévu de mémoriser le contexte défini par la séquence vidéo et/ou le réseau afin de pouvoir suivre son évolution au cours du temps. On notera que la mémorisation de ce contexte peut avoir lieu avant ou après avoir modifié la fréquence temporelle d'échantillonnage à la valeur f,.
Cette mémorisation peut être utile notamment pour des raisons de suivi de l'évolution du contexte vidéo et/ou du contexte réseau, par exemple, à des fins statistiques. Selon une caractéristique, l'étape de mémorisation est effectuée après qu'il ait été décidé de réduire la fréquence temporelle d'échantillonnage des images de la séquence vidéo d'une fréquence fo à la fréquence f,. On notera que la mémorisation peut avoir lieu lorsque la fréquence temporelle d'échantillonnage de la séquence est réduite et/ou, comme mentionné ci-dessus, à d'autres moments, par exemple, pour obtenir un historique de l'évolution du contexte au cours du temps.
L'enregistrement du contexte vidéo et/ou du contexte réseau quand la fréquence d'échantillonnage est réduite permettra ultérieurement, en examinant l'évolution de ce contexte, de décider d'augmenter ou non la fréquence d'échantillonnage de la séquence. Selon une caractéristique, le procédé comporte, préalablement à l'étape de décision quant à la réalisation d'une étape de simulation, les étapes suivantes : -échantillonnage d'images de la séquence vidéo à une fréquence temporelle fo> - encodage des images échantillonnées, - détermination de la qualité des images encodées, - comparaison de la qualité déterminée par rapport à un seuil prédéterminé, - en fonction du résultat de la comparaison, décision quant à une réduction de la fréquence temporelle d'échantillonnage des images de la séquence vidéo de la fréquence fo à la fréquence f,. Ainsi, la décision de réduire la fréquence temporelle d'échantillonnage de la 5 séquence vidéo à la valeur f, a été prise après estimation de la qualité des images échantillonnées encodées. On notera que lorsqu'une étape de mémorisation est prévue, celle-ci peut être réalisée à tout moment par rapport à l'une quelconque des étapes précitées d'échantillonnage, d'encodage, de détermination de la qualité, de comparaison et de décision. L'enregistrement peut avoir lieu également parallèlement à l'une quelconque de ces étapes. A titre d'exemple, lorsqu'il est décidé de réduire la fréquence d'échantillonnage de fo à f, l'enregistrement peut avoir lieu avant la prise de cette décision, après celle-ci, voire après modification de la fréquence, ou bien en parallèle de la modification de fréquence. Selon une caractéristique, le procédé comporte une étape de comparaison entre les caractéristiques courantes présentées par la séquence vidéo et/ou le réseau et les caractéristiques initiales présentées par la séquence vidéo et/ou le réseau lorsqu'il a été décidé d'utiliser la fréquence temporelle f, pour l'échantillonnage. On entend par caractéristiques courantes des caractéristiques de la séquence vidéo et/ou du réseau après écoulement d'un certain temps, consécutivement à la première prise de décision de modifier la fréquence temporelle. Ces caractéristiques courantes sont, par exemple, celles existant au moment de la prise de décision sur la simulation d'encodage. Cette comparaison permet de déterminer l'évolution au cours du temps des caractéristiques de la séquence vidéo et/ou du réseau. Selon une caractéristique, l'étape de comparaison des caractéristiques est notamment réalisée sous la forme d'une étape de comparaison des qualités de la séquence vidéo obtenues respectivement avec les caractéristiques courantes (contexte courant) et initiales (contexte initial) de cette séquence. On notera que cette étape de comparaison suppose que la qualité de la séquence vidéo dans le contexte initial a été mémorisée et qu'on la détermine à l'état courant. 6 Selon une caractéristique, le procédé comporte, en fonction du résultat de l'étape de comparaison, une étape de décision quant à une augmentation de la fréquence temporelle d'échantillonnage de fi à f2. Il est ainsi possible de décider de l'augmentation de fréquence temporelle directement en fonction du résultat de la comparaison des caractéristiques courantes et initiales et, plus généralement, en fonction de l'évolution au cours du temps de ces caractéristiques, et donc de se passer de l'étape de simulation d'encodage. Cette évolution fournit une indication approximative qui permet de prendre une décision rapide. Toutefois, si en fonction des circonstances (exemple : type de données vidéo à transmettre) on préfère obtenir plus de précisions sur l'évolution du contexte avant de décider d'une augmentation de fréquence, alors l'étape préalable de simulation d'encodage est préférable. Selon une caractéristique, le procédé comporte une étape d'augmentation de la fréquence temporelle d'échantillonnage, lorsque les caractéristiques courantes de la séquence vidéo et/ou du réseau se sont améliorées au cours du temps. Ainsi, lorsque le contexte vidéo et/ou réseau a évolué favorablement, il est possible d'envisager d'augmenter la fréquence temporelle d'échantillonnage directement, sans avoir recours à l'étape de simulation d'encodage. Ceci permet de réaliser un gain de temps et de réduire le coût calculatoire de la méthode. Selon une caractéristique, lorsque les caractéristiques courantes de la séquence vidéo et/ou du réseau se sont améliorées au cours du temps, alors la réalisation de l'étape de simulation d'encodage d'images échantillonnées à la fréquence temporelle f2 > f, dépend de l'état des ressources de l'appareil de communication par rapport à un seuil prédéterminé. Lorsque le contexte vidéo et/ou réseau a évolué favorablement, on prend en compte les ressources de l'appareil de communication avant de décider de la réalisation de l'étape de simulation d'encodage. On peut toutefois envisager dans certaines circonstances de ne pas tenir compte de ces ressources et de réaliser malgré tout la simulation d'encodage.Ceci est envisageable lorsque l'on n'a pas besoin de prendre rapidement une décision d'augmentation de la fréquence ou lorsque les données vidéo peuvent éventuellement être encodées plus lentement.. Selon une caractéristique l'état des ressources de l'appareil de communication étant inférieur au seuil prédéterminé, le procédé comporte une étape 7 d'augmentation de la fréquence temporelle d'échantillonnage sans avoir recours à l'étape de simulation d'encodage. Ainsi, lorsque l'état des ressources (capacité de calcul, taille mémoire) de l'appareil de communication est insuffisant, on peut prévoir, dans certaines circonstances, de se passer de la simulation d'encodage et d'augmenter directement la fréquence d'échantillonnage. On notera toutefois que lorsque l'état des ressources le permet on peut également envisager l'étape de simulation d'encodage afin d'évaluer la qualité de la séquence vidéo ainsi encodée de façon simulée, avant de décider d'une augmentation de fréquence d'échantillonnage. Selon une caractéristique, lorsque les caractéristiques courantes de la séquence vidéo et/ou du réseau se sont dégradées au cours du temps, alors l'étape de simulation d'encodage n'est pas réalisée. Ainsi, en fonction du suivi de l'évolution du contexte vidéo et/ou réseau, notamment lorsque le contexte s'est dégradé, on peut en déduire que l'étape de simulation d'encodage est inutile car la qualité de la séquence vidéo à une fréquence d'échantillonnage augmentée sera très probablement insuffisante. Selon une autre caractéristique, le procédé comporte une étape de simulation d'encodage d'images de la séquence vidéo échantillonnées à la fréquence temporelle f2 > f, lorsque l'état des ressources de l'appareil de communication est supérieur à un seuil prédéterminé. Ainsi, lorsque l'état des ressources de l'appareil le permet, on procède à une simulation d'encodage. Plus particulièrement, l'étape de simulation est subdivisée en plusieurs sous étapes : -échantillonnage d'images de la séquence vidéo à la fréquence temporelle f2, - simulation d'encodage des images échantillonnées, - détermination de la qualité des images encodées, - comparaison de la qualité déterminée par rapport à un seuil prédéterminé, - en cas de dépassement du seuil, augmentation de la fréquence temporelle d'échantillonnage des images de la séquence vidéo. 8 Ainsi, si la qualité des images encodées issues de la simulation s'avère insuffisante, alors on conserve la même fréquence temporelle d'échantillonnage des images de la séquence vidéo. Selon une caractéristique, les caractéristiques de la séquence vidéo sont l'activité vidéo de la séquence, par exemple, la variance des erreurs de prédiction, la variance des vecteurs de mouvement, et/ou la qualité de la séquence vidéo. Cette qualité de la séquence vidéo ou d'une image peut s'exprimer par le rapport signal sur bruit de la séquence vidéo ou de l'image ou de plusieurs images après encodage.
Par ailleurs, les caractéristiques du réseau sont par exemple définies par la bande passante du réseau. L'invention a également pour objet un dispositif d'adaptation d'une fréquence temporelle d'une séquence d'images vidéo en vue de sa transmission sur un réseau de communication, caractérisé en ce que des images de la séquence ayant été échantillonnées à une fréquence temporelle le dispositif comporte des moyens de décision quant à la réalisation d'une simulation d'un encodage d'images de la séquence vidéo échantillonnées à une fréquence temporelle f2 > en vue de déterminer si la fréquence temporelle d'échantillonnage f, de la séquence peut être augmentée, la décision étant prise en fonction d'au moins un critère relatif aux ressources d'un appareil de communication susceptible d'effectuer l'étape de simulation et/ou en fonction de l'évolution au cours du temps de caractéristiques de la séquence vidéo et/ou du réseau. Ce dispositif de mise en oeuvre du procédé décrit ci-dessus présente les mêmes avantages que ce dernier. L'invention vise également : - un support d'informations lisible par un système informatique, éventuellement totalement ou partiellement amovible, notamment CD-ROM ou support magnétique, tel qu'un disque dur ou une disquette, ou support transmissible tel un signal électrique ou optique, ce support d'informations comprenant des instructions d'un programme d'ordinateur, caractérisé en ce qu'il permet la mise en oeuvre du procédé brièvement exposé ci-dessus, lorsque ce programme est chargé et exécuté par le système informatique ; - un programme d'ordinateur chargeable sur un système informatique, ledit programme contenant des instructions permettant la mise en oeuvre du procédé brièvement exposé ci-dessus, lorsque ce programme est chargé et exécuté par le système informatique. 9 D'autres caractéristiques et avantages apparaitront au cours de la description qui va suivre, donnée uniquement à titre d'exemple non limitatif et faite en référence aux dessins annexés, sur lesquels : - la figure 1 est une représentation schématique d'un appareil de communication dans lequel l'invention peut être mise en oeuvre ; - la figure 2 représente de façon schématique l'environnement dans lequel s'inscrit l'invention ; - la figure 3 est une vue schématique d'un algorithme de détermination d'une fréquence temporelle d'une séquence d'images vidéo selon l'invention ; - la figure 4 est une vue schématique d'un algorithme de détermination d'une fréquence temporelle d'une séquence d'images vidéo selon un premier mode de réalisation de l'invention ; - la figure 5 est une vue schématique d'un algorithme de détermination d'une fréquence temporelle d'une séquence d'images vidéo selon un deuxième mode de réalisation. Comme représenté à la figure 1, un dispositif 110 de mise en oeuvre de l'invention est par exemple réalisé sous la forme d'un micro-ordinateur connecté à différents périphériques.
Parmi les périphériques on trouve une caméra numérique 1100 reliée à une carte graphique non représentée et qui fournit des données à traiter au dispositif 110. On notera que la caméra peut être remplacée par tout moyen d'acquisition ou de stockage d'image, voire par un scanner susceptible de communiquer au dispositif 110 des données.
Le dispositif 110 comporte une interface de communication 1102 reliée à un réseau de communication 1103 sur lequel des données numériques sont transmises. Le dispositif 110 peut recevoir ces données à traiter en provenance du réseau 1103 ou peut les transmettre sur le réseau après les avoir traitées. Le dispositif 110 comporte également un moyen de stockage de données 1104 tel qu'un disque dur. On trouve également dans le dispositif 110 un lecteur 1105 de disque 1106, ce disque pouvant être une disquette, un CD-ROM ou un DVD-ROM. Le disque 1106 tout comme le disque dur 1104 peuvent contenir des données traitées selon l'invention ainsi qu'un ou des programmes d'ordinateur mettant en oeuvre l'invention. 10 Ce ou ces programmes peuvent par exemple être contenus dans le support de stockage 1106 et transféré dans le dispositif 110 pour y être stockés, par exemple, dans le disque dur 1104. Selon une variante, le ou les programmes permettant au dispositif 110 de mettre en oeuvre l'invention peuvent être stockés en mémoire morte 1107 (ROM). Selon une autre variante, ce ou ces programmes peuvent être reçus par le dispositif 110 du réseau de communication 1103 pour y être stockés de façon identique à ce qui a été décrit précédemment. Le dispositif 110 est également relié à un microphone 1108 pour traiter des données audio. Un écran 1109 permet de visualiser les données à traiter ou les données traitées, ou de servir d'interface avec l'utilisateur qui peut ainsi paramétrer certains modes de traitement, à l'aide d'un clavier 1110 ou de tout autre moyen tel qu'une souris ou un autre dispositif de pointage.
Le dispositif comporte également une unité centrale de traitement 1111 (CPU) qui exécute les instructions relatives à la mise en oeuvre de l'invention. Ces instructions ou lignes de code sont stockées dans la mémoire morte 1107 ou dans les autres moyens de stockage précités. Lors de la mise sous tension du dispositif, le ou les programmes de traitement selon l'invention stockés dans une mémoire non volatile, telle que la mémoire 1107 (ROM), sont transférés dans la mémoire vive 1112 (RAM) qui contiendra alors le code exécutable du ou des programmes, ainsi que des registres pour mémoriser les variables nécessaires à la mise en oeuvre de l'invention. De manière plus générale, un moyen de stockage de données, lisible par un ordinateur ou un micro-processeur, mémorise le ou les programmes mettant en oeuvre le procédé selon l'invention et, plus particulièrement, un procédé de codage, de transmission et de décodage de données. On notera que le moyen de stockage de données peut être intégré ou non au dispositif 110 et éventuellement amovible.
Le dispositif 110 comporte également un bus de communication 1113 permettant de relier entre eux les différents composants précités, qu'ils soient intégrés dans le dispositif 110 ou reliés à ce dernier, et permet ainsi d'établir la communication entre ces différents éléments. La représentation du bus 1113 n'est pas limitative et notamment l'unité centrale 1111 est susceptible de communiquer des instructions à tout composant du 11 dispositif 110 ou relié à ce dernier, que ce soit directement ou par l'intermédiaire d'un autre composant du dispositif. On notera que les données traitées par le dispositif 110 sont des données issues d'une séquence d'images vidéo.
Comme représenté sur la figure 2, l'invention s'applique notamment dans le cadre d'une transmission d'une séquence d'images vidéo sur un réseau de communication à partir d'un appareil de communication qui est, par exemple, identique au dispositif 110 de la figure 1. En amont de la transmission, un module 200 d'acquisition d'une séquence vidéo est prévu, par exemple, sous la forme d'une caméra délivrant des images dans un format non compressé. Dans l'exemple illustré on suppose que la fréquence d'acquisition vidéo est de 30 images par seconde. Les images acquises par le module 200 sont ensuite transférées au module 201 d'encodage vidéo qui est, par exemple un encodeur vidéo conforme à la norme MPEG-4. Chaque image compressée par le module 201 est ensuite découpée sous la forme de paquets de données par le module 203 et les paquets ainsi formés sont transmis sur le réseau par le module de transmission 204. Il convient de noter que la transmission des paquets sur le réseau est effectuée en respectant la contrainte de bande passante du réseau B(t), sous la supervision du module de contrôle 205. La variable t est un indice de temps et la bande passante du réseau qui est déterminée à un instant donné est donc susceptible d'évoluer au cours du temps. Il convient en outre de noter que la valeur de bande passante B(t) est connue du module d'encodage vidéo 201 qui adapte donc le taux de compression des images, et donc la qualité de celles-ci, de façon à pouvoir transmettre tous les paquets sur le réseau. Lorsque la valeur de la bande passante B(t) est trop faible, le taux de compression est trop élevé et la qualité de la vidéo décroît fortement. Dans un tel cas, il est prévu d'adapter la fréquence temporelle d'échantillonnage de la séquence vidéo en supprimant certaines des images fournies par le module d'acquisition vidéo 200. Le module 202 a pour rôle de déterminer la fréquence temporelle appropriée d'échantillonnage des images de la séquence vidéo. La séquence vidéo dont la fréquence temporelle a été adaptée une ou plusieurs fois par le module 202 est transmise sur le réseau. 25 30 35 12 Le réseau est par exemple un réseau sans fil. On notera que les modules 200 à 205 font partie de l'appareil de communication dit émetteur. Les paquets transmis sont successivement réceptionnés par un module principal de réception de données 206 et par un module de réception de paquets 207 dans lequel ils sont rassemblés pour constituer un fichier binaire. Les données constitutives de ce fichier sont ensuite traitées par le module 208 de décodage des données vidéo. Lorsque le décodage des images de la séquence vidéo a été effectué, ces images, ou la vidéo dans son ensemble, peuvent subir un traitement postérieur en vue d'améliorer la qualité visuelle. Un tel traitement est effectué par le module de post-traitement 209 et peut, par exemple, récupérer la fréquence temporelle initiale de la séquence vidéo par l'intermédiaire d'une méthode d'interpolation temporelle.
Le module 209 peut en outre mettre en oeuvre des méthodes de suppression des effets de blocs et de nombreuses autres méthodes connues de l'homme de l'art. Le module d'affichage 210 procède ensuite à l'affichage de la séquence vidéo. Les modules 206 à 210 font partie d'un appareil de communication dit récepteur et qui est, par exemple, identique au dispositif 110 de la figure 1.
On notera que, dans le contexte décrit ci-dessus, l'acquisition vidéo et l'encodage de celle-ci sont effectués en temps réel. Cependant, l'adaptation de la fréquence temporelle de la séquence vidéo selon l'invention peut être également effectuée sur une vidéo déjà compressée, par exemple, au format MPEG-4 ou bien à un autre format.
Dans cette éventualité, un transcodage de la vidéo compressée est alors nécessaire afin d'adapter la taille de la vidéo compressée aux contraintesde bande passante du réseau. Ce transcodage peut consister en une requantification et/ou une modification de la fréquence temporelle.
L'algorithme représenté sur la figure 3 illustre de façon plus détaillée une partie des différentes fonctionnalités mises en oeuvre par le module 202 de la figure 2. On notera que de façon générale, le module 202 de la figure 2 doit prendre une décision sur la fréquence temporelle à adopter pour l'échantillonnage de la séquence vidéo en fonction de critères qui seront définis ci-après. Cette décision conduit ainsi soit à sous échantillonner les images de la séquence vidéo, soit à augmenter la fréquence temporelle d'échantillonnage. 13 L'algorithme de la figure 3 comprend une première étape 300 d'acquisition d'une séquence vidéo, par exemple, avec une caméra. Lors de l'acquisition de la séquence vidéo, les images de cette dernière sont échantillonnées à une fréquence temporelle f0.
Au cours de l'étape suivante 301 cette séquence vidéo est encodée et une étape 303 permet d'assurer un contrôle du débit alloué à chaque image de la séquence vidéo. Plus particulièrement, au cours de l'étape 303, le contrôle de débit permet d'adapter les paramètres d'encodage en tenant compte de la bande passante disponible B(t) sur le réseau de communication. Au cours de l'étape suivante 304, on détermine la qualité visuelle des images échantillonnées et encodées. Il est ainsi possible, par exemple, d'utiliser comme mesure de la qualité visuelle d'une image de la séquence vidéo le rapport signal sur bruit de cette dernière, également noté PSNR (connu en terminologie anglo-saxonne sous le terme Peak Signal to Noise Ratio ). Le rapport signal sur bruit est déterminé par la formule suivante : PSNR = 20Log10 (255/RMSE), où RMSE désigne la racine carrée de MSE et MSE désigne l'erreur quadratique moyenne (connue en terminologie anglo-saxonne sous le terme Mean Square Error ) sur une composante couleur d'une image (comme par exemple la luminance ou la chrominance), et est déterminée par la formule suivante, où L représente la largeur de l'image et H sa hauteur : H -1 L-1 MSE=LxH =ofx(i,i) X (i, j)On notera que l'erreur quadratique moyenne peut être calculée directement 30 lors de la phase de quantification qui est mise en oeuvre à l'étape d'encodage vidéo 301. Après détermination de la qualité visuelle d'une image encodée on procède, au cours de l'étape suivante 305, à la comparaison de cette qualité avec un seuil prédéterminé S. Lorsque la qualité visuelle de l'image échantillonnée à la fréquence f0 et encodée est inférieure au seuil prédéterminé, alors cela signifie que la qualité spatiale des images doit être améliorée. On notera que ce seuil est déterminé de façon empirique et dépend du type des données vidéo et/ou de l'application envisagée. Ainsi, par exemple, il peut être égal à 14 29dB pour une application liée à la visioconférence et peut être inférieur pour des applications de vidéosurveillance. A cet effet, il convient donc de réduire la fréquence temporelle d'échantillonnage des images de la séquence vidéo.
Cette décision est prise à l'étape 306. On notera que le cas où la qualité visuelle des images encodées est supérieure au seuil S n'a pas été envisagé sur la figure 3 par souci de clarté. Toutefois, dans un tel cas on ne modifie pas la fréquence d'échantillonnage f0 de la séquence vidéo.
Dès lors que la décision de réduire la fréquence f0 à la fréquence f1 a été prise, on prévoit au cours de l'étape 307 d'enregistrer les conditions qui ont donné lieu à cette prise de décision. Plus particulièrement, on mémorise, par exemple, des caractéristiques ou propriétés de la séquence vidéo et/ou des caractéristiques ou propriétés du réseau à un instant donné. Le contexte qui a ainsi conduit à réduire la fréquence temporelle d'échantillonnage de la séquence vidéo est mémorisé et une variable dénommée contexte_a_enregistrer qui initialement vaut 0, est alors mise à la valeur 1. Ainsi, lors de l'encodage de l'image suivante, si cette variable vaut 1, alors la qualité déterminée à l'étape 304 (exemple : PSNR) est enregistrée comme valeur de contexte initial et la variable est immédiatement remise à 0 après cet enregistrement. On notera que le contexte qui est mémorisé à l'étape 307 est par exemple la bande passante B(t) disponible lors du changement de fréquence et l'activité vidéo (la variance des erreurs de prédiction, la variance des vecteurs de mouvement).
Suite à la prise de décision de l'étape 306, l'étape 308 prévoit de déterminer une nouvelle fréquence temporelle réduite f,. Par exemple, la fréquence temporelle f0 est divisée par deux. Ainsi, l'algorithme de la figure 3 permet de décider d'un sous-échantillonnage temporel en fonction d'un critère donné et mémorise un contexte dans lequel cette décision a été prise et qui servira ultérieurement à revenir à une fréquence temporelle d'échantillonnage supérieure. L'algorithme de la figure 4 qui va maintenant être décrit définit des conditions dans lesquelles la fréquence d'échantillonnage peut être augmentée selon un premier mode de réalisation de l'invention.
Suivant cet algorithme, la décision de réaliser une étape de simulation d'un encodage d'images de la séquence vidéo échantillonnées à une fréquence temporelle f2 15 supérieure à f, est prise en fonction d'au moins un critère relatif aux ressources de l'appareil de communication qui est susceptible d'effectuer l'étape de simulation. Cette étape de simulation est là pour déterminer de façon précise en fonction des conditions réelles si une nouvelle fréquence peut être adoptée pour l'échantillonnage.
L'algorithme de la figure 4 comporte une première étape 400 d'acquisition d'une séquence vidéo avec une caméra et une étape 401 est par exemple prévue pour stocker de façon temporaire les données vidéo ainsi acquises. Au cours de l'étape suivante 402 on procède à un sous-échantillonnage de la séquence vidéo à la fréquence réduite f,.
En effet, lors de l'étape 306 de la figure 3 la décision de réduire la fréquence d'échantillonnage de fo à f, a déjà été prise. Les images ainsi échantillonnées de la séquence peuvent ensuite, par exemple, être stockées de façon temporaire à l'étape 403, puis encodées à l'étape 404. L'étape suivante 405 prévoit de déterminer, par exemple, la qualité d'une image ainsi encodée et de la comparer au seuil S comme le prévoyaient les deux étapes 304 et 305 de la figure 3. On notera que le traitement envisagé ici est fait image par image. Lorsque la qualité obtenue est inférieure au seuil prédéterminé, alors une nouvelle fréquence temporelle réduite est sélectionnée (étape 406), et les conditions (contexte) dans lesquelles cette décision de réduire la fréquence a été prise sont mémorisées (caractéristiques de la séquence vidéo et/ou caractéristiques du réseau). Plus particulièrement, la variable contexte_a_enregistrer est mise à 1. On notera que l'on peut se référer pour plus de détails à la description faite ci-dessus en relation avec la figure 3 et qui définit le passage à une fréquence plus faible lors des étapes 307 et 308. L'étape suivante 407 permet de sélectionner l'image suivante de la séquence échantillonnée à la nouvelle fréquence et l'on procède alors de façon identique aux opérations suivantes : - encodage de cette nouvelle image, - détermination de la qualité de cette image encodée et - comparaison avec le seuil, comme on vient de le décrire pour l'image précédente. De retour à l'étape 405, lorsque la qualité visuelle de l'image encodée est supérieure au seuil, alors l'étape suivante 408 prévoit de conserver la même fréquence d'échantillonnage et l'on passe ensuite à l'image suivante de la séquence échantillonnée à la fréquence f, (étape 407) comme décrit ci-dessus. 16 En parallèle de ces opérations, il est prévu à l'étape 409 d'analyser l'état des ressources de l'appareil de communication et, notamment, de déterminer si des ressources calculatoires et de l'espace mémoire sont disponibles dans cet appareil pour effectuer une simulation d'encodage.
On peut, par exemple, déterminer cette disponibilité par rapport à un seuil définissant un taux d'occupation maximal de l'unité calculatoire et de l'espace mémoire. Lorsque l'état des ressources le permet, un certain nombre d'images consécutives de la séquence vidéo sont sélectionnées en sortie de l'étape 401. On notera que, selon l'état de ces ressources, on peut décider de réaliser la simulation d'encodage en adaptant le nombre d'images sélectionnées et, par exemple, se contenter de quelques images (1, 2 ou 3) si les ressources sont proches du seuil. On peut aussi étaler le temps de calcul de l'encodage de ces images sur un laps de temps supérieur à celui imposé par le temps réel. Ceci induira un léger décalage temporel dans une éventuelle décision d'augmenter la fréquence temporelle, mais cela permettra de prendre en compte un peu plus d'images lors de la prise de décision (5 ou 6 images). Les images sélectionnées sont ensuite sous-échantillonnées à l'étape 410 à une fréquence temporelle f2 supérieure à la fréquence f, utilisée pour l'échantillonnage de l'étape 402. Le taux de sous-échantillonnage appliqué à l'étape 410 est, par exemple, deux fois inférieur au taux de sous-échantillonnage appliqué à l'étape 402. Les images ainsi sous-échantillonnées sont par exemple stockées de façon temporaire à l'étape 411, puis encodées à l'étape 412. On notera que dans la mesure où les étapes d'encodage 404 et 412 utilisent les mêmes images, certains calculs qui sont réalisés à l'étape 412, lors de la simulation du second encodage, pourront être réutilisés par la suite à l'étape d'encodage 404. Au cours de l'étape suivante 413, on détermine la qualité de chacune des images dont on a simulé l'encodage, par exemple, en déterminant la qualité visuelle de ces dernières comme décrit ci-dessus à l'étape 304 de la figure 3. Au cours de l'étape suivante 414, on compare la qualité des images encodées à un seuil aS, avec a>1, afin de déterminer si la qualité est largement supérieure au seuil de qualité S. En pratique, s'il y a plusieurs images encodées on n'effectue cette étape que sur la dernière image sélectionnée afin de s'assurer que la qualité de l'image utilisée pour ce test soit la plus stable possible (et donc la plus représentative possible) parmi les qualités de toutes les images sélectionnées. 17 Dans l'affirmative, l'étape 414 est suivie de l'étape 415 qui autorise l'augmentation de la fréquence d'échantillonnage temporelle de f, à f2. Par exemple, le taux de sous-échantillonnage est alors divisé par deux au cours de cette étape.
De retour à l'étape 414, lorsque la qualité des images dont on a simulé l'encodage se révèle insuffisante, alors il est décidé de ne pas modifier la fréquence d'échantillonnage comme déjà expliqué en référence à l'étape 408 décrite ci-dessus. Ainsi, comme il vient d'être décrit aux étapes 409 à 415, on détermine la disponibilité les ressources calculatoires et, éventuellement, de l'espace mémoire, afin de décider s'il est possible de simuler, en parallèle d'un premier encodage (étape 404) effectué à une fréquence temporelle donnée, un second encodage avec une fréquence temporelle supérieure. A titre d'exemple, si l'on constate que l'encodage d'une seconde de vidéo avec la fréquence temporelle courante utilise 50% des ressources machines, alors on pourra sélectionner 0,5 seconde de vidéo pour simuler un second encodage aux étapes 410 et 412. Il est connu que dans un encodeur vidéo l'estimation du mouvement entre deux images s'avère très coûteuse en termes de calculs. Compte tenu de cela, il est donc possible d'estimer le mouvement entre deux images lors de l'étape d'encodage 404 à partir du mouvement qui a été estimé à l'étape d'encodage 412. Ainsi, si à l'étape 412 le mouvement entre les images 1(0), et 1(1), et, entre les images 1(1) et 1(2) est calculé, alors par une simple addition, le mouvement entre 1(0) et 1(2) est estimé et peut servir de première approximation lors de l'étape d'encodage 404.
L'inverse, à savoir la réutilisation à l'étape 412 de calculs effectués à l'étape 404, est également possible. Ceci permet de réduire fortement l'espace de recherche et les temps de calculs. Il convient de noter que lorsque l'on prend la décision d'échantillonner les images à la fréquence réduite f, à l'étape 402, les étapes 307 et 308 de la figure 3 ont été réalisées. Ainsi, le contexte initial a été enregistré (exemple : activité vidéo et bande passante) et la variable contexte_a_enregistrer a été mise à 1. L'image suivante échantillonnée à la fréquence f1 est ensuite encodée à l'étape 404 avant que l'on en détermine sa qualité visuelle à l'étape 405. 18 Toutefois, en parallèle de l'encodage ou après ce dernier, on effectue l'étape 416 qui vérifie si la variable précitée est à la valeur 1. Dans l'affirmative, l'étape suivante 417 prévoit de mettre à 0 cette variable et d'enregistrer la valeur de la dernière qualité visuelle déterminée (PSNR) à l'étape 304 de la figure 3. On notera cependant que cet enregistrement (en dehors de celui de la valeur de PSNR) pourrait alternativement avoir lieu à l'étape 307 de la figure 3. De façon générale, la qualité visuelle d'une image dépend de l'activité vidéo et de la capacité de transmission du réseau. En effet, pour une bande passante donnée, plus l'activité de la vidéo est importante, plus sa qualité visuelle sera faible. Si, lors du test de l'étape 416, la variable est à 0 alors aucun contexte (PSNR) n'est à enregistrer car cela signifie que la fréquence d'échantillonnage n'a pas été réduite. La figure 5 illustre un algorithme d'adaptation de la fréquence d'échantillonnage d'une séquence vidéo en fonction de l'évolution au cours du temps de caractéristiques de la séquence vidéo et/ou du réseau (contexte), selon un deuxième mode de mise en oeuvre de l'invention. Comme on le verra par la suite cet algorithme permet notamment, dans certaines circonstances, de diminuer l'utilisation des ressources machine (unité de calcul et/ou espace mémoire) en tenant compte de l'évolution temporelle du contexte précité.
L'algorithme de la figure 5 comporte une première étape 500 d'acquisition d'une séquence vidéo qui est ensuite stockée à l'étape 501, sous-échantillonnée à la fréquence f, à l'étape 503 en fonction d'une décision de réduction de la fréquence temporelle visée à l'étape 502 (correspondant à l'étape 306 de la figure 3), stockée à l'étape 504, puis encodée à l'étape 505.
Toutes ces étapes sont identiques aux étapes respectives 400, 401, 402, 306, 403 et 404 de la figure 4. De même, l'étape 506 de comparaison par rapport au seuil S de la qualité des images encodées et la décision de réduction de la fréquence temporelle d'échantillonnage et d'enregistrement du nouveau contexte visée à l'étape 507, ainsi que la décision de conserver la même fréquence d'échantillonnage visée à l'étape 509 sont identiques aux étapes respectives 405, 406 et 408 de la figure 4. Après ces étapes, on passe au traitement de l'image suivante à l'étape 508 qui est analogue à l'étape 407 de la figure 4. Après encodage de l'image suivante à l'étape 505, l'étape 510 est prévue afin de déterminer la façon dont a évolué le contexte au cours du temps. 19 En fonction du résultat de cette étape de test, on va décider si la simulation d'un second encodage à une fréquence temporelle d'échantillonnage plus élevée s'avère utile ou non. On notera que l'étape 510 peut intervenir à d'autres endroits de l'algorithme, et non nécessairement après l'encodage, lorsque le contexte est caractérisé par l'activité vidéo et/ou la capacité de transmission du réseau. Plus particulièrement, au cours de l'étape 510 on compare le contexte représentatif de la séquence vidéo et/ou du réseau lorsqu'il a été décidé de réduire la fréquence temporelle d'échantillonnage (contexte 515 préalablement enregistré) avec le contexte dit courant (activité vidéo et bande passantes courantes 512) qui est représentatif de l'état de la séquence vidéo et/ou du réseau à l'instant présent ou peu de temps auparavant. On notera que le contexte initial 515 a été enregistré à l'étape 307 de la figure 3, l'enregistrement 515 incluant également l'enregistrement de la qualité visuelle de l'image encodée (PSNR) juste après (étape 417 de la figure 4) réduction de la fréquence à f,. Le contexte est par exemple défini par les caractéristiques présentées par la séquence vidéo et/ou par le réseau à un instant donné et il peut, par exemple, s'agir de la qualité visuelle (exemple : PSNR) de la vidéo ou d'une image, de l'activité vidéo (par exemple, la variance des erreurs de prédiction et/ou la variance des vecteurs de mouvement), ainsi que de la bande passante disponible à l'instant de référence. Toutefois, on peut ne prendre en compte lors de cette étape que la qualité visuelle des images et ainsi comparer la qualité visuelle d'une image enregistrée initialement à l'étape 417 de la figure 4 (je pense que c'est plutôt l'étape 417 de la figure 4 ?), c'est-à-dire lorsqu'il a été décidé de réduire la fréquence temporelle d'échantillonnage de la séquence vidéo, avec la qualité visuelle, dite courante, de l'image encodée à l'étape 505. Cette image encodée résulte d'un échantillonnage à la fréquence réduite. Ainsi, lorsque l'évolution temporelle du contexte montre que les caractéristiques courantes de la séquence vidéo et/ou du réseau se sont améliorées au cours du temps, c'est-à-dire par exemple si la qualité visuelle de la séquence vidéo courante est supérieure à celle de la séquence vidéo initiale ou si la bande passante est supérieure à la bande passante préalable, alors il est probable que la qualité visuelle de la séquence vidéo à une fréquence temporelle d'échantillonnage supérieure soit bonne. 20 Dans ce cas, on peut envisager la simulation d'un second encodage d'images de la séquence vidéo qui sont échantillonnées à une fréquence temporelle supérieure à la fréquence f, de l'étape 503. On notera toutefois que cette simulation d'encodage peut être subordonnée à l'état des ressources machines (unité de calcul et/ou espace mémoire) disponible à un instant donné. L'étape de vérification de l'état des ressources machines par rapport à un seuil prédéterminé (taux d'occupation de l'unité de calcul ou de l'espace mémoire) est réalisée à l'étape 513 et est identique à l'étape 409 de la figure 4.
On notera toutefois qu'il est également possible de réaliser l'étape de simulation d'encodage sans tenir compte de l'état des ressources machines. Ainsi, en adoptant une fréquence d'échantillonnage supérieure à la fréquence d'échantillonnage utilisée à l'étape 503, on exécute les étapes de sous-échantillonnage 514, de stockage 515, d'encodage 516, de détermination d'une qualité visuelle 517 et de comparaison 518 de cette qualité au seuil aS. Ces étapes sont identiques aux étapes respectives 410, 411, 412, 413 et 414 de la figure 4. Si la qualité visuelle de la séquence vidéo à la fréquence supérieure s'avère suffisamment bonne (PSNR>aS), alors l'étape suivante 519 prévoit d'adapter la fréquence en sélectionnant une fréquence temporelle supérieure qui est, par exemple, celle à laquelle la simulation d'encodage a été effectuée. En revanche, si la qualité visuelle s'avère insuffisante (PSNR aS), alors on conserve la fréquence d'échantillonnage utilisée à l'étape 503 (étape 509). Il convient de noter que lorsque l'état des ressources machine fourni à l'étape 513 s'avère inférieur au seuil prédéterminé (taux d'occupation), alors il est possible d'envisager directement d'augmenter la fréquence temporelle d'échantillonnage sans avoir recours à la simulation d'encodage prévue aux étapes 514 et suivantes. On économise ainsi du temps de calcul et l'on gagne en rapidité de décision. De retour à l'étape de comparaison 510, lorsque le contexte s'est dégradé au cours du temps, ce qui se traduit, par exemple, par une qualité visuelle (PSNR) courante de la séquence vidéo qui est inférieure ou égale à la qualité visuelle de la séquence vidéo au moment où la fréquence temporelle d'échantillonnage a été réduite, alors il est très probable que la qualité visuelle de la séquence vidéo à une fréquence temporelle supérieure soit insuffisante.
En effet, ceci s'explique par le fait que le contexte courant s'avère moins bon que celui qui avait déjà entrainé une diminution de la fréquence temporelle.
21 Dans ce cas, la simulation d'encodage prévue aux étapes 514 et suivantes s'avère inutile et l'étape 510 est suivie de l'étape 520 qui remet à 0 la valeur de la qualité visuelle (PSNR) déterminée. L'étape 520 est ensuite suivie de l'étape 518 déjà décrite ci-dessus et qui, compte tenu de la valeur du PSNR, conduit directement à l'étape 509 de conservation de la même fréquence d'échantillonnage. On notera également que l'enregistrement du contexte par l'intermédiaire de la variable contexte_a_enregistrer est réalisé de façon identique à ce qui a été décrit en référence aux figures 416 et 417 de la figure 4. Il convient de noter que lorsque l'on sélectionne une fréquence temporelle d'échantillonnage supérieure, par exemple lorsqu'on la double, alors le contexte courant correspond au contexte qui était enregistré lors de la précédente réduction de fréquence temporelle d'échantillonnage.
Claims (27)
1. Procédé d'adaptation d'une fréquence temporelle d'une séquence d'images vidéo en vue de sa transmission sur un réseau de communication, caractérisé en ce que des images de la séquence ayant été échantillonnées à une fréquence temporelle le procédé comporte une étape de décision quant à la réalisation d'une étape de simulation d'un encodage d'images de la séquence vidéo échantillonnées à une fréquence temporelle f2 > en vue de déterminer si la fréquence temporelle d'échantillonnage f, de la séquence peut être augmentée, la décision étant prise en fonction d'au moins un critère (409 ; 513) relatif aux ressources d'un appareil de communication susceptible d'effectuer l'étape de simulation (412 ; 516) et/ou en fonction de l'évolution au cours du temps de caractéristiques de la séquence vidéo et/ou du réseau (512, 515).
2. Procédé selon la revendication 1, caractérisé en ce que l'évolution au cours du temps des caractéristiques de la séquence vidéo et/ou du réseau est constatée par rapport aux caractéristiques initiales présentées par la séquence vidéo et/ou par le réseau lorsqu'il a été décidé d'utiliser la fréquence temporelle f, pour l'échantillonnage.
3. Procédé selon la revendication 1 ou 2, caractérisé en ce qu'il comporte, préalablement à l'étape de décision quant à la réalisation d'une étape de simulation, une étape de mémorisation (307) des caractéristiques de la séquence vidéo et/ou des caractéristiques du réseau à un instant donné en relation avec une fréquence temporelle d'échantillonnage des images de la séquence vidéo.
4. Procédé selon la revendication 3, caractérisé en ce que l'étape de mémorisation (307) est effectuée après qu'il ait été décidé (306) de réduire la fréquence temporelle d'échantillonnage des images de la séquence vidéo d'une fréquence fo à la fréquence f,.
5. Procédé selon l'une des revendications 1 à 4, caractérisé en ce qu'il comporte, préalablement à l'étape de décision quant à la réalisation d'une étape de simulation, les étapes suivantes : - échantillonnage (300) d'images de la séquence vidéo à une fréquence temporelle fo > encodage (301) des images échantillonnées, - détermination de la qualité (304) des images encodées, - comparaison (305) de la qualité déterminée par rapport à un seuil prédéterminé, 23 - en fonction du résultat de la comparaison, décision (306) quant à une réduction de la fréquence temporelle d'échantillonnage des images de la séquence vidéo de la fréquence fo à la fréquence f,.
6. Procédé selon l'une des revendications 1 à 5, caractérisé en ce qu'il comporte une étape de comparaison (510) entre les caractéristiques courantes (512) présentées par la séquence vidéo et/ou le réseau et les caractéristiques initiales (515) présentées par la séquence vidéo et/ou le réseau lorsqu'il a été décidé d'utiliser la fréquence temporelle f, pour l'échantillonnage.
7. Procédé selon la revendication 6, caractérisé en ce que l'étape de comparaison (510) des caractéristiques est notamment réalisée sous la forme d'une étape de comparaison des qualités de la séquence vidéo obtenues respectivement avec les caractéristiques courantes et initiales.
8. Procédé selon la revendication 6 ou 7, caractérisé en ce qu'il comporte, en fonction du résultat de l'étape de comparaison, une étape de décision (518) quant à une augmentation de la fréquence temporelle d'échantillonnage de f, à f2.
9. Procédé selon la revendication 8, caractérisé en ce que le procédé comporte une étape d'augmentation (519) de la fréquence temporelle d'échantillonnage, lorsque les caractéristiques courantes de la séquence vidéo et/ou du réseau se sont améliorées au cours du temps.
10. Procédé selon la revendication 6 ou 7, caractérisé en ce que, lorsque les caractéristiques courantes de la séquence vidéo et/ou du réseau se sont améliorées au cours du temps, alors la décision de réaliser l'étape de simulation d'encodage d'images échantillonnées à la fréquence temporelle f2 > f, dépend de l'état des ressources (513) de l'appareil de communication par rapport à un seuil prédéterminé.
11. Procédé selon la revendication 10, caractérisé en ce que, l'état des ressources de l'appareil de communication étant inférieur au seuil prédéterminé, le procédé comporte une étape d'augmentation (507) de la fréquence temporelle d'échantillonnage sans avoir recours à l'étape de simulation d'encodage.
12. Procédé selon la revendication 6 ou 7, caractérisé en ce que, lorsque les caractéristiques courantes de la séquence vidéo et/ou du réseau se sont dégradées au cours du temps, alors l'étape de simulation d'encodage n'est pas réalisée.
13. Procédé selon l'une des revendications 1 à 10, caractérisé en ce qu'il comporte une étape de simulation d'encodage (412 ; 516) d'images de la séquence vidéo échantillonnées à la fréquence temporelle f2 > f, lorsque l'état des ressources (409 ; 513) de l'appareil de communication est supérieur à un seuil prédéterminé. 24
14. Procédé selon la revendication 13, caractérisé en ce que l'étape de simulation est subdivisée en plusieurs sous-étapes : - échantillonnage (410 ; 514) d'images de la séquence vidéo à la fréquence temporelle f2, -simulation d'encodage (412 ; 516) des images échantillonnées, -détermination de la qualité (413 ; 517) des images encodées, comparaison (414 ; 518) de la qualité déterminée par rapport à un seuil prédéterminé, - en cas de dépassement du seuil, augmentation (415 ; 519) de la fréquence temporelle d'échantillonnage des images de la séquence vidéo.
15. Procédé selon l'une des revendications 1 à 14, caractérisé en ce que les caractéristiques de la séquence vidéo sont l'activité vidéo et/ou la qualité de la séquence vidéo.
16. Procédé selon l'une des revendications 1 à 15, caractérisé en ce que la qualité de la séquence vidéo ou d'une image est exprimée par le rapport signal sur bruit de la séquence vidéo ou de l'image encodée.
17. Procédé selon l'une des revendications 1 à 16, caractérisé en ce que les caractéristiques du réseau sont la bande passante du réseau.
18. Dispositif d'adaptation d'une fréquence temporelle d'une séquence d'images vidéo en vue de sa transmission sur un réseau de communication, caractérisé en ce que des images de la séquence ayant été échantillonnées à une fréquence temporelle le dispositif comporte des moyens de décision quant à la réalisation d'une simulation d'un encodage d'images de la séquence vidéo échantillonnées à une fréquence temporelle f2 > en vue de déterminer si la fréquence temporelle d'échantillonnage f, de la séquence peut être augmentée, la décision étant prise en fonction d'au moins un critère relatif aux ressources d'un appareil de communication susceptible d'effectuer l'étape de simulation et/ou en fonction de l'évolution au cours du temps de caractéristiques de la séquence vidéo et/ou du réseau.
19. Dispositif selon la revendication 18, caractérisé en ce qu'il comporte, des moyens de mémorisation des caractéristiques de la séquence vidéo et/ou des caractéristiques du réseau à un instant donné en relation avec une fréquence temporelle d'échantillonnage des images de la séquence vidéo.
20. Dispositif selon l'une des revendications 18 à 19, caractérisé en ce qu'il comporte : - des moyens d'échantillonnage d'images de la séquence vidéo à une fréquence temporelle fo > f,, 25 - des moyens d'encodage des images échantillonnées, - des moyens de détermination de la qualité des images encodées, - des moyens de comparaison de la qualité déterminée par rapport à un seuil prédéterminé, - des moyens de décision quant à une réduction de la fréquence temporelle d'échantillonnage des images de la séquence vidéo de la fréquence fo à la fréquence lesdits moyens de décision étant aptes à prendre une décision en fonction du résultat de la comparaison.
21. Dispositif selon l'une des revendications 18 à 20, caractérisé en ce qu'il comporte des moyens de comparaison entre les caractéristiques courantes présentées par la séquence vidéo et/ou le réseau et les caractéristiques initiales présentées par la séquence vidéo et/ou le réseau lorsqu'il a été décidé d'utiliser la fréquence temporelle f, pour l'échantillonnage.
22. Dispositif selon la revendication 21, caractérisé en ce qu'il comporte, des moyens de décision quant à une augmentation de la fréquence temporelle d'échantillonnage de f, à f2, lesdits moyens de décision étant aptes à prendre une décision en fonction du résultat de la comparaison.
23. Dispositif selon la revendication 22, caractérisé en ce qu'il comporte des moyens d'augmentation de la fréquence temporelle d'échantillonnage qui sont aptes à augmenter la fréquence, lorsque les caractéristiques courantes de la séquence vidéo et/ou du réseau se sont améliorées au cours du temps.
24. Dispositif selon l'une des revendications 18 à 23, caractérisé en ce qu'il comporte des moyens de simulation d'encodage d'images de la séquence vidéo échantillonnées à la fréquence temporelle f2 > lesdits moyens sont aptes à simuler l'encodage lorsque l'état des ressources de l'appareil de communication est supérieur à un seuil prédéterminé.
25. Dispositif selon la revendication 24, caractérisé en ce que les moyens de simulation comprennent : - des moyens d'échantillonnage d'images de la séquence vidéo à la fréquence temporelle f2, - des moyens de simulation d'encodage des images échantillonnées, - des moyens de détermination de la qualité des images encodées, - des moyens de comparaison de la qualité déterminée par rapport à un seuil prédéterminé, 26 - des moyens d'augmentation de la fréquence temporelle d'échantillonnage des images de la séquence vidéo qui sont aptes à augmenter la fréquence en cas de dépassement du seuil.
26. Support d'informations lisible par un système informatique, éventuellement totalement ou partiellement amovible, notamment CD-ROM ou support magnétique, tel qu'un disque dur ou une disquette, ou support transmissible tel un signal électrique ou optique, ce support d'informations comprenant des instructions d'un programme d'ordinateur caractérisé en ce qu'il permet la mise en oeuvre du procédé selon l'une quelconque des revendications 1 à 17, lorsque ce programme est chargé et exécuté par le système informatique.
27. Programme d'ordinateur chargeable sur un système informatique, ledit programme contenant des instructions permettant la mise en oeuvre du procédé selon l'une quelconque des revendications 1 à 17, lorsque ce programme est chargé et exécuté par le système informatique.
Priority Applications (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR0650866A FR2898757A1 (fr) | 2006-03-14 | 2006-03-14 | Procede et dispositif d'adaptation d'une frequence temporelle d'une sequence d'images video |
| PCT/IB2007/001768 WO2007105118A2 (fr) | 2006-03-14 | 2007-03-09 | Procédé et dispositif destinés à adapter une fréquence temporelle de séquence d'images vidéo |
| CN200780009006.3A CN101401434B (zh) | 2006-03-14 | 2007-03-09 | 用于改变视频图像序列的时间频率的方法和装置 |
| US12/280,526 US20090041132A1 (en) | 2006-03-14 | 2007-03-09 | Method and device for adapting a temporal frequency of a sequence of video images |
| EP07734910A EP1994759B1 (fr) | 2006-03-14 | 2007-03-09 | Procédé et dispositif destinés à adapter une fréquence temporelle de séquence d'images vidéo |
| JP2008558944A JP5164866B2 (ja) | 2006-03-14 | 2007-03-09 | ビデオ画像シーケンスの時間的頻度を適合させる方法および装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR0650866A FR2898757A1 (fr) | 2006-03-14 | 2006-03-14 | Procede et dispositif d'adaptation d'une frequence temporelle d'une sequence d'images video |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| FR2898757A1 true FR2898757A1 (fr) | 2007-09-21 |
Family
ID=37433603
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR0650866A Withdrawn FR2898757A1 (fr) | 2006-03-14 | 2006-03-14 | Procede et dispositif d'adaptation d'une frequence temporelle d'une sequence d'images video |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US20090041132A1 (fr) |
| EP (1) | EP1994759B1 (fr) |
| JP (1) | JP5164866B2 (fr) |
| CN (1) | CN101401434B (fr) |
| FR (1) | FR2898757A1 (fr) |
| WO (1) | WO2007105118A2 (fr) |
Families Citing this family (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2915342A1 (fr) * | 2007-04-20 | 2008-10-24 | Canon Kk | Procede et dispositif de codage video |
| US8897364B2 (en) * | 2007-08-31 | 2014-11-25 | Canon Kabushiki Kaisha | Method and device for sequence decoding with error concealment |
| FR2920632A1 (fr) * | 2007-08-31 | 2009-03-06 | Canon Kk | Procede et dispositif de decodage de sequences video avec masquage d'erreurs |
| FR2929787B1 (fr) | 2008-04-04 | 2010-12-17 | Canon Kk | Procede et dispositif de traitement d'un flux de donnees |
| FR2930387B1 (fr) * | 2008-04-17 | 2010-09-24 | Canon Kk | Procede de traitement d'un flux de donnees codes |
| EP2299716B1 (fr) | 2009-09-09 | 2016-11-23 | Canon Kabushiki Kaisha | Procédé et dispositif pour le codage d'un signal numérique multidimensionnel |
| GB2505912B (en) * | 2012-09-14 | 2015-10-07 | Canon Kk | Method and device for generating a description file, and corresponding streaming method |
| JP6739200B2 (ja) * | 2016-03-24 | 2020-08-12 | キヤノン株式会社 | 映像処理装置、映像処理システムおよび制御方法 |
| CN107960839B (zh) * | 2016-10-20 | 2020-08-07 | 佛山市顺德区美的电热电器制造有限公司 | 烹饪器具、流量控制方法和流量控制装置 |
| EP3499885B1 (fr) | 2017-12-18 | 2024-07-17 | Canon Kabushiki Kaisha | Procédé et dispositif de codage de données vidéo |
| EP3499886B1 (fr) | 2017-12-18 | 2025-02-12 | Canon Kabushiki Kaisha | Procédé et dispositif de codage de données vidéo |
| WO2020030488A1 (fr) * | 2018-08-07 | 2020-02-13 | Signify Holding B.V. | Systèmes et procédés de détection compressive utilisant des nœuds de périphérie de réseaux informatiques distribués |
| TWI676781B (zh) * | 2018-08-17 | 2019-11-11 | 鑑微科技股份有限公司 | 三維掃描系統 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2001027763A1 (fr) * | 1999-10-08 | 2001-04-19 | Ivex Corporation | Systeme de securite numerique en reseau et procedes |
| US6633609B1 (en) * | 1996-12-24 | 2003-10-14 | Intel Corporation | Method and apparatus for bit rate control in a digital video environment for arbitrary bandwidth |
| US20050089092A1 (en) * | 2003-10-22 | 2005-04-28 | Yasuhiro Hashimoto | Moving picture encoding apparatus |
| JP2005151280A (ja) * | 2003-11-18 | 2005-06-09 | Matsushita Electric Ind Co Ltd | カメラ装置 |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4025950A (en) * | 1976-05-27 | 1977-05-24 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Sampling video compression system |
| JPH10164503A (ja) * | 1996-11-26 | 1998-06-19 | Matsushita Electric Ind Co Ltd | 映像処理装置及び方法 |
| JPH10164533A (ja) * | 1996-11-26 | 1998-06-19 | Canon Inc | 画像通信方法及び装置 |
| JP3604864B2 (ja) * | 1997-04-25 | 2004-12-22 | シャープ株式会社 | 動画像符号化装置 |
| US5978029A (en) * | 1997-10-10 | 1999-11-02 | International Business Machines Corporation | Real-time encoding of video sequence employing two encoders and statistical analysis |
| JP4186242B2 (ja) * | 1997-12-26 | 2008-11-26 | ソニー株式会社 | 画像信号処理装置及び画像信号処理方法 |
| US6567117B1 (en) * | 1998-09-09 | 2003-05-20 | Nippon Telegraph And Telephone Corporation | Method for regulating image quality, picture communication equipment using same and recording medium having recorded therein a program for executing the method |
| JP2002077917A (ja) * | 2000-06-13 | 2002-03-15 | Sony Corp | 画像データ処理装置及び画像データ処理方法 |
| US6748020B1 (en) * | 2000-10-25 | 2004-06-08 | General Instrument Corporation | Transcoder-multiplexer (transmux) software architecture |
| JP4599609B2 (ja) * | 2001-09-18 | 2010-12-15 | 株式会社メガチップス | 画像圧縮符号化方法、画像配信方法、およびそれらのプログラム |
| JP3836701B2 (ja) * | 2001-10-10 | 2006-10-25 | 株式会社東芝 | 動画像を符号化する方法及び装置及びプログラム並びに動画像音声多重化の方法及び装置 |
| US7856055B2 (en) * | 2002-03-13 | 2010-12-21 | Imax Corporation | Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data |
| US7876821B2 (en) * | 2002-09-05 | 2011-01-25 | Agency For Science, Technology And Research | Method and an apparatus for controlling the rate of a video sequence; a video encoding device |
| JP3917124B2 (ja) * | 2003-10-21 | 2007-05-23 | 株式会社日立国際電気 | 画像蓄積配信システムの帯域制御方式 |
| JP2006033393A (ja) * | 2004-07-15 | 2006-02-02 | Matsushita Electric Ind Co Ltd | 画像符号化装置および画像符号化方法 |
| JP2007025073A (ja) * | 2005-07-13 | 2007-02-01 | Sony Corp | データ伝送方法、データ送信装置及びデータ受信装置、並びにプログラム |
| US8879856B2 (en) * | 2005-09-27 | 2014-11-04 | Qualcomm Incorporated | Content driven transcoder that orchestrates multimedia transcoding using content information |
-
2006
- 2006-03-14 FR FR0650866A patent/FR2898757A1/fr not_active Withdrawn
-
2007
- 2007-03-09 EP EP07734910A patent/EP1994759B1/fr not_active Not-in-force
- 2007-03-09 JP JP2008558944A patent/JP5164866B2/ja not_active Expired - Fee Related
- 2007-03-09 US US12/280,526 patent/US20090041132A1/en not_active Abandoned
- 2007-03-09 CN CN200780009006.3A patent/CN101401434B/zh not_active Expired - Fee Related
- 2007-03-09 WO PCT/IB2007/001768 patent/WO2007105118A2/fr not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6633609B1 (en) * | 1996-12-24 | 2003-10-14 | Intel Corporation | Method and apparatus for bit rate control in a digital video environment for arbitrary bandwidth |
| WO2001027763A1 (fr) * | 1999-10-08 | 2001-04-19 | Ivex Corporation | Systeme de securite numerique en reseau et procedes |
| US20050089092A1 (en) * | 2003-10-22 | 2005-04-28 | Yasuhiro Hashimoto | Moving picture encoding apparatus |
| JP2005151280A (ja) * | 2003-11-18 | 2005-06-09 | Matsushita Electric Ind Co Ltd | カメラ装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5164866B2 (ja) | 2013-03-21 |
| WO2007105118A2 (fr) | 2007-09-20 |
| EP1994759A2 (fr) | 2008-11-26 |
| JP2009530892A (ja) | 2009-08-27 |
| US20090041132A1 (en) | 2009-02-12 |
| WO2007105118A3 (fr) | 2008-08-21 |
| CN101401434A (zh) | 2009-04-01 |
| EP1994759B1 (fr) | 2012-05-23 |
| CN101401434B (zh) | 2010-12-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| FR2894421A1 (fr) | Procede et dispositif de decodage d'un flux video code suivant un codage hierarchique | |
| FR2898757A1 (fr) | Procede et dispositif d'adaptation d'une frequence temporelle d'une sequence d'images video | |
| FR2904494A1 (fr) | Procede et dispositif de compression d'image, systeme de telecommunication comportant un tel dispositif et programme mettant en oeuvre un tel procede | |
| EP3707900B1 (fr) | Procédé de formation d'une séquence d'images de sortie à partir d'une séquence d'images d'entrée, procédé de reconstruction d'une séquence d'images d'entrée à partir d'une séquence d'images de sortie, dispositifs, equipement serveur, equipement client et programmes d'ordinateurs associés | |
| FR3098072A1 (fr) | Procédé de traitement d’un ensemble d’images d’une séquence vidéo | |
| FR2897741A1 (fr) | Procede et dispositif de generation de donnees representatives d'un degre d'importance de blocs de donnees et procede et dispositif de transmission d'une sequence video encodee | |
| EP3449634B1 (fr) | Procédé de composition contextuelle d'une représentation vidéo intermédiaire | |
| FR2932938A1 (fr) | Procede et dispositif de transmission de donnees | |
| FR2908585A1 (fr) | Procede et dispositif de transmission de donnees video. | |
| EP3490255A1 (fr) | Compression intelligente de contenus vidéo grainés | |
| FR2928807A1 (fr) | Procede de transmission sur un reseau de communication d'un signal video pre-encode | |
| EP2368367B1 (fr) | Système et procédé interactif pour la transmission sur un réseau bas débit d'images clefs sélectionnées dans un flux video | |
| FR2796778A1 (fr) | Procede et dispositif de compression par bloc de donnees numeriques | |
| EP2559218B1 (fr) | Reception d'un contenu numerique en mode truque | |
| FR2893470A1 (fr) | Procede et dispositif de creation d'une sequence video representative d'une sequence video numerique et procedes et dispositifs de transmission et reception de donnees video associes | |
| WO2022263297A1 (fr) | Procédés et dispositifs de décodage d'une partie au moins d'un flux de données, programme d'ordinateur et flux de données associés | |
| WO2008132378A2 (fr) | Procédé et dispositif de régulation du débit de codage de séquences d'images vidéo vis-à-vis d'un débit cible | |
| FR2934453A1 (fr) | Procede et dispositif de masquage d'erreurs | |
| EP1714498B1 (fr) | Procede de recherche de la directon de prediction en codage video intra-image | |
| EP2536075B1 (fr) | Procédé de demande d'accès par un terminal à un contenu numérique apte à être téléchargé depuis un réseau. | |
| FR2959093A1 (fr) | Procede et dispositif de prediction d'une information de complexite de texture contenue dans une image | |
| FR2941110A1 (fr) | Procede et dispositif de prediction d'un etat de pertes d'un reseau de communication | |
| EP3582500B1 (fr) | Procédé, systeme et programme informatique d'analyse de la complexité d'un contenu multimédia source pour une diffusion à la demande | |
| FR2898459A1 (fr) | Procede et dispositif de reception d'images ayant subi des pertes en cours de transmission | |
| WO2021209706A1 (fr) | Gestion de l'accès à des contenus numériques accessibles en téléchargement progressif adaptatif et encodés selon une méthode d'encodage à débit variable, en fonction d'une charge réseau |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| ST | Notification of lapse |
Effective date: 20071130 |