WO2016046502A1 - Generation d'un film d'animation personnalise - Google Patents
Generation d'un film d'animation personnalise Download PDFInfo
- Publication number
- WO2016046502A1 WO2016046502A1 PCT/FR2015/052556 FR2015052556W WO2016046502A1 WO 2016046502 A1 WO2016046502 A1 WO 2016046502A1 FR 2015052556 W FR2015052556 W FR 2015052556W WO 2016046502 A1 WO2016046502 A1 WO 2016046502A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- pattern
- custom
- generating
- basic
- personalized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/02—Non-photorealistic rendering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Definitions
- the present invention relates to the generation of a personalized animation film.
- An "animated film” is a film made from a sequence of images.
- An animation movie can be static or dynamic, depending on the sequence of images.
- a disadvantage of current animation films is that they generally can not be adapted according to the wishes or preferences of the user.
- Augmented reality processes are also known, which make it possible to superimpose a virtual model on the perception we naturally have of reality, in real time.
- these methods do not allow a director or designer to control the scenario of the video generated, since this scenario is a function of a real scene filmed in real time by the user.
- the invention proposes a method for generating a personalized animation film, the method being implemented by computer means and characterized in that it comprises the steps of:
- the at least one custom pattern is made from a basic pattern of the set of basic patterns.
- the predefined environment may include virtual elements previously stored.
- Step / 2 / may comprise an operation consisting of:
- the method of generating a personalized animation film may further comprise a step of receiving at least one identifier of at least one basic pattern to be associated with at least one custom pattern visible in the view.
- the operation. /2.1/ is then performed from a subset of the set of basic patterns, the subset being determined using the at least one received identifier.
- the photograph shows the at least one identifier.
- the /2.1/ operation may include a suboperation, of detecting a frame surrounding the custom pattern.
- the basic pattern is then identified with psirtir of the frame's position.
- the generated animation film may also be a function of a previous photograph used for iteration, preceding steps /! / To, / 3 /.
- the invention also proposes a computer program comprising instructions for implementing the above method when this program is executed by a processor,
- the invention also proposes a system for generating a personalized animated film, comprising:
- reception means configured to receive a photograph, in digital form, showing at least one personalized pattern
- association means configured to associate the at least one custom pattern with a base pattern as part of a set of basic patterns previously stored
- means for generating a. animation film configured to generate an animation movie from the at least one custom pattern, the associated base pattern, and a scenario having a predefined environment.
- FIG. 1 is a flowchart illustrating the steps of a method of generating a personalized animation film, according to a first embodiment of the invention
- Fig. 2 is a view showing an example of a basic pattern
- Fig. 3 is a view showing an example of a custom pattern obtained from the basic pattern of Fig. 2;
- Fig. 4 is a view showing an example of a predefined environment
- Fig. 5 is a view showing an exemplary sequence of images from an animation film generated from the basic pattern of Fig. 2, the custom pattern of Fig. 3, and a scenario including the predefined environment of Figure 4;
- Fig. 6 is a flowchart illustrating the steps of the method of generating a personalized animation film, according to a second embodiment of the invention.
- Fig. 7 is a block diagram showing a system for generating a personalized animation film, according to an embodiment of the invention.
- Figure 1 shows the steps of a method of generating a personalized animation film, according to a first embodiment of the invention.
- the method is intended to be implemented by computer means, or computer, for example by the computer system 1 of Figure 6.
- the system 1 may include one or more device (s), for example a server, a computer of desk, laptop, smartphone, and / or digital tablet.
- the system 1 comprises several devices, the different devices are configured to communicate with each other, for example via the Internet.
- the method comprises:
- step S1 a photograph is received by system 1, in digital form.
- the photograph is for example received in the form of a matrix of triplets of numbers corresponding to the components Red, Green and Blue of the color of each
- the photograph is for example derived from a point of view,
- the photograph may alternatively be derived from a sequence of images acquired via a camera.
- Photography may also not be photo-realistic, but artificially synthesized.
- the photograph may also have been modified before being received.
- the photograph shows one or more personal pattern (s) MP.
- each personalized pattern MP is personalized from a basic pattern MB forming part of a set of basic patterns previously stored.
- a basic pattern MB is defined by a set of data to characterize it. It may be for example data relating to a predefined rectangular image, characterized by its proportions, its graphic content, and / or its appearance (2D or 3D). It can also be data related to a graphic signature. For example, the graphic content of a basic pattern MB is defined by its proportions and contours.
- the basic pattern is here preferably personalized through modifications made to a non-computer physical medium, for example a coloring sheet.
- Figure 2 shows a basic pattern MB, which represents a man 2 and. his hat 3.
- each personalized pattern MP is the result of a coloring of the associated base pattern MB, and / or a drawing added to the associated base pattern MB, and / or the alteration of an element of the design pattern.
- Figure 3 shows a personalized pattern MP obtained from the base pattern MB of Figure 2.
- the element of the basic pattern MB that can be altered is for example a box (not shown), that the user can decide to check.
- Each custom pattern MP may be surrounded by a frame (not shown) provided on the associated base pattern MB.
- the frame is for example formed by a black rectangle having a thicker outline than the elements of the basic pattern MB.
- the step S1 may further include an operation of receiving one or more identifiers. Each received identifier identifies a base pattern MB associated with a custom pattern MP that may be visible in the photograph.
- the identifier (s) can be transmitted by the user independently of the photograph.
- the photograph may, in addition to the custom pattern (s) MP, show one or more identifiers.
- the identifier (s) may for example be directly encoded in the frame. The reception of the identifier (s) is then carried out by means of an image analysis.
- the number of custom MP patterns visible in the photograph is not necessarily equal to the number of identifiers received. Indeed, the photograph can reveal several personalized patterns MP and the system receive only one identifier (for example because the scenario of the film only provides one). Conversely, several identifiers can be received while only a custom MP pattern is. visible on the photograph (for example because of the framing of the photograph).
- step S2 the custom pattern MP is associated with, a basic pattern MB.
- the association consists in particular of searching, among the basic patterns MB previously stored, which corresponds to the custom pattern MP to be analyzed. In other words, it is to find the identifier of the basic pattern MB associated with the custom pattern MP, whether this identifier has been received or not.
- the basic pattern MB may have to be searched among all stored basic patterns MB.
- the subset used for the search may have only one basic pattern MB.
- step S2 are repeated similarly for each MP pattern.
- Step S2 comprises a detection operation, which is to identify the position of one at least one custom pattern MP in photography.
- Step S2 further comprises a canonical shaping operation.
- the canonical shaping operation is to change from a detected custom pattern MP to a custom pattern MP in its canonical form.
- canonical formatting refers to a process by which data that has multiple possible representations is converted to a standard format. It is used especially when one wants to be able to make logical comparisons, to improve the efficiency of certain algorithms by eliminating superfluous evaluations, or to order elements according to their meaning.
- a detected pattern has a known position in the photograph, whereas it appears with a certain perspective and a certain deformation related to the shooting.
- a canonical pattern is a detected pattern that has been reduced to a predefined projectio.
- a planar pattern in a perspective view is canonically shaped when it is represented in an orthographic view.
- the canonical formatting can be performed by an affine transformation when the pattern is plane.
- Step S2 further comprises a fading operation, which consists in deleting (while keeping in memory) the personalized characteristics (or “wrapping") of the personalized pattern MP, in order to facilitate comparison with the basic patterns MB.
- the fading operation may include converting the received photograph into a binary image (black and white, without intermediate gray). This can be done, for example, by converting the image to grayscale, then maximizing the contrast of the image (for example, by the histogram equalization method), and then converting the image to black. and. whites (thanks to a thresholding).
- Step S2 further comprises an identification operation, which consists in finding the correspondence between the personalized pattern MP and the basic pattern MB, In other words, the identification operation is intended to determine the identifier of the basic pattern MB.
- the identification operation can be performed by correlating the custom patterns MP, and then fine-tuning each "faded” rectangle (for example, by a combination of "ZNCC” methods, Zero Normalized Cross Correlation, and " ECC ", from Evangelidis, GD and Psarakis EZ” Parametric Image Alignment Using Enhanced Correlation Coefficient Maximization ", IEEE Transactions on PAMI, Vol 32, No. 10, 2008), then selection of the pattern closest to the expected pattern.
- Step S2 further comprises an analysis operation, which involves interpreting the differences between the custom pattern MP and the basic pattern MB.
- the analysis operation comprises, for example, the recognition of a coloring applied to the base pattern MB, and / or the recognition and interpretation of a drawing added to the basic pattern MB, and / or the recognition and the interpretation of the alteration of an element of the basic pattern MB.
- This recognition of the coloring may further be accompanied by a modification of the coloring.
- This modification can. for example consist of the transformation, a red coloring sparse red plain.
- Step S2 thus comprises setting. decolorization operation, then detection and identification operations (in parallel with each other). the other), then the canonical shaping operation, and then the analysis operation.
- Step S2 then comprises the implementation of the detection operation, then the canonical shaping operation, then the fading operation, then the identification operation, and then the operation. , analysis.
- the detection operation is preceded by a frame detection operation.
- frame detection is used to identify the position of the frame in the photograph.
- the detection of the frame can be realized using an approximation of polygons, then of a extraction of the quadrilaterals.
- Polygon approximation involves extracting all edges of the binary image (for example, using the method of Suzuki, S. and Abe, K., Topological Structural Analysis of Digitized Binary Images by Border Following. , pp. 32-46 (1985)), then the identification of the polygons with which the shapes defined by the different contours are most similar (for example by means of the Ramer-Douglas -Peucker algorithm).
- the extraction of the quadrilaterals involves the selection, among the identified polygons, of those which are convex and with four sides, then the extraction of the quadrilaterals inscribed in the selected polygons, then the canonical formatting of the "discolored” quadrilaterals to obtain "discolored rectangles" in proportions of the expected pattern (for example by affine transformation or "warping").
- a basic proportion (square, 4: 3 rectangle, etc.) is defined beforehand for all stored basic patterns MB.
- the use of a frame makes it possible to improve the robustness of the identification step, of the basic pattern MB. It is thus possible in particular to correctly identify a basic pattern MB which has been colored with a color similar to the color of its contours (for example black).
- the operations of detection of the frame and / or identification of the basic pattern MB are optional.
- the system 1 can for example be configured to consider in this case that the receipt of the identifier and detection. frame are sufficient to identify the basic pattern MB.
- the system 1 may be configured to verify that there is sufficient correspondence between the custom pattern MP visible on the. photograph and the basic pattern MB whose identifier has been received;
- step S3 an animation film is generated to reflect the custom pattern MP, the associated base pattern MB, and a scenario with a predefined environment.
- a “scenario” is a pre-established sequence of an action, coupled with a set of rules governing how the personalization of a pattern influences, that is, reverberates into, the animated film generated .
- One way to reflect a customization of a pattern in an animated film may be what is called a "texturing"("UVmapping") of a 3D model with texture custom pattern.
- the predefined environment can be a static or dynamic environment. The environment is predefined by the designer or director, which allows him to control the animation scenario.
- the predefined environment includes virtual elements previously stored.
- the virtual elements are made from computer images.
- FIG. 4 shows a predefined environment comprising a house 7 and a floor 8.
- the predefined environment may further include real elements previously stored, which are for example from a video.
- Real elements may include people (models) who have been filmed in advance, and / or a room (parade hall).
- the animation film comprises a sequence of images II, 12, which are generated by merging, according to the preset scenario, the basic pattern MB, the personalization elements that have been applied to it (custom pattern MP), and the predefined environment.
- the images in the image sequence may be different from each other or identical to each other, depending on the scenario of the animated film. Accordingly, depending on the type of image sequence and the predefined environment type, the animation film may be a static or dynamic film.
- the number of images in the sequence is not limiting and also depends on the scenario.
- the animation film generated depends in particular on colors or texture applied to the MB pattern (coloring, painting, gluing, concealment, etc.), and / or a drawing added to the basic pattern MB, and / or the alteration of an element of the basic pattern MB.
- Figure 5 shows a sequence of images from the animation film generated from the base pattern MB of Figure 2, the custom pattern MP of Figure 3, and the static environment. of Figure 4.
- the image sequence here comprises two images II and 12.
- the system 1 may be configured to generate a first sequence of images when a box of the basic pattern MB is checked, and a second sequence of images when the box is not checked.
- the system 1 can be configured to generate a first sequence of images when the trampoline is colored (character making the trampoline), and a second sequence of images when the tobogan is colored (tobogan character).
- the elements of the basic patterns MB likely to be altered thus determine the choice of a scenario of the animated film among a set of pre-established scenarios.
- the image sequence can be related to a circuit for a virtual car race.
- the image sequence may also have depended on a previous iteration of steps S1 to S3.
- a first animation film is then generated from a sequence of images relating to a first set of movements of the colored character, in a first environment, for example an environment virtual representing a landscape.
- the system 1 receives a second personalized pattern MP corresponding to a second basic pattern MB representing a coloring bird.
- a second animation film is then generated from a second sequence of images relating to a second set of movements of the character, combined with a set of movements of the bird, in a second environment, for example an environment. virtual representing a building.
- Figure 6 shows the steps of the method of generating a personalized animation film, according to a second embodiment, of the invention.
- the method comprises:
- step S101 a photograph is received by the system 1, in digital form.
- the photograph shows a custom pattern MP.
- the personalized pattern MP received does not show in the basic color the outlines of a basic pattern MB previously stored.
- the color of the contours of the basic patterns MB is called "base color”.
- Step S101 includes an operation of receiving an identifier.
- the received identifier identifies a base pattern MB to associate with the custom pattern MP visible in the view.
- the identifier must be received by the system 1 independently of the photograph.
- step S102 the custom pattern MP is associated with the base pattern MB whose identifier has been received.
- the basic pattern MB is here identified from the received identifier.
- Step S102 includes an analysis operation, which may be performed using as a photograph the resulting photograph of superimposing a layer of the identified base pattern MB and the initial photograph.
- the position of the MP pattern in the image is predefined, because it is identical to that of the layer.
- This superposition can be done by a manual adjustment, semi-automatic or completely automatic through the use of optical flow measurement algorithms, for example.
- step S103 an animation film is generated.
- Step S104 is similar to step S4 described above.
- Figure 7 shows a system 1 for generating a personalized animation film, according to an embodiment, of the invention.
- the system 1 can be used for carrying out the method described above.
- the system 1 comprises receiving means 4, which are configured to receive a photograph, in digital form.
- the photograph shows a personalized pattern.
- the system 1 further comprises association means 5, which are configured to associate the personalized pattern with a basic pattern.
- the basic pattern is part of a set of basic patterns previously stored.
- the system 1 further comprises means 6 for generating an animation film, which are configured to generate an animation film from the personalized pattern, the associated basic pattern, and a scenario comprising an environment. predefined.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
L'invention concerne un procédé de génération d'un film d'animation personnalisé, le procédé étant mis en œuvre par des moyens informatiques et caractérisé en ce qu'il comprend des étapes consistant à : /1/ recevoir une photographie, sous forme numérique, faisant apparaître au moins un motif personnalisé, /2/ associer le au moins un motif personnalisé avec un motif de base faisant partie d'un ensemble de motifs de base mémorisés au préalable, et /3/ générer un film d'animation à partir du au moins un motif personnalisé, du motif de base associé, et d'un scénario comportant un environnement prédéfini.
Description
GENERATION D'UN FILM D'ANIMATION PERSONNALISE
La présente invention concerne la génération d'un film d'animation personnalisé.
On appelle "film d'animation" un film réalisé à partir d'une séquence d'images. Un film d'animation peut être statique ou dynamique, en fonction de la séquence d'images.
Un inconvénient des films d'animation actuels est qu'ils ne peuvent généralement pas être adaptés en fonction de souhaits ou de préférences de l'utilisateur.
On connaît également des procédés de réalité augmentée, qui permettent de superposer un modèle virtuel à la perception que nous avons naturellement de la réalité, en temps réel. Cependant, ces procédés ne permettent pas à un réalisateur ou concepteur de maîtriser le scénario de la vidéo générée, puisque ce scénario est fonction d'une scène réelle filmée en temps réel par l'utilisateur.
Il existe donc un besoin de procédés et de systèmes permettant de générer un film d'animation personnalisé, tout en étant basé sur un scénario pré-établi, de manière suffisamment simple pour être accessibles à un utilisateur n'ayant pas ou peu de connaissances en informatique. La présente invention vient améliorer la situation.
A cet effet, l'invention propose un procédé de génération d'un, film d'animation personnalisé, le procédé étant mis en œuvre par des moyens informatiques et caractérisé en ce qu'il comprend des étapes consistant à :
/!/ recevoir une photographie, sous forme numérique, faisant apparaître au moins un motif personnalisé,
/2/ associer le au moins un motif personnalisé avec un motif de base faisant partie d'un ensemble de motifs de base mémorisés au préalable,, et
/3/ générer un film d'animation à partir du au moins un motif personnalisé, du motif de base associé, et d'un scénario comportant un environnement prédéfini.
Selon des modes de réalisation de l'invention, le au moins un motif personnalisé est réalisé à partir d'un motif de base de l'ensemble de motifs de base.
L'environnement prédéfini peut comporter des éléments virtuels mémorisés au préalable.
L'étape /2/ peut comprendre une opération consistant à :
/2.1/ identifier le motif de base associé au motif personnalisé .
Le procédé de génération d'un film d'animation personnalisé peut en outre comporter une étape consistant à recevoir au moins un identifiant d'au moins un motif de base, à associer à au moins un motif personnalisé visible (s) dans la vue. L'opération. /2.1/ est alors réalisée à partir d'un, sous -ensemble de l'ensemble de motifs de base, le sous- ensemble étant déterminé en utilisant le au moins un identifiant reçu.
Selon des modes de réalisation. de l'invention, la photographie fait apparaître le au moins un identifiant.
L'opération /2.1/ peut comprendre une sous -opération, consistant à détecter un cadre entourant le motif personnalisé. Le motif de base est alors identifié à psirtir de la position du cadre.
Le film d'animation généré peut en outre être fonction, d'une photographie précédente utilisée pour une itération, précédente des étapes /!/ à ,/3/.
L'invention propose également un programme informatique comportant des instructions pour la mise en œuvre du procédé ci-dessus lorsque ce programme est exécuté par un processeur ,
L'invention propose également un système de génération d'un, film d'animation personnalisé, comprenant :
- des moyens de réception, configurés pour recevoir une photographie, sous forme numérique, faisant apparaître au moins un motif personnalisé,
des moyens d'association, configurés pour associer le au moins un motif personnalisé avec un motif de base faisant partie d'un ensemble de motifs de base mémorisés au préalable, et
des moyens de génération d'un. film d'animation, configurés pour générer un film d'animation à partir du au moins un motif personnalisé, du motif de base associé, et d'un, scénario comportant un environnement prédéfini.
D'autres caractéristiques et avantages de l'invention apparaîtront encore à la lecture de la description qui va suivre. Celle-ci est purement illustrative et doit être lue en regard des dessins annexés sur lesquels :
- La Figure 1 est un organigramme illustrant les étapes d'un procédé de génération d'un film d'animation personnalisé, selon un premier mode de réalisation de 1 ' invention ;
- La Figure 2 est une vue représentant un exemple de motif de base ;
La Figure 3 est une vue représentant un exemple de motif personnalisé obtenu à partir du motif de base de la Figure 2 ;
La Figure 4 est une vue représentant un exemple d'environnement prédéfini ;
La Figure 5 est une vue représentant un exemple de séquence d'images issues d'un film d'animation généré à partir du motif de base de la Figure 2, du motif personnalisé de la Figure 3, et d'un scénario comportant l'environnement prédéfini de la Figure 4 ; La Figure 6 est un organigramme illustrant les étapes du procédé de génération d'un film d'animation personnalisé, selon un deuxième mode de réalisation de l'invention ; et
la Figure 7 est un schéma fonctionnel montrant un système de génération d'un film d'animation personnalisé, selon un mode de réalisation de 1 ' invention .
La Figure 1 représente les étapes d'un procédé de génération d'un film d' animation personnalisé, selon, un premier mode de réalisation de l'invention.
Le procédé est destiné à être mis en œuvre par des moyens informatiques, ou ordinateur, par exemple par le système informatique 1 de la Figure 6. Le système 1 peut comprendre un ou plusieurs dispositif (s) , par exemple un serveur, un ordinateur de bureau, un ordinateur portable, un smartphone, et/ou une tablette numérique. Lorsque le système 1 comporte plusieurs dispositifs, les différents dispositifs sont configurés pour pouvoir communiquer entre eux, par exemple par le biais du réseau Internet.
Le procédé comprend :
- une étape SI de réception d'une photographie,
- une étape S2 d'association d'un, motif personnalisé MP avec un motif de base MB, et
- une étape S3 de génération d'un film d'animation.
A l'étape SI, une photographie est reçue par le système 1, sous forme numérique .
La photographie est par exemple reçue sous la forme d'une matrice de triplets de nombres correspondant aux composantes Rouge, Vert et Bleu de la couleur de chaque
La photographie est par exemple issue d'une prise de vue ponctuelle, La photographie peut en variante être issue d'une séquence d'images acquises via une caméra. La photographie peut également n'être pas photo-réaliste, mais synthétisée artificiellement. La photographie peut également avoir été modifiée avant d'être reçue.
La photographie fait apparaître un ou plusieurs motif (s) personna1 isé { s ) MP .
Selon le premier mode de réalisation de l'invention, chaque motif personnalisé MP est personnalisé à partir d'un motif de base MB faisant partie d'un ensemble de motifs de base mémorisés au préalable.
Un motif de base MB est défini par un ensemble de données permettant de le caractériser. Il peut s'agir par exemple de données relatives à une image rectangulaire prédéfinie, caractérisée par ses proportions, son contenu graphique, et/ou son aspect (2D ou 3D) . Il peut, également s'agir de données relatives à une signature graphique.
Le contenu graphique d'un motif de base MB est par exemple défini par ses proportions, et ses contours.
On appelle "contours" l'ensemble des lignes ou surfaces qui définissent le graphisme d'un motif.
Le motif de base est ici de préférence personnalisé par le biais de modifications apportées à un support physique non informatique, psir exemple une feuille de coloriage.
A titre d'exemple, la Figure 2 montre un motif de base MB, qui représente un bonhomme 2 et. son chapeau 3.
Chaque motif personnalisé MP est par exemple le résultat d'un coloriage du motif de base MB associé, et/ou d'un dessin ajouté au motif de base MB associé, et/ou de l'altération d'un, élément du motif de base MB associé.
A titre d'exemple, la Figure 3 montre un motif personnalisé MP obtenu à partir du motif de base MB de la Figure 2.
Dans le cas d'un dessin ajouté au motif de base MB, celui- ci doit pouvoir être interprété aux étapes suivantes du procédé. La création du dessin est donc dans ce cas guidée, par exemple par une instruction donnée à l'utilisateur, du type "dessine une étoile".
L'élément du motif de base MB qui peut être altéré est par exemple une case (non représentée) , que l'utilisateur peut décider de cocher.
Chaque motif personnalisé MP peut être entouré par un cadre (non représenté) prévu sur le motif de base MB associé. Le cadre est par exemple formé par un rectangle noir présentant un contour plus épais que les éléments du motif de base MB.
L'étape SI peut comprendre, en outre, une opération consistant à recevoir un ou plusieurs identifiant (s) . Chaque identifiant reçu identifie un motif de base MB associé à un motif personnalisé MP susceptible d'être visible dans la photographie.
Le ou les identifiantes) peuvent être transmis par l'utilisateur indépendamment de la photographie.
En variante, la photographie peut, faire apparaître, outre le ou les motif (s) personnalisé (s) MP, un ou plusieurs identifian (s) . Le ou les identifiant (s) peuvent par exemple être directement encodës dans le cadre. La réception du ou des identifiant (s) est alors réalisée par le biais d'une analyse d'image.
Il est important de noter que le nombre de motifs personnalisés MP visibles dans la photographie n'est pas nécessairement égal au nombre d'identifiants reçus. En effet, la photographie peut faire apparaître plusieurs motifs personnalisés MP et le système ne recevoir qu'un identifiant (par exemple parce que le scénario du film n'en, prévoit qu'un). Inversement, plusieurs identifiants peuvent être reçus alors que seul un motif personnalisé MP est. visible sur la photographie (par exemple du fait du cadrage de la photographie) .
A l'étape S2, le motif personnalisé MP est associé avec, un motif de base MB.
L'association consiste notamment à rechercher, parmi les motifs de base MB mémorisés au préalable, lequel correspond au motif personnalisé MP à analyser. En d'autres termes, il s'agit de retrouver l'identifiant du motif de base MB
associé au motif personnalisé MP, que cet identifiant ait été reçu ou non.
Lorsqu ' aucun identifiant n'est reçu par le système 1, le motif de base MB peut avoir à être recherché parmi tous les motifs de base MB mémorisés.
Lorsque plusieurs identifiants ont été reçus,, par exemple parce qu'un scénario prédéfini du film d'animation implique que plusieurs motifs personnalisés MP soient visibles dans la photographie,, il est possible de ne rechercher le motif de base MB que parmi un sous -ensemble des motifs de base MB mémorisés. Le sous -ensemble correspond aux motifs de base MB associés aux identifiants reçus.
Lorsqu'un unique identifiant a été reçu, le sous -ensemble utilisé pour la recherche peut ne comporter qu'un unique motif de base MB.
Si la photographie fait apparaître plusieurs motifs MP, les opérations de l'étape S2 sont répétées de manière similaire pour chaque motif MP.
L'étape S2 comprend une opération de détection, qui consiste à repérer la position d 1 au moins un motif personnalisé MP dans la photographie.
L'étape S2 comprend en outre une opération de mise en forme canonique. L'opération de mise en forme canonique consiste à passer d'un motif personnalisé MP détecté à un motif personnalisé MP sous sa forme canonique.
De manière générale, la mise en forme canonique désigne un procédé par lequel on convertit des données qui ont plusieurs représentations possibles vers un format standard. On l'utilise en particulier lorsque l'on veut pouvoir faire des comparaisons logiques, pour améliorer
l'efficacité de certains algorithmes en éliminant les évaluations superflues, ou pour permettre d'ordonner des éléments en fonction de leur sens.
Un motif détecté présente une position connue dans la photographie, alors qu'il y apparaît avec une certaine perspective et une certaine déformation liées à la prise de vue .
Un motif mis en forme canonique est un motif détecté qui a été ramené à une projectio prédéfinie. Par exemple, un motif plan, dans une vue en perspective, est mis en forme canonique lorsqu'il est représenté dans une vue orthographique .
La mise en forme canonique peut être réalisée par une transformation affine lorsque le motif est plan.
L'étape S2 comprend en outre une opération de décoloration, qui consiste à supprimer (tout en les gardant en mémoire) les caractéristiques personnalisées (ou "habillage") du motif personnalisé MP, afin d'en faciliter la comparaison avec les motifs de base MB.
Lorsque la couleur des contours du motif de base MB est noire, l'opération de décoloration peut comprendre une conversion de la photographie reçue en une image binaire (noir et blanc, sans gris intermédiaires) . Cela peut par exemple être réalisé par une conversion de l'image en niveaux de gris, puis une maximisation du contraste de l'image (par exemple par la méthode d'égalisation d'histogramme), puis par conversion de l'image en noir et. blancs (grâce à un seuillage) .
L'étape S2 comprend en outre une opération d'identification, qui consiste à trouver la correspondance
entre le motif personnalisé MP et le motif de base MB, En d'autres termes, l'opération d'identification a pour but de déterminer l'identifiant du motif de base MB.
L'opération d'identification peut être réalisée par corrélation des motifs personnalisés MP, puis mise en forme canonique plus fine de chaque rectangle "décoloré" (par exemple, grâce à une combinaison des méhodes "ZNCC" , Zéro Normalized Cross Corrélation, et "ECC" , de Evangelidis, G.D. and Psarakis E.Z. "Parametric Image Alignment using Enhanced Corrélation Coefficient Maximization" , IEEE Transactions on PAMI, vol. 32, no. 10, 2008), puis sélection du motif le plus proche du motif attendu.
L'étape S2 comprend en outre une opération d'analyse, qui consiste à interpréter les différences entre le motif personnalisé MP et le motif de base MB.
L'opération d'analyse comprend par exemple la reconnaissance d'un coloriage appliqué sur le motif de base MB, et/ou la reconnaissance et l'interprétation d'un dessin ajouté au motif de base MB, et/ou la reconnaissance et l'interprétation de l'altération d'un élément du motif de base MB.
Cette reconnaissance du coloriage peut en outre s'accompagner d'une modification du coloriage. Cette modification peut. par exemple consister en la transformation, d'un coloriage rouge éparse en rouge uni.
Lorsque le motif personnalisé MP n'est pas entouré par un cadre, l'opération de décoloration doit être mise en oeuvre en premier. L'étape S2 comprend ainsi la mise en. oeuvre de l'opération de décoloration, puis des opérations de détection et d'identification {en parrallèle l'une de
l'autre), puis de l'opération de mise en forme canonique, puis de l'opération d'analyse.
Lorsque le motif personnalisé MP est plan et entouré par un cadre, l'opération de décoloration peut être réalisée plus tard. L'étape S2 comprend alors la mise en oeuvre de l'opération de détection, puis de l'opération de mise en forme canonique, puis de l'opération de décoloration, puis de l'opération d'identification, puis de l'opération, d' analyse .
L'opération de détection, est dans ce cas précédée par une opération de détection du cadre.
On appelle "détection du cadre" un repérage de la position du cadre dans la photographie.
La détection du cadre peut être réalisée à l'aide d'une approximation de polygones, puis d'une extraction des quadrilatères .
L'approximation de polygones comporte l'extraction de tous les contours de 1 ' image binaire (par exemple grâce à la méthode de Suzuki, S. and Abe, K. , Topological Structural Analysis of Digitized Binary Images by Border Following. CVGIP 30 1, pp 32-46 (1985)), puis l'identification des polygones auxquels s'apparentent le plus les formes définies par les différents contours (par exemple grâce à l'algorithme de Ramer-Douglas -Peucker) .
L'extraction des quadrilatères comporte la sélection, parmi les polygones identifiés, de ceux qui sont convexes et à quatre côtés, puis l'extraction des quadrilatères inscrits dans les polygones sélectionnés, puis la mise en forme canonique des quadrilatères "décolorés" pour obtenir des
"rectangles décolorés" aux proportions du motif attendu (par exemple par transformation affine ou "warping" ) .
Lorsqu'un identifiant a été reçu, les proportions sont connues .
Sinon, une proportion de base (carré, rectangle 4:3, etc) est définie au préalable pour tous les motifs de base mémorisés MB.
L'utilisation d'un cadre permet d'améliorer la robustesse de l'étape d'identification, du motif de base MB. Il est ainsi notamment possible d'identifier correctement un motif de base MB qui a été colorié avec, une couleur similaire à la couleur de ses contours (par exemple noir) .
Lorsqu'un unique identifiant a été reçu, les opérations de détection du cadre et/ou d'identification du motif de base MB sont, optionnelles. Le système 1 peut par exemple être configuré pour considérer dans ce cas que la réception de l'identifiant et la détection. du cadre suffisent à identifier le motif de base MB. En variante, le système 1 peut être configuré pour vérifier qu'il y a une correspondance suffisante entre le motif personnalisé MP visible sur la. photographie et le motif de base MB dont l'identifiant a été reç;u.
A l'étape S3 , un film d'animation est généré à psirtir du motif personnalisé MP, du motif de base MB associé, et d'un scénario comportant un environnement prédéfini.
On appelle "scénario" un déroulement pré-établi d'une action, couplé à un ensemble de règles régissant la façon dont la personnalisation d'un motif influence, c'est-à-dire se répercute dans, le film d'animation généré.
Une façon de répercuter une personnalisation d'un motif dans un film d'animation peut consister en ce qui s'appelle une texturation ( "UV mapping" ) d'un modèle 3D avec pour texture le motif personnalisé. L'environnement prédéfini peut être un environnement statique ou dynamique. L'environnement est prédéfini par le concepteur ou réalisateur, ce qui lui permet de contrôler le scénario du fi 1m d ' animatio .
L'environnement prédéfini comporte des éléments virtuels mémorisés au préalable. Les éléments virtuels sont réalisés à partir d'images de synthèse.
A titre d'exemple, la Figure 4 montre un environnement prédéfini comportant une maison 7 et un sol 8.
L'environnement prédéfini peut en outre comporter des éléments réels mémorisés au préalable, qui sont par exemple issus d'une vidéo. Les éléments réels peuvent comprendre des personnes (mannequins) qui ont été filmées au préalable, et/ou une salle (salle de défilé) .
Le film d'animation comprend une séquence d'images II, 12, qui sont générées en fusionnant, selon le scénario préétabli, le motif de base MB, les éléments de personnalisation qui lui ont été appliqués (motif personnalisé MP) , et l'environnement prédéfini.
Les images de la séquence d'images peuvent être différentes les unes des autres ou identiques les unes aux autres, en fonction du scénario du film d'animation. En conséquence, en fonction du type de séquence d'images et du type d'environnement prédéfini, le film d'animation, peut être un film statique ou dynamique.
Le nombre d'images de la séquence n'est pas limitatif et dépend également du scénario.
Le film d'animation généré dépend notamment de couleurs ou texture appliquées sur le motif de hase MB (coloriage, peinture, collage, occultation, etc.), et/ou d'un dessin ajouté au motif de base MB, et/ou de l'altération d'un élément du motif de base MB.
A titre d'exemple, la Figure 5 représente une séquence d'images issue du film d'animation généré à partir du motif de base MB de la Figure 2, du motif personnalisé MP de la- Figure 3, et de l'environnement statique de la Figure 4. La séquence d'images comprend ici deux images II et 12.
Par exemple, le système 1 peut être configuré pour générer une première séquence d'images lorsqu'une case du motif de base MB est cochée, et une seconde séquence d'images lorsque la case n'est pas cochée.
Selon un autre exemple dans lequel le motif de base MB comporte un trampoline et un tobogan, le système 1 peut être configuré pour générer une première séquence d'images lorsque le trampoline est colorié (personnage faisant du trampoline), et une deuxième séquence d'images lorsque le tobogan est colorié (personnage faisant du tobogan) .
Les éléments des motifs de base MB susceptibles d'être altérés conditionnent ainsi le choix d'un scénario du film d'animation parmi un ensemble de scénarios pré-établis.
Selon un autre exemple, lorsque le motif personnalisé MP comprend un dessin représentant une forme fermée, ajouté au motif de base MB, la séquence d'images peut être relative à un circuit pour une course automobile virtuelle.
La séquence d'images peut eu outre dépendre d'une itération précédente des étapes SI à S3.
On considère par exemple la réception d'un premier motif personnalisé MP correspondant à un premier motif de base MB représentant un personnage à colorier. Lors d'une première itération de l'étape S3 , un premier film d'animation est alors généré à partir d'une séquence d'images relatives à un premier ensemble de mouvements du personnage colorié, dans un premier environnement, par exemple un environnement virtuel représentant un paysage.
Puis, le système 1 reçoit un deuxième motif personnalisé MP correspondant à un deuxième motif de base MB représentant un oiseau à colorier. Lors d'une deuxième itération de l'étape S3 , un deuxième film d'animation est alors généré à partir d'une deuxième séquence d'images relatives à un deuxième ensemble de mouvements du personnage, combiné à un ensemble de déplacements de l'oiseau, dans un deuxième environnement, par exemple un environnement. virtuel représentant un immeuble.
La Figure 6 représente les étapes du procédé de génération d'un, film d'animation personnalisé, selon un deuxième mode de réalisation, de l'invention.
Le procédé comprend :
- une étape S101 de réception d'une photographie,
■■ une étape S102 d'association d'u motif personnalisé avec un motif de base,
- une étape S103 de génération d'un film d'animation.
A l'étape S101, une photographie est reçue par le système 1, sous forme numérique.
La photographie fait apparaître un motif personnalisé MP.
Selon le deuxième mode de réalisation de l'invention, le motif personnalisé MP reçu ne fait pas apparaître dans la couleur de base les contours d'un motif de base MB mémorisé au préalable. On appelle "couleur de base" la couleur des contours des motifs de base MB.
L'étape S101 comprend une opération consistant à recevoir un identifiant. L'identifiant reçu identifie un motif de base MB à associer au motif personnalisé MP visible dans la vue .
L'identifiant doit ici être reçu par le système 1 indépendamment de la photographie.
A l'étape S102, le motif personnalisé MP est associé avec le motif de base MB dont l'identifiant a été reçu.
Le motif de base MB est ici identifié à partir de 1 ' identif iant reçu .
L'étape S102 comprend une opération d'analyse, qui peut être réalisée en utilisant comme photographie la photographie résultant de la superposition d'un calque du motif de base MB identifié et de la photographie initiale. Dans ce cas, la position du motif MP dans l'image est prédéfinie, car identique à celle du calque. Cette superposition peut se faire par un ajustement manuel, semi- automatique ou complètement automatique grâce à l'utilisation d'algorithmes de mesure de flot optique, par exemple .
A l'étape S103, un film d'animation est généré. L'étape S104 est similaire à l'étape S4 décrite précédemment.
La Figure 7 représente un système 1 de génération d'un film d'animation personnalisé, selon un mode de réalisation, de 1 ' inven ion .
Le système 1 peut être utilisé pour la mise en oeuvre du procédé décrit ci-dessus.
Le système 1 comporte des moyens de réception 4, qui sont configurés pour recevoir une photographie, sous forme numérique. La photographie fait apparaître un motif personna1 isé .
Le système 1 comporte en outre des moyens d'association 5, qui sont configurés pour associer le motif personnalisé avec un motif de base. Le motif de base fait partie d'un ensemble de motifs de base mémorisés au préalable.
Le système 1 comporte en outre des moyens de génération 6 d'un, film d'animation, qui sont configurés pour générer un film d'animation à partir du motif personnalisé, du motif de base associé, et d'un scénario comportant un environnement prédéfini .
Bien entendu, la présente invention ne se limite pas aux formes de réalisation décrites ci-avant à titre d'exemples ; elle s'étend à d'autres variantes.
Claims
REVENDICATIONS
Procédé de génération d'u film d'animation personnalisé, le procédé étant mis en œuvre par des moyens informatiques et caractérisé en ce qu'il comprend des étapes consistant à :
/!/ recevoir une photographie, sous forme numérique, faisant apparaître au moins un motif personnalisé,
/2/ associer le au moins un motif personnalisé avec un motif de base faisant partie d'un ensemble de motifs de base mémorisés au préalable, et
/3/ générer un film d'animation à partir du au moins un motif personnalisé, du motif de base associé, et d'un scénario comportant un environnement prédéfini,
Procédé de génération d'un film d'animation personnalisé selon la revendication 1, dans lequel le au moins un motif personnalisé est réalisé à partir d'un motif de base de l'ensemble de motifs de base.
Procédé de génération d'un film d'animation personnalisé selon la revendication 1 ou 2, dans lequel l'environnement prédéfini comporte des éléments virtuels mémorisés au préalable.
Procédé de génération d'un film d'animation personnalisé selon l'une quelconque des revendications 1 à 3, dans lequel l'étape /'2/ comprend une opération consistant à :
/2.1/ identifier le motif de base associé au motif personnalisé .
Procédé de génération d'un film d'animation personnalisé selon la revendicatio 4, comportant une étape consistant à recevoir au moins un identifiant d'au moins un motif de base, à associer à au moins un motif personnalisé visible (s) dans la vue,
l'opération /2.1/ étant réalisée à partir d'un sous- ensemble de l'ensemble de motifs de base, le sous- ensemble étant déterminé en utilisant le au moins un identifiant reçu.
Procédé de génération d'un film d'animation personnalisé selon la revendication 5, dans lequel la photographie fait, apparaître le au moins un identifiant.
Procédé de génération d'un film d'animation personnalisé selon la revendication 6, dans lequel l'opération /2.1/ comprend une sous-opération consistant à détecter un cadre entourant le motif personnalisé, le motif de base étant identifié à partir de la position du cadre.
Procédé de génération d'un film d'animation personnalisé selon l'une quelconque des revendications 1 à 7, dans lequel le film d'animation généré est fonction d'une
photographie précédente utilisée pou
précédente des étapes /'!/ à /3/.
Programme informatique comportant des instructions pour la mise e œuvre du procédé selon l'une des revendications 1 à 8 lorsque ce programme est exécuté par un processeur.
Système de génération d'un film d'animation personnalisé, comprenant :
- des moyens de réception, configurés pour recevoir une photographie, sous forme numérique, faisant apparaître au moins un motif personnalisé,
■■ des moyens d'association, configurés pour associer le au moins un motif personnalisé avec un motif de base faisant partie d'un ensemble de motifs de base mémorisés au préalable, et
- des moyens de génération d'un film d'animation, configurés pour générer un film d'animation à partir du au moins un motif personnalisé, du motif de base stssocié, et d'un scénario comportant un environnement
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/514,685 US20170228915A1 (en) | 2014-09-25 | 2015-09-24 | Generation Of A Personalised Animated Film |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1459055 | 2014-09-25 | ||
| FR1459055A FR3026534B1 (fr) | 2014-09-25 | 2014-09-25 | Generation d'un film d'animation personnalise |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2016046502A1 true WO2016046502A1 (fr) | 2016-03-31 |
Family
ID=52824288
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/FR2015/052556 Ceased WO2016046502A1 (fr) | 2014-09-25 | 2015-09-24 | Generation d'un film d'animation personnalise |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20170228915A1 (fr) |
| FR (1) | FR3026534B1 (fr) |
| WO (1) | WO2016046502A1 (fr) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017184033A3 (fr) * | 2016-04-23 | 2018-03-01 | Девар Энтертеймент Лимитед | Procédé pour agir sur des objets virtuels de la réalité augmentée |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2946439A1 (fr) * | 2009-06-08 | 2010-12-10 | Total Immersion | Procedes et dispositifs d'identification d'objets reels, de suivi de la representation de ces objets et de realite augmentee, dans une sequence d'images, en mode client-serveur |
| WO2011047360A1 (fr) * | 2009-10-15 | 2011-04-21 | Ogmento, Inc. | Systèmes et procédés pour suivre des formes planes naturelles pour des applications à réalité renforcée |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8077179B2 (en) * | 2005-07-11 | 2011-12-13 | Pandoodle Corp. | System and method for creating animated video with personalized elements |
| US8467601B2 (en) * | 2010-09-15 | 2013-06-18 | Kyran Daisy | Systems, methods, and media for creating multiple layers from an image |
-
2014
- 2014-09-25 FR FR1459055A patent/FR3026534B1/fr active Active
-
2015
- 2015-09-24 US US15/514,685 patent/US20170228915A1/en not_active Abandoned
- 2015-09-24 WO PCT/FR2015/052556 patent/WO2016046502A1/fr not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2946439A1 (fr) * | 2009-06-08 | 2010-12-10 | Total Immersion | Procedes et dispositifs d'identification d'objets reels, de suivi de la representation de ces objets et de realite augmentee, dans une sequence d'images, en mode client-serveur |
| WO2011047360A1 (fr) * | 2009-10-15 | 2011-04-21 | Ogmento, Inc. | Systèmes et procédés pour suivre des formes planes naturelles pour des applications à réalité renforcée |
Non-Patent Citations (8)
| Title |
|---|
| ADRIAN CLARK ET AL: "An interactive augmented reality coloring book", 2012 IEEE SYMPOSIUM ON 3D USER INTERFACES (3DUI), IEEE, 4 March 2012 (2012-03-04), pages 7 - 10, XP032169243, ISBN: 978-1-4673-1204-2, DOI: 10.1109/3DUI.2012.6184168 * |
| CONNELLY BARNES ET AL: "Video puppetry: A Performative Interface for Cutout Animation", ACM SIGGRAPH ASIA 2008 PAPERS ON, SIGGRAPH ASIA '08, 11 August 2008 (2008-08-11), New York, New York, USA, pages 1, XP055210883, ISBN: 978-1-45-031831-0, DOI: 10.1145/1457515.1409077 * |
| MAKOTO NAKAJIMA ET AL: "Offline painted media for digital animation authoring", HUMAN FACTORS IN COMPUTING SYSTEMS, ACM, 2 PENN PLAZA, SUITE 701 NEW YORK NY 10121-0701 USA, 26 April 2014 (2014-04-26), pages 321 - 330, XP058046596, ISBN: 978-1-4503-2473-1, DOI: 10.1145/2556288.2557062 * |
| NATE HAGBI ET AL: "Shape recognition and pose estimation for mobile augmented reality", MIXED AND AUGMENTED REALITY, 2009. ISMAR 2009. 8TH IEEE INTERNATIONAL SYMPOSIUM ON, IEEE, PISCATAWAY, NJ, USA, 19 October 2009 (2009-10-19), pages 65 - 71, XP031568945, ISBN: 978-1-4244-5390-0 * |
| PSARAKIS E.Z.: "Parametric Image Alignment using Enhanced Correlation Coefficient Maximization", IEEE TRANSACTIONS ON PAMI, vol. 32, no. 10, 2008 |
| QUIVER AUGMENTED REALITY: "Quiver Augmented Reality - Trailer", 29 May 2013 (2013-05-29), XP054976043, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=tmfXgvT9h3s> [retrieved on 20150903] * |
| SUZUKI, S.; ABE, K.: "Topological Structural Analysis of Digitized Binary Images by Border Following", CVGIP, vol. 30, no. 1, 1985, pages 32 - 46 |
| WAGNER D ET AL: "Robust and unobtrusive marker tracking on mobile phones", MIXED AND AUGMENTED REALITY, 2008. ISMAR 2008. 7TH IEEE/ACM INTERNATIONAL SYMPOSIUM ON, IEEE, PISCATAWAY, NJ, USA, 15 September 2008 (2008-09-15), pages 121 - 124, XP031343986, ISBN: 978-1-4244-2840-3 * |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017184033A3 (fr) * | 2016-04-23 | 2018-03-01 | Девар Энтертеймент Лимитед | Procédé pour agir sur des objets virtuels de la réalité augmentée |
| CN109155079A (zh) * | 2016-04-23 | 2019-01-04 | 杜瓦娱乐有限公司 | 用于影响增强现实的虚拟对象的方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| FR3026534B1 (fr) | 2019-06-21 |
| FR3026534A1 (fr) | 2016-04-01 |
| US20170228915A1 (en) | 2017-08-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Bonneel et al. | Intrinsic decompositions for image editing | |
| EP2678804B1 (fr) | Procédé de détection d'un ensemble prédéfini de points caractéristiques d'un visage | |
| Shu et al. | Portrait lighting transfer using a mass transport approach | |
| Shih et al. | Style transfer for headshot portraits | |
| Cheng et al. | Robust algorithm for exemplar-based image inpainting | |
| EP2828834B1 (fr) | Modèle et procédé de production de modèles 3d photo-réalistes | |
| EP2455916B1 (fr) | Interface homme-machine basée sur le suivi non-rigide | |
| US12260514B2 (en) | Method and apparatus for image processing | |
| FR2933218A1 (fr) | Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee | |
| EP1730692A1 (fr) | Procede d'extraction de donnees brutes d'une image resultant d'une prise de vue | |
| WO2011124830A1 (fr) | Une methode de detourage en temps reel d'une entite reelle enregistree dans une sequence video | |
| EP3659070A1 (fr) | Procédé pour l'authentification d'une illustration. | |
| WO2021063119A1 (fr) | Procédé et appareil de traitement d'image, terminal | |
| EP2751739B1 (fr) | Detection de fraude pour systeme de controle d'acces de type biometrique | |
| WO2017077217A1 (fr) | Calibration 3d d'un systeme de mapping video | |
| CA3018041A1 (fr) | Procede d'authentification et/ou de controle d'integrite d'un sujet | |
| CN105787995A (zh) | 一种平面图形图像处理方法 | |
| CA3000153A1 (fr) | Procede d'analyse d'un document structure susceptible d'etre deforme | |
| CA2978138A1 (fr) | Procede de reconnaissance de caracteres en reliefs, produit programme d'ordinateur et dispositif correspondants | |
| Johnson et al. | Inferring illumination direction estimated from disparate sources in paintings: An investigation into Jan Vermeer's Girl with a pearl earring | |
| CN108876895A (zh) | 从2d资产构建3d模型 | |
| FR3026534B1 (fr) | Generation d'un film d'animation personnalise | |
| CN105447846A (zh) | 一种图像处理方法及电子设备 | |
| EP2791778A1 (fr) | Procédé de traitement de séquence vidéo sur les terminaux mobiles en temps réel | |
| EP3507741A1 (fr) | Procede et systeme de generation de la signature d'une surface |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15778993 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 15778993 Country of ref document: EP Kind code of ref document: A1 |