[go: up one dir, main page]

EP2515546A1 - Procédé et dispositif de création d'images stéréoscopiques - Google Patents

Procédé et dispositif de création d'images stéréoscopiques Download PDF

Info

Publication number
EP2515546A1
EP2515546A1 EP12163008A EP12163008A EP2515546A1 EP 2515546 A1 EP2515546 A1 EP 2515546A1 EP 12163008 A EP12163008 A EP 12163008A EP 12163008 A EP12163008 A EP 12163008A EP 2515546 A1 EP2515546 A1 EP 2515546A1
Authority
EP
European Patent Office
Prior art keywords
dimensional
component
images
stereoscopic images
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP12163008A
Other languages
German (de)
English (en)
Inventor
Cédric Chedaleux
Guillaume Roul
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Publication of EP2515546A1 publication Critical patent/EP2515546A1/fr
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Definitions

  • the invention relates to the creation of stereoscopic images, in particular stereoscopic images of Human-Machine Interfaces (HMI), intended to be displayed on a three-dimensional (3D) screen.
  • HMI Human-Machine Interfaces
  • the invention applies to any terminal comprising a module adapted to receive as input the description of a two-dimensional human-machine interface image and to output two stereoscopic images of the same human-machine interface.
  • a terminal is for example a computer, a television set, a digital decoder or a mobile phone.
  • human-machine interface is meant a set of graphic components displayed in one or more virtual windows on a screen.
  • the two stereoscopic images of the human-machine interface are intended to be rendered in relief on a three-dimensional screen.
  • Three-dimensional displays including three-dimensional computer and TV stereoscopic displays, are commonly used for viewing relief data.
  • Three-dimensional screens usually have the ability to display images in two-dimensional or three-dimensional mode. In two-dimensional mode, a single image is displayed by the screen that renders it without relief. In three-dimensional mode, two images are displayed by the screen, which then renders them in relief. The two images, called stereoscopic, are shifted relative to each other, one being intended for the left eye and the other for the right eye of a user of the screen.
  • This offset also called parallax, corresponds to the difference in horizontal distance between the two eyes of the human user. According to the value of this parallax, the brain of the user imagines a point of convergence situated in front of or behind the plane of the screen, thus associating an impression of depth with the observed object.
  • multi-view systems also referred to as multi-view systems
  • Several images are then transmitted to a screen that allows viewing in relief from several angles of different views.
  • the user uses, according to his position relative to the screen, two of the images available to construct a stereoscopic vision of the image.
  • Several input formats are possible for such a screen, the two stereoscopic images being for example arranged side by side , or one above the other (in English: Top / Bottom). ), or alternatively in time according to the Bluray 3D ( Blu-ray Disc Association standard based on the MPEG-4 / MVC multi-view video coding standard - Multiview Coding ), to form a global stereoscopic image that can be displayed by a stereoscopic screen accepting at least one of these formats.
  • Bluray 3D Blu-ray Disc Association standard based on the MPEG-4 / MVC multi-view video coding standard - Multiview Coding
  • the three-dimensional screen having a flat surface there are several technologies for rendering the relief: so-called auto-stereoscopic screens ensure the automatic separation of the two images; alternatively, the user must bring polarized glasses or any other known device capable of separating the images intended for his left and right eyes.
  • GUI images usually called Human Machine Interfaces (HMIs)
  • HMIs Human Machine Interfaces
  • Such man-machine interfaces can be of several types. For example they may be of native type, that is to say consisting of a program that describes a single window or display page, in the form of a sequence of software instructions. They can still be web-type, that is to say consisting of web pages delivered via an Internet-type network and accessible to the user via a web browser. In both cases, the interfaces are based on a set of graphic software libraries (in English: "graphical toolkit”) which allow to draw the basic graphic components, for example windows, buttons, lists, etc. Graphics libraries can communicate directly with the device hardware, such as video memory, video card and graphics processor (GPU), or use an application programming interface (API) driver that communicates with that hardware.
  • GUI application programming interface
  • a simple solution consists in creating a second human-machine interface image from the first two-dimensional human-machine interface image: the initial two-dimensional image of the human-machine interface is created from its description, then it is duplicated in a second image of the human-machine interface which is itself modified to give effects of relief and depth to the graphic components of the human interface -machine.
  • Each graphic component of the second human-machine interface image thus created is shifted by a certain value, which is its own, to model the vision of this element by an eye (for example the right) while the initial image model the vision of the other eye (eg the left).
  • the two images of the human-machine interface are then combined to obtain the expected stereoscopic effect.
  • This solution requires a considerable development time since it involves designing two graphical interfaces by shifting each of the graphic components, one by one, and verifying the three-dimensional rendering obtained.
  • the inventors have found that the preceding solution generates stereoscopic images of poor quality since one of the images is none other than the initial two-dimensional image, which was not designed for the purpose of being part of a stereoscopic couple.
  • the invention offers a solution that does not have the drawbacks of the state of the art.
  • the subject of the invention is a method for creating stereoscopic images from a description of a two-dimensional image comprising at least one graphic interface component, characterized in that at least a component of the two-dimensional image is transformed so that the created stereoscopic images are different from said two-dimensional image.
  • the method of the invention offers the advantage of creating a real pair of stereoscopic images for display on a raised screen, ensuring a better three-dimensional rendering of the graphic component than if one of the output images was identical to the two-dimensional input image.
  • This mode of implementation of the invention makes it possible to automatically create the stereoscopic images from several captures, or photographs, of the three-dimensional scene made up of the components projected, including at least one capture for the image of the interface for the right eye and at least one other capture for the image of the interface for the left eye.
  • a graphic component is designed only once for the graphical interface before being projected once and then captured several times.
  • the solution of the prior art requires to design several times the same graphic component from an interface image or a description of this image, the design step being followed by several respective projections and several respective captures of the graphical component.
  • the development time of each of the graphic components, and consequently of the graphical interface itself, resulting in the stereoscopic images is considerably reduced.
  • the projecting step of the method as described above comprises an assignment to the graphic component of a depth parameter.
  • This variant of implementation of the invention makes it possible to move the graphic components in the three-dimensional universe in order to give them more or less relief according to their importance, by positioning them in front of or behind the screen during their rendering.
  • the subject of the invention is a terminal capable of creating stereoscopic images from a description of a two-dimensional image comprising at least one graphic interface component, characterized in that it comprises means for transforming at least one component of the two-dimensional image such that the created stereoscopic images are different from said two-dimensional image.
  • a terminal as described above further includes means for assigning the graphical component of a depth parameter.
  • the invention also relates to a computer program capable of being implemented on a terminal as described above, the program comprising code instructions which, when the program is executed by a processor, performs the steps of the method defined above.
  • the present invention will be described with reference to a digital decoder (STB) connected to a television (TV) supporting a stereoscopic three-dimensional screen, but it can be applied to other devices such as a mobile phone , a computer, a TV, etc.
  • STB digital decoder
  • TV television
  • TV television
  • the figure 1 represents a system comprising a terminal T according to the invention, equipped with a conversion module MC, and connected by way of example to two screens, for example 2D TV and TV 3D TVs respectively display two-dimensional and three-dimensional.
  • the terminal T contains a human-machine interface HMI. This interface may have been developed locally or outside the terminal. In our example, it is assumed that the graphical interface was developed on a computer outside the terminal T and transmitted to it via a telecommunications network.
  • the conversion module MC of the terminal T receives as input an HMI human-machine interface in the form of a description of a two-dimensional GUI interface HMI2d constituted by a window 3 in which are drawn a rectangular button 2 and a circular button 4
  • This description can take the form of a sequence of program instructions able to create, at their execution, according to the state of the art, a two-dimensional image GUI2d of the graphic interface.
  • the MC module creates two stereoscopic images IHMg and IHMd of the human-machine interface. The two images IHMg and IHMd are both distinct from the two-dimensional image HMI2d.
  • the MC module can also create the two-dimensional image IHM2d that can be displayed directly on the two-dimensional television TV2D and can also be transmitted to the 3D TV TV for two-dimensional display.
  • the ISG global stereoscopic image formed by the pair of stereoscopic images IHMg and IHMd can, however, be displayed in relief on the 3D TV set equipped with a three-dimensional screen, each element of the interface being rendered with a depth of its own. : for a user of the 3D TV screen, the 3d window is displayed with a zero depth (it appears in the plane of the screen, which is assimilated here to the projection surface), the rectangular button 2d has a negative depth (It seems to sink behind the screen) and the circular button 4d a positive depth (it seems to come off the screen).
  • the terminal T In order to realize the creation of these two stereoscopic human-machine interface images, the terminal T must have a hardware and software architecture which are now detailed respectively in support of Figures 2 and 3 .
  • the figure 2 very schematically represents a hardware architecture TM of the terminal T.
  • the terminal comprises a CPU processor for performing the various steps of the method.
  • This processor is connected to a memory M in which are stored at least the software programs represented on the figure 3 (in a permanent part - ROM) of the memory and input data corresponding to the HMI human-machine interface, a graphics GPU processor intended to support all or part of the graphic calculations allowing in particular the three-dimensional projection of the graphic components , and input / output means I / O able to communicate with the outside, in particular for exchanging stereoscopic data with a screen connected to the terminal, or with a communications network.
  • these input-output means consist of an HDMI interface (for High Definition Multimedia Interface ) allowing the transfer of uncompressed digital multimedia data (audio and video) in high definition to the TVs 2D TV and 3D TV. All these elements are interconnected by a bus system 6.
  • the figure 3 represents an example of TL software architecture of the terminal according to the invention.
  • the three components TK, BE and API represented are stored in the memory M and run on the CPU and the GPU of the terminal.
  • the input HMI interface is based on a set of graphic software libraries TK ( Graphical Toolkit) that allows the development of such man-machine interfaces.
  • graphic libraries such as Qt (set of software libraries for the development of graphical interfaces). They make it possible to draw windows, buttons, images and a multitude of other graphic components.
  • the HMI interface can be a Web interface, that is to say a set of windows loaded in an internet browser, and is also based in this case on the TK library.
  • the graphic library TK itself relies, conventionally, on a low-level graphics library still called graphics driver or API ( Application Programming Interface ) which provides a set of libraries dedicated to low-level processing functions, for example audio and video (video card, sound card, etc.) or device-input devices (joystick, network card, mouse, etc.).
  • graphics driver or API Application Programming Interface
  • Such drivers as for example OpenGL ( Open Graphics Library - specification-based library defining an interface for designing applications creating three-dimensional and two-dimensional images) are well known to those skilled in the art.
  • the graphic TK library as an overlay of the graphics driver API, thus offers a higher level of development interface and therefore more comfortable to the developers of the human-machine interface.
  • the invention introduces an additional transformation module BE (for the English Back-End ) between the library TK and the graphics driver API.
  • TK supplies the transformation module BE with the individual images of all the graphic components of the interface, that is to say in our example the rectangular button 2, the circular button 4, and the window 3.
  • the purpose of the BE module is to transform the set of graphic components into two complementary representations, in the stereoscopic sense of the term, in the two GUI and IHMg GUI images.
  • the module BE uses the graphics driver API to project the two-dimensional interface in a three-dimensional universe by a projection method which will be described in support of the following figures.
  • a three-dimensional universe is understood to mean a virtual three-dimensional space for projecting the graphic components in order to obtain three-dimensional objects constituting a three-dimensional scene (SCENE_3D).
  • This three-dimensional universe includes projected component capture means. These capture means are hereinafter referred to as "virtual cameras".
  • Such a virtual camera is a software object that defines a point of view on the three-dimensional scene, and whose function is to capture this view in the virtual universe, thus simulating a real shot in a real world.
  • the terminal T may be a digital decoder or a mobile phone equipped with the elements mentioned above, or a connected television integrating these elements, etc.
  • a virtual three-dimensional universe (UNIV_3D) is created by the module BE. This involves positioning two virtual cameras in a three-dimensional coordinate system, so that each of the two cameras can create one of two images stereoscopic interface of the man-machine interface. This step will be detailed later in support of figures 5 and 6 .
  • Step E2 corresponds to the acquisition by the module BE of one of the basic graphic components constituting the human-machine interface (CP_2D). This element is chosen indifferently among all available graphic components, delivered by the library TK to the module BE. In our example, we can for example first process the window 3, then the button 2, then the button 4.
  • the BE module projects it during a step E3 (PROJ) in the three-dimensional universe created previously.
  • the projection stage which will be detailed later in support of Figures 7 and 8 consists in effecting a texture plating on one or more polygons to obtain, from the two-dimensional element, a three-dimensional element consisting of one or more facets having the texture of the two-dimensional element.
  • step E4 the module BE tests whether there remain graphics components to be processed. If one minus one of the components from the TK library has not yet been processed, a new component is selected and the projection step E3 is performed again. If all the components have been processed, the three-dimensional scene (SCENE_3D), thus made up of all the components projected in the three-dimensional universe, is rendered during a step E5 (RDR) which consists in capturing the scene by the two cameras which have been set at the initialization step E1.
  • step E5 RDR
  • step E6 STEREO
  • STEREO stereoscopic images
  • IHMd and IHMg corresponding to the two cameras, which will be able to be combined during a step E6 (STEREO) to create the overall image of human-machine interface three-dimensional, ISG, from the two stereoscopic images, according to the input format expected by the three-dimensional screen, for example side by side (in English: Side by Side), or one above the other (in English). : Top / Bottom ) , or alternatively in time according to the sequential mode (in English: field sequential ) of the Bluray 3D format.
  • This step E6 can be omitted if the three-dimensional screen directly accepts the two stereoscopic images as input.
  • the figures 5 , 6a and 6b represent in flow chart and illustration form the detailed steps of the initialization E1 of the method. This initialization should lead to the creation of a virtual three-dimensional universe equipped with two stereoscopic cameras.
  • the first step E10 consists in creating the three-dimensional space represented by the reference (O, X, Y, Z) on the figure 6a (the Y axis, being perpendicular to the figure since the virtual universe is seen from above, is not shown).
  • a first virtual camera C1 pointing to the origin 0 of the marker, is created in step E11.
  • the configuration of the camera determines a volume of the space, also called frustum by the person skilled in the art, or which is potentially visible to the user during a visualization on the screen (gray area on the screen). figure 6a ). It is a truncated pyramid.
  • the apex of the pyramid is the position of the camera C1, its base is the furthest plane (in English: Far Plane - FP) and the pyramid is truncated at the level of the nearest plane, in English: Near Plane - NP). All three-dimensional objects in the frustum are visible and will be rendered on the screen.
  • the unit chosen in this example is the centimeter but the distances could be indifferently expressed in inches or any other unit of measurement because the virtual universe created is independent of a unit of measure and completely configurable.
  • a second camera C2 is created in step E12 of the figure 5 , identical to the first camera C1. Both cameras are confused and likewise frustum.
  • the two cameras C1 and C2 are spaced from each other along the Y axis and positioned equidistant from the initial position, respecting the stereoscopic rendering constraint, that is to say they are discarded a distance D4 of parallax corresponding to the space between the two eyes of a human observer, for example D4 is equal to 6 cm.
  • the origins O 'and O "of the marks associated with the two cameras are displaced in the same translational movement as the cameras, the camera C1 being pointed at the origin of a reference (O', X, Y, Z) and the camera C2 on the origin of a reference (O ", X, Y, Z) such that O 'and O" are distant from D4 on the Y axis.
  • the three-dimensional universe (UNIV_3D) is thus created.
  • the figure 7 is a detailed flowchart corresponding to the projection step E3 by the BE module of the two-dimensional man-machine interface in the three-dimensional universe.
  • the projection step succeeds on the one hand to the previously described step of acquisition E2 of one of the components of the human-machine interface and on the other hand to the creation of the virtual three-dimensional universe of the step E1.
  • the first step E20 GENE
  • the BE module uses the API graphics driver to perform the different substeps of this projection.
  • step E20 a two-dimensional image is created from the acquired graphics component. For example, if the library TK provides input a geometric representation of the button component 2, this step is responsible for transforming this representation into a set of pixels comparable to an image of the button.
  • texture is called the set of pixels of the image constructed during step E20 for the component considered and applicable on a polygon.
  • a surface is defined by a set of polygons able to represent the relief of the graphic component.
  • This surface may be, for example, conventionally a set of quadrangles or triangles.
  • the graphic component is represented by a projection on a single polygon but the representation of the component on a real perspective volume would imply several polygons.
  • Texture mapping is a well-known technique for drawing a two-dimensional or three-dimensional object so that the polygons constituting it are coated with the texture. This involves associating with each pixel of the polygon a value extracted from the texture to be plated.
  • the assignment of a depth to an element during step E24 may be automatic or not (for example, the window which has the user's "focus" may be highlighted, a button judged optional may be retracted , or an advanced text entry box, etc.).
  • step E5 rendering stereoscopic images.
  • the three-dimensional scene (SCENE_3D) composed of the different elements arranged in the frustum of the two cameras is available as input.
  • a first step E30 R_C1
  • the scene is made from of the camera 1, that is to say that a first image IHMg of this three-dimensional scene is captured by the camera 1, C1.
  • a second image IHMd is created during the step E31 (R_C2) identical to the step E30 by replacing the camera 1, C1, by the camera 2, C2.
  • the two images thus obtained form a pair of stereoscopic images.
  • the terminal of the invention is indifferently a terminal connected to a network, for example a server, and able to supply to another terminal, via the network, the stereoscopic images according to the method of the invention, or a terminal capable of producing locally the method of the invention.
  • this exemplary embodiment can naturally be extended to a larger number of graphic interface images in the context of a multi-view system.
  • the positioning of a number of cameras greater than two in the virtual universe created by the invention would create more than two images of the scene, corresponding to different views of the objects to be displayed in several directions.
  • several images of the human-machine interface could be transmitted to a screen that would allow viewing in relief from several angles of different views.
  • this embodiment can be extended to vector images, that is to say images composed of individual geometric objects (line segments, polygons, arcs, etc.) each defined by various shape attributes. , position, color, etc.
  • the attributes of such images can be easily extracted from the input image and provided to the BE module to create multiple stereoscopic output images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

L'invention a trait à un procédé de création d'images stéréoscopiques. à partir d'une description (IHM) d'une image bidimensionnelle (IHM2d) comportant au moins un composant d'interface graphique (2,3,4). Le procédé est caractérisé en ce que au moins un composant (2,3,4) de l'image bidimensionnelle (IHM2d) est transformé de telle sorte que les images stéréoscopiques créées (IHMd, IHMg) sont différentes de ladite image bidimensionnelle (IHM2d).

Description

  • L'invention se rapporte à la création d'images stéréoscopiques, notamment des images stéréoscopiques d'Interfaces Homme-Machine (IHM), destinées à être affichées sur un écran tridimensionnel (3D).
  • Plus particulièrement, l'invention s'applique à tout terminal comportant un module apte à recevoir en entrée la description d'une image d'interface homme-machine bidimensionnelle et à restituer en sortie deux images stéréoscopiques de cette même interface homme-machine. Un tel terminal est par exemple un ordinateur, un téléviseur, un décodeur numérique ou encore un téléphone mobile.
  • On entend par interface homme-machine un ensemble de composants graphiques affichés dans une ou plusieurs fenêtres virtuelles sur un écran.
  • Les deux images stéréoscopiques de l'interface homme-machine sont destinées à être restituées en relief sur un écran tridimensionnel.
  • Les écrans tridimensionnels, notamment les écrans tridimensionnels stéréoscopiques d'ordinateur et de téléviseur, sont utilisés communément pour la visualisation de données en relief. Les écrans tridimensionnels ont généralement la capacité d'afficher des images en mode bidimensionnel ou en mode tridimensionnel. En mode bidimensionnel, une seule image est affichée par l'écran qui la restitue sans relief. En mode tridimensionnel, deux images sont affichées par l'écran qui les restitue alors en relief. Les deux images, dites stéréoscopiques, sont décalées l'une par rapport à l'autre, l'une étant destinée à l'oeil gauche et l'autre à l'oeil droit d'un utilisateur de l'écran. Ce décalage, nommé aussi parallaxe, correspond à la différence de distance horizontale entre les deux yeux de l'utilisateur humain. Selon la valeur de cette parallaxe, le cerveau de l'utilisateur imagine un point de convergence situé devant ou derrière le plan de l'écran, associant ainsi une impression de profondeur à l'objet observé.
  • D'autres systèmes, notamment les systèmes à vues multiples, aussi désignés sous le nom de systèmes multi-vues, génèrent plus de deux images de la scène correspondant à différentes vues des objets à afficher selon plusieurs directions. Plusieurs images sont alors transmises à un écran qui autorise une visualisation en relief selon plusieurs angles de vues différents. L'utilisateur utilise, selon sa position par rapport à l'écran, deux des images disponibles pour construite une vision stéréoscopique de l'image.
  • Pour capturer une scène tridimensionnelle, il faut donc au moins deux images, et donc au moins deux dispositifs de capture d'images numériques, caméras ou appareils photographiques, qui capturent chacun ce que voit l'un des deux yeux. Chaque caméra génère ainsi une image d'un couple d'images dites stéréoscopiques, qui vont être agencées pour l'affichage sur un écran tridimensionnel.
  • Plusieurs formats d'entrée sont possibles pour un tel écran, les deux images stéréoscopiques étant par exemple disposées côte à côte (en anglais : Side by Side), ou l'une au-dessus de l'autre (en anglais : Top/Bottom), ou encore alternativement dans le temps conformément au format Bluray 3D (norme de la Blu-ray Disc Association basée sur la norme de codage vidéo multi-vues MPEG-4 / MVC - Multiview Coding), pour former une image stéréoscopique globale qui peut être affichée par un écran stéréoscopique acceptant l'un au moins de ces formats.
  • Naturellement, l'écran tridimensionnel présentant une surface plane, il existe plusieurs technologies permettant de restituer le relief : les écrans dits auto-stéréoscopiques assurent la séparation automatique des deux images ; alternativement, l'utilisateur devra se munir de lunettes polarisées ou tout autre dispositif connu apte à séparer les images destinées à ses yeux gauche et droit.
  • Il est naturel, sur un tel écran, de souhaiter afficher plusieurs types de données : des images animées (vidéo), des images fixes (photographies), mais aussi des images d'interfaces graphiques. De telles images d'interface graphique, usuellement appelées Interfaces Homme-Machine (IHM), sont des images fixes comprenant un ensemble de composants graphiques (boutons, listes, menus, etc) destinés à un affichage dans une ou plusieurs fenêtres virtuelles dans le but d'interagir avec l'utilisateur.
  • De telles interfaces homme-machine peuvent être de plusieurs types. Par exemple elles peuvent être de type natif, c'est-à-dire constituées d'un programme qui décrit une seule fenêtre ou page d'affichage, sous la forme d'une suite d'instructions logicielles. Elles peuvent être encore de type web, c'est-à-dire constituées de pages web délivrées via un réseau de type Internet et accessible à l'utilisateur via un navigateur web. Dans ces deux cas, les interfaces reposent sur un ensemble de bibliothèques logicielles graphiques (en anglais : « graphical toolkit ») qui permettent de dessiner les composants graphiques de base, par exemple des fenêtres, des boutons, des listes, etc. Les bibliothèques graphiques peuvent communiquer directement avec le matériel du terminal, notamment la mémoire vidéo, la carte vidéo et le processeur graphique (GPU : Graphical Processor Unit) ou utiliser un pilote graphique (API : Application Program Interface) communiquant avec ce matériel.
  • Aujourd'hui les interfaces homme-machine classiques sont développées en mode bidimensionnel, c'est-à-dire sans relief, sur la base d'une seule image bidimensionnelle.
  • Afin de pouvoir les visualiser en relief sur un écran 3D stéréoscopique, une solution simple consiste à créer une seconde image d'interface homme-machine à partir de la première image d'interface homme-machine bidimensionnelle : l'image bidimensionnelle initiale de l'interface homme-machine est créée à partir de sa description, puis elle est dupliquée dans une deuxième image de l'interface homme-machine qui est elle-même modifiée pour donner des effets de relief et de profondeur aux composants graphiques de l'interface homme-machine. Chaque composant graphique de la deuxième image d'interface homme-machine ainsi créée est décalé d'une certaine valeur, qui lui est propre, pour modéliser la vision de cet élément par un oeil (par exemple le droit) tandis que l'image initiale modélise la vision de l'autre oeil (par exemple le gauche). Les deux images de l'interface homme-machine sont ensuite combinées pour obtenir l'effet stéréoscopique escompté. Cette solution nécessite un temps de développement considérable puisqu'elle suppose de concevoir deux interfaces graphiques en décalant chacun des composants graphiques, un par un, et en vérifiant le rendu tridimensionnel obtenu.
  • De plus, les inventeurs ont constaté que la solution précédente génère des images stéréoscopiques de qualité médiocre puisque l'une des images n'est autre que l'image bidimensionnelle initiale, qui n'a pas été conçue dans le but de faire partie d'un couple stéréoscopique.
  • L'invention offre une solution ne présentant pas les inconvénients de l'état de la technique.
  • A cet effet, selon un aspect fonctionnel, l'invention a pour objet un procédé de création d'images stéréoscopiques à partir d'une description d'une image bidimensionnelle comportant au moins un composant d'interface graphique, caractérisé en ce que au moins un composant de l'image bidimensionnelle est transformé de telle sorte que les images stéréoscopiques créées sont différentes de ladite image bidimensionnelle.
  • Ainsi, le procédé de l'invention offre l'avantage de créer un véritable couple d'images stéréoscopiques en vue de leur affichage sur un écran en relief, assurant un meilleur rendu tridimensionnel du composant graphique que si l'une des images en sortie était identique à l'image bidimensionnelle en entrée.
  • Selon un mode de mise en oeuvre particulier de l'invention, un procédé de création des images stéréoscopiques tel que décrit ci-dessus inclut en outre les étapes de :
    • Acquisition d'au moins un composant d'interface graphique bidimensionnel dans la description de l'image bidimensionnelle ;
    • Projection dudit au moins un composant graphique acquis dans un univers tridimensionnel;
    • Capture des images stéréoscopiques à partir de ladite projection dans l'univers tridimensionnel.
  • Ce mode de mise en oeuvre de l'invention permet de créer automatiquement les images stéréoscopiques à partir de plusieurs captures, ou photographies, de la scène tridimensionnelle constituée des composants projetés, dont au moins une capture pour l'image de l'interface destinée à l'oeil droit et au moins une autre capture pour l'image de l'interface destinée à l'oeil gauche. Ainsi, selon l'invention, un composant graphique est conçu une seule fois pour l'interface graphique avant d'être projeté une seule fois puis capturé plusieurs fois. Au contraire, la solution de l'art antérieur nécessite de concevoir plusieurs fois ce même composant graphique à partir d'une image d'interface ou d'une description de cette image, l'étape de conception étant suivie de plusieurs projections respectives et de plusieurs captures respectives du composant graphique. Ainsi, grâce à notre invention, le temps de développement de chacun des composants graphiques, et par conséquent de l'interface graphique elle-même, aboutissant aux images stéréoscopiques, est considérablement réduit.
  • Selon une variante de ce mode de mise en oeuvre, l'étape de projection du procédé tel que décrit ci-dessus comporte une affectation au composant graphique d'un paramètre de profondeur. Cette variante de mise en oeuvre de l'invention permet de déplacer les composants graphiques dans l'univers tridimensionnel afin de leur donner plus ou moins de relief selon leur importance, en les positionnant devant ou derrière l'écran lors de leur rendu.
  • Selon un aspect matériel, l'invention a pour objet un terminal apte à créer des images stéréoscopiques à partir d'une description d'une image bidimensionnelle comportant au moins un composant d'interface graphique, caractérisé en ce qu'il comprend des moyens de transformation d'au moins un composant de l'image bidimensionnelle de telle sorte que les images stéréoscopiques créées sont différentes de ladite image bidimensionnelle.
  • Selon un mode de mise en oeuvre particulier de l'invention, un terminal tel que décrit ci-dessus inclut en outre :
    • Des moyens d'acquisition du au moins un composant graphique acquis dans une description d'une interface graphique bidimensionnelle;
    • Des moyens de projection dudit au moins un composant sélectionné dans l'univers tridimensionnel;
    • Des moyens de capture des deux images stéréoscopiques à partir de ladite projection dans l'univers tridimensionnel.
  • Selon une variante de ce mode de mise en oeuvre particulier de l'invention, un terminal tel que décrit ci-dessus inclut en outre des moyens d'affectation au composant graphique d'un paramètre de profondeur.
  • Selon un autre aspect matériel, l'invention concerne également un programme d'ordinateur apte à être mis en oeuvre sur un terminal tel que décrit ci-dessus, le programme comprenant des instructions de code qui, lorsque le programme est exécuté par un processeur, réalise les étapes du procédé défini ci-dessus.
  • L'invention sera mieux comprise à la lecture de la description qui suit, donnée à titre d'exemple et faite en référence aux dessins annexés.
    • La figure 1 représente un système comportant un module de création de deux images stéréoscopiques selon un mode de réalisation de l'invention.
    • La figure 2 est un schéma bloc d'un terminal apte à réaliser les étapes d'un procédé de création des images stéréoscopiques d'interface graphique selon un mode de réalisation de l'invention.
    • La figure 3 représente sous forme de schéma bloc des éléments logiciels s'exécutant dans la mémoire d'un terminal selon l'invention.
    • La figure 4 représente un organigramme de haut niveau illustrant les différentes étapes d'un procédé selon l'invention.
    • La figure 5 représente un organigramme détaillé illustrant les étapes d'initialisation d'un procédé selon l'invention.
    • Les figures 6a et 6b sont des illustrations graphiques des étapes d'initialisation d'un procédé selon l'invention.
    • La figure 7 représente un organigramme détaillé illustrant les étapes de projection dans un espace tridimensionnel d'un procédé selon l'invention.
    • La figure 8 est une illustration graphique de la projection d'une interface bidimensionnelle dans un espace tridimensionnel selon l'invention.
    • La figure 9 représente un organigramme détaillé illustrant les étapes de création d'images stéréoscopiques selon l'invention.
    Description détaillée d'un exemple de réalisation illustrant l'invention
  • A titre d'illustration, la présente invention sera décrite en référence à un décodeur numérique (STB) connecté à un téléviseur (TV) supportant un écran tridimensionnel stéréoscopique, mais elle peut s'appliquer à d'autres dispositifs tels qu'un téléphone mobile, un ordinateur, un téléviseur, etc.
  • La figure 1 représente un système comportant un terminal T selon l'invention, équipé d'un module de conversion MC, et relié à titre d'exemple à deux écrans, par exemple des téléviseurs TV 2D et TV 3D à affichage respectivement bidimensionnel et tridimensionnel. Le terminal T contient une interface homme-machine IHM. Cette interface peut avoir été développée localement ou à l'extérieur du terminal. Dans notre exemple, on suppose que l'interface graphique a été développée sur un ordinateur à l'extérieur du terminal T et lui a été transmise via un réseau de télécommunications. Le module de conversion MC du terminal T reçoit en entrée une interface homme-machine IHM sous la forme d'une description d'une interface graphique bidimensionnelle IHM2d constituée d'une fenêtre 3 dans laquelle sont dessinés un bouton rectangulaire 2 et un bouton circulaire 4. Cette description peut prendre la forme d'une suite d'instructions de programme aptes à créer, lors de leur exécution, selon l'état de l'art, une image bidimensionnelle IHM2d de l'interface graphique. Le module MC crée deux images stéréoscopiques IHMg et IHMd de l'interface homme-machine. Les deux images IHMg et IHMd sont toutes deux distinctes de l'image bidimensionnelle IHM2d. l'une des images (par exemple IHMg) correspond à la vue de l'oeil gauche et l'autre (IHMd) à celle de l'oeil droit de l'utilisateur. Le module MC peut aussi créer l'image bidimensionnelle IHM2d qui peut être affichée directement sur le téléviseur à affichage bidimensionnel TV2D et peut être également transmise au téléviseur TV 3D pour un affichage en mode bidimensionnel.
  • L'image stéréoscopique globale ISG formée du couple d'images stéréoscopiques IHMg et IHMd peut en revanche être affichée en relief sur le téléviseur TV 3D équipé d'un écran tridimensionnel, chaque élément de l'interface étant rendu avec une profondeur qui lui est propre : pour un utilisateur de l'écran TV 3D, la fenêtre 3d est affichée avec une profondeur nulle (elle apparaît dans le plan de l'écran, qui est assimilé ici à la surface de projection), le bouton rectangulaire 2d a une profondeur négative (il semble s'enfoncer derrière l'écran) et le bouton circulaire 4d une profondeur positive (il semble sortir de l'écran).
  • Afin de pouvoir réaliser la création de ces deux images stéréoscopiques d'interface homme-machine, le terminal T doit disposer d'une architecture matérielle et logicielle qui sont maintenant détaillées respectivement à l'appui des figures 2 et 3.
  • La figure 2 représente de façon très schématique une architecture matérielle TM du terminal T. Le terminal comporte un processeur CPU destiné à exécuter les différentes étapes du procédé. Ce processeur est relié à une mémoire M dans laquelle sont mémorisés au moins les programmes logiciels représentés sur la figure 3 (dans une partie permanente - ROM) de la mémoire et des données d'entrée correspondant à l'interface homme-machine IHM, un processeur graphique GPU destiné à prendre en charge tout ou partie des calculs graphiques autorisant notamment la projection tridimensionnelle des composants graphiques, et des moyens d'entrée-sortie I/O aptes à communiquer avec l'extérieur, notamment pour échanger les données stéréoscopiques avec un écran connecté au terminal, ou avec un réseau de communications. Par exemple ces moyens d'entrée-sortie sont constitués d'une interface HDMI (pour High Definition Multimedia Interface) permettant le transfert de données numériques multimédia (audio et vidéo) non compressées en haute définition vers les téléviseurs TV 2D et TV 3D. Tous ces éléments sont reliés entre eux par un système de bus 6.
  • La figure 3 représente un exemple d'architecture logicielle TL du terminal selon l'invention. Les trois composants TK, BE et API représentés sont enregistrés dans la mémoire M et s'exécutent sur le CPU et le GPU du terminal. L'interface IHM en entrée repose sur un ensemble de bibliothèques logicielles graphiques TK (en anglais : Graphical Toolkit) qui permet de développer de telles interfaces homme-machine. II existe de nombreuses bibliothèques graphiques connues, comme par exemple Qt (ensemble de bibliothèques logicielles pour le développement des interfaces graphiques). Elles permettent de dessiner des fenêtres, des boutons, des images et une multitude d'autres composants graphiques.
  • L'interface IHM peut être une interface Web, c'est-à-dire un ensemble de fenêtres chargées dans un navigateur internet, et repose également dans ce cas sur la bibliothèque TK.
  • La bibliothèque graphique TK s'appuie elle-même, classiquement, sur une bibliothèque graphique de bas niveau encore appelée pilote graphique ou API (pour Application Programming Interface) qui fournit un ensemble de bibliothèques de fonctions dédiées aux traitements de bas niveau, par exemple audio et vidéo (carte vidéo, carte son, etc.) ou relatifs aux périphériques d'entrée-sortie (joystick, carte réseau, souris, etc.). De tels pilotes, comme par exemple OpenGL (Open Graphics Library - bibliothèque basée sur une spécification définissant une interface pour la conception d'applications créant des images tridimensionnelles et bidimensionnelles) sont bien connues de l'homme du métier.
  • La bibliothèque graphique TK, en tant que surcouche du pilote graphique API, offre ainsi une interface de développement de plus haut niveau et donc plus confortable aux développeurs de l'interface homme-machine.
  • L'invention introduit un module de transformation supplémentaire BE (pour l'anglais Back-End) entre la bibliothèque TK et le pilote graphique API. Dans notre exemple de la figure 3, TK fournit au module de transformation BE les images individuelles de tous les composants graphiques de l'interface, c'est-à-dire dans notre exemple le bouton rectangulaire 2, le bouton circulaire 4, et la fenêtre 3.
  • Le module BE a pour fonction de transformer l'ensemble des composants graphiques en deux représentations complémentaires, au sens stéréoscopique du terme, dans les deux images d'interface graphique IHMd et IHMg.
  • Dans notre exemple, le module BE utilise le pilote graphique API pour projeter l'interface bidimensionnelle dans un univers tridimensionnel par un procédé de projection qui sera décrit à l'appui des figures suivantes. On entend par univers tridimensionnel un espace tridimensionnel virtuel pour projeter les composants graphiques en vue d'obtenir des objets tridimensionnels constitutifs d'une scène tridimensionnelle (SCENE_3D). Cet univers tridimensionnel comprend des moyens de capture de composant projetés. Ces moyens de capture sont ci-après désignés par l'expression "caméras virtuelles". Une telle caméra virtuelle est un objet logiciel qui définit un point de vue sur la scène tridimensionnelle, et dont la fonction est de capturer cette vue dans l'univers virtuel, simulant ainsi une prise de vue réelle dans un univers réel.
  • Dans notre exemple, l'ensemble des modules logiciels TL et matériels TM est intégré dans le module MC de conversion du terminal de la figure 1. Le terminal T peut être un décodeur numérique ou un téléphone mobile équipé des éléments cités ci-dessus, ou encore un téléviseur connecté intégrant ces éléments, etc.
  • Les différentes étapes du procédé de l'invention exécutées par le module BE vont maintenant être illustrées à l'appui de la figure 4.
  • Lors d'une première étape E1 (INIT) d'initialisation, un univers tridimensionnel virtuel (UNIV_3D) est créé par le module BE. Il s'agit de positionner deux caméras virtuelles dans un repère tridimensionnel, de manière à ce que chacune des deux caméras puisse créer l'une des deux images stéréoscopiques de l'interface homme-machine en sortie. Cette étape sera détaillée ultérieurement à l'appui des figures 5 et 6.
  • L'étape E2 (GET_CP) correspond à l'acquisition par le module BE de l'un des composants graphiques de base constitutifs de l'interface homme-machine (CP_2D). Cet élément est choisi indifféremment parmi tous les composants graphiques disponibles, délivrés par la bibliothèque TK au module BE. Dans notre exemple, on peut par exemple traiter d'abord la fenêtre 3, puis le bouton 2, puis le bouton 4.
  • Une fois que l'un des composants graphiques est acquis, le module BE le projette lors d'une étape E3 (PROJ) dans l'univers tridimensionnel créé précédemment. L'étape de projection, qui sera détaillée par la suite à l'appui des figures 7 et 8, consiste à effectuer un plaquage de texture sur un ou plusieurs polygones pour obtenir, à partir de l'élément bidimensionnel, un élément tridimensionnel constitué d'une ou plusieurs facettes possédant la texture de l'élément bidimensionnel.
  • Lors d'une étape E4 (COMP), le module BE teste s'il reste des composants graphiques à traiter. Si un moins l'un des composants en provenance de la bibliothèque TK n'a pas encore été traité, un nouveau composant est sélectionné et l'étape E3 de projection est effectuée de nouveau. Si tous les composants ont été traités, la scène tridimensionnelle (SCENE_3D), ainsi constituée de tous les composants projetés dans l'univers tridimensionnel, est rendue lors d'une étape E5 (RDR) qui consiste à capturer la scène par les deux caméras qui ont été positionnées à l'étape E1 d'initialisation. A l'issue de cette étape, on dispose de deux images stéréoscopiques IHMd et IHMg correspondant aux deux caméras, qui vont pouvoir être combinées lors d'une étape E6 (STEREO) pour créer l'image globale d'interface homme-machine tridimensionnelle, ISG, à partir des deux images stéréoscopiques, selon le format d'entrée attendu par l'écran tridimensionnel, par exemple côte à côte (en anglais : Side by Side), ou l'une au-dessus de l'autre (en anglais : Top/Bottom), ou encore alternativement dans le temps conformément au mode séquentiel (en anglais : field sequential) du format Bluray 3D. Cette étape E6 peut être omise si l'écran tridimensionnel accepte directement les deux images stéréoscopiques en entrée.
  • Les figures 5, 6a et 6b représentent sous forme d'organigramme et d'illustrations les étapes détaillées de l'initialisation E1 du procédé. Cette initialisation doit aboutir à la création d'un univers tridimensionnel virtuel équipé de deux caméras stéréoscopiques.
  • La première étape E10 consiste à créer l'espace tridimensionnel représenté par le repère (O,X,Y,Z) sur la figure 6a (l'axe Y, se trouvant perpendiculaire à la figure puisque l'univers virtuel est vu du dessus, n'est pas représenté). Une première caméra virtuelle C1, pointant sur l'origine 0 du repère, est créée à l'étape E11. La configuration de la caméra détermine un volume de l'espace, aussi appelé frustum par l'homme du métier, ou qui est potentiellement visible par l'utilisateur lors d'une visualisation à l'écran (surface grisée sur la figure 6a). Il s'agit d'une pyramide tronquée. L'apex de la pyramide est la position de la caméra C1, sa base est le plan le plus éloigné (en anglais : Far Plane - FP) et la pyramide est tronquée au niveau du plan le plus proche, en anglais : Near Plane - NP). Tous les objets tridimensionnels qui se trouvent dans le frustum sont visibles et seront donc rendus à l'écran. Cet espace est entièrement paramétrable. Par exemple, on pourra prendre des distances D1 = 150 cm (respectivement D2 = 250 cm) entre l'apex de la pyramide et le plan NP (respectivement FP) et une distance D3 de 1280 cm pour la hauteur du plan de référence Z0 qui correspond au plan de projection de profondeur nulle (Z=0). L'unité choisie dans cet exemple est le centimètre mais les distances pourraient être indifféremment exprimées en pouces ou toute autre unité de mesure car l'univers virtuel créé est indépendant d'une unité de mesure et totalement paramétrable.
  • Une seconde caméra C2 est créée à l'étape E12 de la figure 5, identique à la première caméra C1. Les deux caméras sont confondues et de même frustum.
  • A l'étape E13, comme représenté sur la figure 6b, les deux caméras C1 et C2 sont écartées l'une de l'autre selon l'axe Y et positionnées à équidistance de la position initiale, en respectant la contrainte de rendu stéréoscopique, c'est-à-dire qu'elles sont écartées d'une distance D4 de parallaxe correspondant à l'espace entre les deux yeux d'un observateur humain, par exemple D4 est égal à 6 cm. Les origines O' et O" des repères associés aux deux caméras sont déplacées selon le même mouvement de translation que les caméras, la caméra C1 se trouvant pointée sur l'origine d'un repère (O', X, Y, Z) et la caméra C2 sur l'origine d'un repère (O", X, Y, Z) tels que O' et O" sont distants de D4 sur l'axe Y. L'univers tridimensionnel (UNIV_3D) est ainsi créé.
  • La figure 7 est un organigramme détaillé correspondant à l'étape de projection E3 par le module BE de l'interface homme-machine bidimensionnelle dans l'univers tridimensionnel. L'étape de projection succède d'une part à l'étape précédemment décrite d'acquisition E2 de l'un des composants de l'interface homme-machine et d'autre part à la création de l'univers tridimensionnel virtuel de l'étape E1. Lors de la première étape E20 (GENE), on dispose donc en entrée d'un composant d'interface homme-machine bidimensionnelle (CP_2D) et de l'univers virtuel tridimensionnel (UNIV_3D). Le module BE fait appel au pilote graphique API pour réaliser les différentes sous-étapes de cette projection.
  • Lors de l'étape E20, une image bidimensionnelle est créée à partir du composant graphique acquis. Par exemple, si la bibliothèque TK fournit en entrée une représentation géométrique du composant bouton 2, cette étape se charge de transformer cette représentation en un ensemble de pixels assimilables à une image du bouton.
  • A partir de cette image, une texture du composant est extraite au cours de l'étape 21 (TEXT). Un tel procédé d'extraction de texture est bien connu de l'homme du métier et ne sera pas décrit plus avant. Dans cet exemple de réalisation, on appelle texture l'ensemble des pixels de l'image construite lors de l'étape E20 pour le composant considéré et applicable sur un polygone.
  • Puis, lors de l'étape E22 (QUAD), une surface est définie par un ensemble de polygones aptes à représenter le relief du composant graphique. Cette surface peut être, par exemple, de manière classique, un ensemble de quadrangles ou de triangles. Dans la suite de la description, on considère que le composant graphique est représenté par une projection sur un seul polygone mais la représentation du composant sur un véritable volume en perspective impliquerait plusieurs polygones. Le polygone est dessiné à la position Z=0 dans l'univers virtuel, c'est-à-dire qu'on attribue au composant une profondeur nulle par défaut.
  • Puis la texture est appliquée, lors de l'étape E23 (MAP), sur le polygone ainsi dessiné, à l'aide d'un procédé de plaquage de texture. Le plaquage (ou mappage) de texture est une technique bien connue qui permet de dessiner un objet bidimensionnel ou tridimensionnel de manière à ce que les polygones le constituant soient revêtus de la texture. Il s'agit d'associer à chaque pixel du polygone une valeur extraite de la texture à plaquer.
  • Enfin, lors d'une étape E24 facultative, une profondeur peut être associée au composant graphique projeté. Ainsi, dans notre exemple, et comme représenté sur la figure 8, la projection 3p de la fenêtre 3 est associée à une profondeur nulle (Z=0) alors que celle du bouton circulaire 4p est déplacée pour lui associer une profondeur positive (par exemple Z4 = +10) et celle du bouton rectangulaire 2p est déplacée pour lui associer une profondeur négative (par exemple Z2 = -15). L'affectation d'une profondeur à un élément lors de l'étape E24 peut être automatique ou non (par exemple, la fenêtre qui possède le « focus » de l'utilisateur peut être mise en avant, un bouton jugé facultatif peut être reculé, ou une boîte de saisie de texte avancée, etc.).
  • On détaille maintenant à l'aide de la figure 9, l'étape E5 de rendu des images stéréoscopiques. La scène tridimensionnelle (SCENE_3D) composée des différents éléments disposés dans le frustum des deux caméras est disponible en entrée. Au cours d'une première étape E30 (R_C1), la scène est rendue à partir de la caméra 1, c'est-à-dire qu'une première image IHMg de cette scène tridimensionnelle est capturée par la caméra 1, C1. Une seconde image IHMd est créée au cours de l'étape E31 (R_C2) identique à l'étape E30 en remplaçant la caméra 1, C1, par la caméra 2, C2. Les deux images ainsi obtenues forment un couple d'images stéréoscopiques.
  • Le terminal de l'invention est indifféremment un terminal connecté à un réseau, par exemple un serveur, et apte à fournir à un autre terminal, via le réseau, les images stéréoscopiques selon le procédé de l'invention, ou un terminal apte à réaliser localement le procédé de l'invention.
  • Il va de soi que le mode de réalisation qui a été décrit ci-dessus a été donné à titre purement indicatif et nullement limitatif, et que de nombreuses modifications peuvent être facilement apportées par l'homme de l'art sans pour autant sortir du cadre de l'invention.
  • Notamment, cet exemple de réalisation peut naturellement être étendu à un nombre plus élevé d'images d'interfaces graphiques dans le contexte d'un système multi-vues. Notamment, le positionnement d'un nombre de caméras supérieur à deux dans l'univers virtuel créé par l'invention permettrait de créer plus de deux images de la scène, correspondant à différentes vues des objets à afficher selon plusieurs directions. Ainsi, plusieurs images de l'interface homme-machine pourraient être transmises à un écran qui autoriserait une visualisation en relief selon plusieurs angles de vues différents.
  • Aussi, cet exemple de réalisation peut être étendu à des images vectorielles, c'est-à-dire des images composées d'objets géométriques individuels (segments de droite, polygones, arcs de cercle, etc.) définis chacun par divers attributs de forme, de position, de couleur, etc. Les attributs de telles images peuvent être aisément extraits de l'image en entrée et fournis au module BE afin de créer plusieurs images stéréoscopiques en sortie.

Claims (7)

  1. Procédé de création d'images stéréoscopiques (IHMd, IHMg) à partir d'une description (IHM) d'une image bidimensionnelle (IHM2d) comportant au moins un composant d'interface graphique (2,3,4), caractérisé en ce que au moins un composant (2,3,4) de l'image bidimensionnelle (IHM2d) est transformé de telle sorte que les images stéréoscopiques créées (IHMd, IHMg) sont différentes de ladite image bidimensionnelle (IHM2d) .
  2. Procédé de création selon la revendication 1 caractérisé en ce la création des images stéréoscopiques (IHMd, IHMg) comporte les étapes suivantes :
    - Acquisition (E2) d'au moins un composant d'interface graphique (2,3,4) bidimensionnel dans la description (IHM) de l'image bidimensionnelle (IHM2d);
    - Projection (E3) dudit au moins un composant graphique (2,3,4) acquis dans un univers tridimensionnel (UNIV_3D);
    - Capture (E5) des images stéréoscopiques (IHMg, IHMd) à partir de ladite projection dans l'univers tridimensionnel.
  3. Procédé de création selon la revendication 2, caractérisé en ce que l'étape de projection (E3) comporte une affectation au composant graphique (2p, 3p, 4p) d'un paramètre de profondeur (E24, DEPTH).
  4. Terminal apte à créer des images stéréoscopiques (IHMd, IHMg) à partir d'une description (IHM) d'une image bidimensionnelle (IHM2d) comportant au moins un composant d'interface graphique (2,3,4), caractérisé en ce qu'il comprend des moyens de transformation d'au moins un composant de l'image bidimensionnelle (IHM2d) de telle sorte que les images stéréoscopiques créées (IHMd, IHMg) sont différentes de ladite image bidimensionnelle (IHM2d).
  5. Terminal selon la revendication 4 caractérisé en ce qu'il comprend :
    - Des moyens d'acquisition (TK, BE) d'au moins un composant graphique dans une description d'une interface graphique bidimensionnelle ;
    - Des moyens de projection (BE, API) dudit au moins un composant sélectionné dans l'univers tridimensionnel;
    - Des moyens de capture (TK, BE, API) des deux images stéréoscopiques (IHMd, IHMg) à partir de ladite projection dans l'univers tridimensionnel.
  6. Terminal selon la revendication 5 caractérisé en ce qu'il comprend des moyens d'affectation au composant graphique d'un paramètre de profondeur (Z4, Z2).
  7. Programme d'ordinateur apte à être mis en oeuvre sur un terminal tel que défini dans la revendication 4, le programme comprenant des instructions de code qui, lorsque le programme est exécuté par un processeur, réalise les étapes du procédé défini selon l'une des revendications 1 à 3.
EP12163008A 2011-04-22 2012-04-03 Procédé et dispositif de création d'images stéréoscopiques Ceased EP2515546A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1153515A FR2974435A1 (fr) 2011-04-22 2011-04-22 Procede et dispositif de creation d'images stereoscopiques

Publications (1)

Publication Number Publication Date
EP2515546A1 true EP2515546A1 (fr) 2012-10-24

Family

ID=45894373

Family Applications (1)

Application Number Title Priority Date Filing Date
EP12163008A Ceased EP2515546A1 (fr) 2011-04-22 2012-04-03 Procédé et dispositif de création d'images stéréoscopiques

Country Status (2)

Country Link
EP (1) EP2515546A1 (fr)
FR (1) FR2974435A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915994A (zh) * 2015-07-06 2015-09-16 上海玮舟微电子科技有限公司 一种三维数据的3d视图绘制方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001084852A1 (fr) * 2000-05-03 2001-11-08 Koninklijke Philips Electronics N.V. Circuit de commande d'affichage autostereoscopique
US20070279415A1 (en) * 2006-06-01 2007-12-06 Steve Sullivan 2D to 3D image conversion
US20100091012A1 (en) * 2006-09-28 2010-04-15 Koninklijke Philips Electronics N.V. 3 menu display
US20110090215A1 (en) * 2009-10-20 2011-04-21 Nintendo Co., Ltd. Storage medium storing display control program, storage medium storing library program, information processing system, and display control method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001084852A1 (fr) * 2000-05-03 2001-11-08 Koninklijke Philips Electronics N.V. Circuit de commande d'affichage autostereoscopique
US20070279415A1 (en) * 2006-06-01 2007-12-06 Steve Sullivan 2D to 3D image conversion
US20100091012A1 (en) * 2006-09-28 2010-04-15 Koninklijke Philips Electronics N.V. 3 menu display
US20110090215A1 (en) * 2009-10-20 2011-04-21 Nintendo Co., Ltd. Storage medium storing display control program, storage medium storing library program, information processing system, and display control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915994A (zh) * 2015-07-06 2015-09-16 上海玮舟微电子科技有限公司 一种三维数据的3d视图绘制方法及系统

Also Published As

Publication number Publication date
FR2974435A1 (fr) 2012-10-26

Similar Documents

Publication Publication Date Title
US10652522B2 (en) Varying display content based on viewpoint
KR101907945B1 (ko) 다중 시점 장면에서의 그래픽 표시
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
EP1227442B1 (fr) Procédé de traitement d'images en 2D appliquées sur des objets en 3D
US9185387B2 (en) Image blur based on 3D depth information
US9049423B2 (en) Zero disparity plane for feedback-based three-dimensional video
CN116438578B (zh) 采用多视图图像会聚平面倾斜的多视图显示系统和方法
JP2018515825A (ja) Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ
CN109660783A (zh) 虚拟现实视差校正
US20110229012A1 (en) Adjusting perspective for objects in stereoscopic images
JP2006325165A (ja) テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2010510569A (ja) 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法
US10271038B2 (en) Camera with plenoptic lens
US9754398B1 (en) Animation curve reduction for mobile application user interface objects
AU2004306226B2 (en) Stereoscopic imaging
EP2831847A1 (fr) Procede et dispositif de creation d'images
FR3039028A1 (fr) Procede et dispositif d'affichage de scene tridimensionnelle sur une surface d'affichage de forme arbitraire non plane
EP2515546A1 (fr) Procédé et dispositif de création d'images stéréoscopiques
EP3857517B1 (fr) Retouche de scènes tridimensionnelles à l'aide d'une extraction stéréo
EP2987319A1 (fr) Procede de generation d'un flux video de sortie a partir d'un flux video large champ
TWI541761B (zh) 影像處理方法及其電子裝置
Chlubna et al. Out-of-focus artifacts mitigation and autofocus methods for 3D displays
KR101130044B1 (ko) 입체 프리젠테이션 영상 제작 프로그램이 저장된 컴퓨터로 읽을 수 있는 매체, 그 프로그램이 저장된 서버 시스템 및 무 안경 방식의 다 시점 입체영상 출력 엔진용 입체 프리젠테이션 영상 제작방법
Thatte Cinematic virtual reality with head-motion parallax
FR3013492A1 (fr) Procede utilisant des donnees de geometrie 3d pour une presentation et une commande d'image de realite virtuelle dans un espace 3d

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

17P Request for examination filed

Effective date: 20130501

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ORANGE

17Q First examination report despatched

Effective date: 20130906

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20180124