WO2025012529A1 - Method for obtaining a stack of images of a scene, computer program, device, apparatus and vehicle implementing such a method - Google Patents
Method for obtaining a stack of images of a scene, computer program, device, apparatus and vehicle implementing such a method Download PDFInfo
- Publication number
- WO2025012529A1 WO2025012529A1 PCT/FR2023/051061 FR2023051061W WO2025012529A1 WO 2025012529 A1 WO2025012529 A1 WO 2025012529A1 FR 2023051061 W FR2023051061 W FR 2023051061W WO 2025012529 A1 WO2025012529 A1 WO 2025012529A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- stack
- source
- image
- images
- corrected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Definitions
- the present invention relates to a method for obtaining a stack of images of a scene, and in particular to a stack of images in which at least two images, and in particular all the images, represent the scene with a different focus. It also relates to a computer program and a device implementing such a method. It further relates to an apparatus and a vehicle implementing such a method.
- the field of the invention is the field of obtaining a stack of images of a scene at different focuses.
- An aim of the present invention is to remedy at least one of the drawbacks of the state of the art.
- Another aim of the invention is to propose a solution making it possible to obtain a stack of images representing the scene at different focuses comprising fewer, or no, geometric aberrations, thus allowing a representation of said scene with fewer deformations or shifts.
- the invention proposes to achieve at least one of the aforementioned aims by a method of obtaining a stack of images of a scene, from a stack of source images, called source stack, of said scene, said source stack:
- the invention proposes to obtain a stack of images, called a corrected stack, in which the geometric aberrations due to a change of focus during the acquisition of the stack of source images are corrected, in at least one image, and in particular all the stack images (except possibly one).
- the corrected stack does not have, or has fewer, geometric aberrations.
- the corrected image stack it is then possible to produce a representation of the scene on a display medium with little or no deformation or offset during said representation, in particular when switching from one of the images in the corrected stack to another, for example to modify the sharp area of the scene displayed on the display medium.
- the use of the corrected stack does not require any registration of the images forming said corrected stack between them.
- the correction of geometric aberrations does not consist of, or is different from, the registration of the images between them. Indeed, the registration of a first image relative to a second image applies a coordinate transformation that is uniform or identical to all the pixels: for example a translation or a rotation, identical to all the pixels of the image. In a different way, the correction of geometric aberrations is performed with a coordinate transformation that is different for at least two pixels of the image, and in particular all pixels of the image.
- image is meant a digital image, and in particular a matrix image.
- the display medium can be any type of display medium.
- the display medium may be a display screen, such as for example a touch screen, etc.
- the display medium may be a surface onto which an image of the scene is projected, such as for example a display surface associated with a projector, etc.
- the display medium may be a display medium equipping the apparatus implementing the invention, such as:
- the display medium may be a medium independent of the apparatus implementing the invention, for example a display surface, such as a painting, a wall, a curtain, etc., receiving images projected by a projector.
- a display surface such as a painting, a wall, a curtain, etc., receiving images projected by a projector.
- the correction of geometric aberrations in at least one source image is carried out with respect to a reference format.
- the reference format may be a source image in the source stack. That is, one of the source images in the image stack is selected as the reference image. Geometric aberrations in one or each of the other source images in the source stack are corrected with reference to said source image selected as the reference image, or reference format. In this case, potentially all of the source images in the source stack may be corrected, except for the source image selected as the reference format.
- the reference format may be the format of the image sensor.
- the image sensor is chosen as a reference for correcting geometric aberrations in the source images forming the source stack. Geometric aberrations in one or each of the source images of the source stack are corrected with reference to the image sensor. In this case, potentially all of the source images forming the source stack can be corrected.
- This embodiment has the advantage of better correcting the source stack because each of the source images can be corrected.
- this embodiment makes it possible to determine the associated coordinate transformation function(s) associated with the camera module and which can be used for all of the source stacks captured by said camera module, for the same scene or for different scenes.
- the step of correcting geometric aberration(s) in said source image comprises the following steps carried out for at least one pixel of said source image:
- the correction of geometric aberrations is performed individually for each point/pixel of the source image.
- the coordinate transformation applied to one point/pixel may be different from that applied to another point/pixel.
- the conventional registration of a first image with respect to a second image generally applies the same transformation to all the pixels of the first image.
- the transformation function may be a function of the focus of said source image, such that two source images acquired at two different focuses are corrected with different transformation functions.
- the invention makes it possible to achieve better correction of geometric aberrations in source images acquired at different focuses.
- the geometric aberrations introduced into said source images, due to the focus are different.
- a first source image acquired at a first focus comprises geometric aberrations which differ from those found in a second image acquired at a second focus, different from the first. Consequently, the coordinate transformation function used to correct the geometric aberrations in the first image with respect to a reference format is different from the coordinate transformation function used to correct the geometric aberrations in the second image.
- the coordinate transformation functions may be stored in a database by being associated, each, with a focus pair ⁇ focus source image used as reference format; focus corrected source image ⁇ .
- the coordinate transformation functions may be stored in a database by being associated, each, with a focus.
- the coordinate transformation function can be read from said database, depending on the focus of the corrected image.
- At least one coordinate transformation function can be of any type, such as for example in the form of a mathematical relation.
- At least one transformation function can be a previously trained intelligent model, such as a neural network.
- At least one transformation function can be a position correspondence matrix.
- each location of the correspondence matrix can indicate the corrected position of a pixel/point corresponding to said location in the image to be corrected.
- the correspondence matrix can have the same dimensions as the reference format, and in particular the image sensor used for the acquisition of the source stack.
- the reference format comprises (UxV) pixels
- at least one coordinate transformation function can be a matrix of size (UxV).
- each box (ui,vi) of the matrix can comprise values indicating the position (U2,vz), in the corrected image, of a point/pixel located at said position (ui,vi) in the source image to be corrected.
- At least one transformation function depends directly on the camera - objective distance, more precisely, camera - optical equivalent center of the lens.
- the transformation function can then be a homothety whose center is the axis perpendicular to the sensor passing through this optical equivalent center, and whose magnification factor is the ratio between this new distance and that of the so-called reference image.
- This homothety can also be expressed as a field of translation vectors, to the first order radial, centrifugal for a magnification, centripetal for a shrinkage.
- optical equivalent center we mean a point in the lens located on its axis of rotational symmetry, and at a position such that a straight line connecting a point of the scene and its projection on the sensor intercepts this point.
- optical equivalent center we mean a point in the lens located on its axis of rotational symmetry, and at a position such that a straight line connecting a point of the scene and its projection on the sensor intercepts this point.
- the latter can be represented only by the previously defined center point of the sensor - coming from the axis of symmetry - and the ratio of the projection factor, or an absolute projection factor for each lens adjustment value in front of the sensor.
- At least one coordinate transformation function may be determined beforehand, for example during a calibration phase which is not part of the present invention.
- the method according to the invention may further comprise, prior to the correction step, a phase, called the calibration phase, for determining at least one, in particular each, coordinate transformation function.
- At least one coordinate transformation function may be specific to the camera module used for capturing the image stack.
- said at least one coordinate transformation function is a function of the aberrations specific to the change of focus in said camera module. This makes it possible to perform a correction of the aberrations specific to said camera module, and therefore more precise.
- At least one coordinate transformation function may be design-specific, and/or the architecture of the camera module used for capturing the image stack.
- said at least one coordinate transformation function is common to several camera modules having the same design, and/or the same architecture. This makes it possible to equip several devices with the same transformation function(s), which is faster to implement because it does not require characterizing each camera module.
- At least one coordinate transformation function may be specific to a production batch of the camera module used for capturing the image stack.
- said at least one coordinate transformation function is common to several camera modules belonging to the same production batch, which makes it possible to obtain a faster implementation while providing more precision for correcting aberrations.
- At least one coordinate transformation function may not be specific to a camera module.
- the calibration phase can be carried out before or after production of the camera module.
- the calibration phase can be performed before or after acquisition of the source stack.
- the calibration phase can be carried out in the same device as that which carried out the acquisition of the source stack.
- the calibration phase can be carried out in a device other than the one which carried out the acquisition of the source stack.
- the calibration phase can be carried out with the camera module used for capturing the source stack so that at least one transformation function is specific to said camera module.
- at least one coordinate transformation function can be determined by simulation, from a digital model of a camera module.
- the simulation can be carried out, not with a point light ray, but with a reference pattern, such as a target. This makes it possible to carry out the simulation for a multitude of points in space, simultaneously, for a given focus.
- At least one coordinate transformation function can be determined, from a stack of images actually acquired.
- the calibration phase can be performed with a stack of images.
- the calibration phase can comprise the following steps:
- a calibration stack acquisition of a stack of images, called a calibration stack, with at least the same focuses as those of the images in the source stack
- the calibration stack may be a stack of images of a calibration pattern.
- the calibration pattern may be a calibration scene or a pattern such as, for example, a calibration target.
- the calibration phase can be carried out with the source stack, by analysis of the content of the source images forming said source stack.
- the source stack can be analyzed to detect the different objects of the scene on each source image of the scene.
- the pixels corresponding to these objects are then determined, for each source image of the scene, which then makes it possible to deduce each coordinate transformation function.
- At least one coordinate transformation function can be received from a device other than that implementing the correction step, in particular when the source stack has been acquired by said other device.
- said at least one transformation function may be specific to the camera module of said other device.
- the correction step may be implemented in the apparatus used for the acquisition of the source stack.
- the method according to the invention may not include a step of acquiring the source stack.
- the method according to the invention can further comprise a step of acquiring the source stack.
- the source stack can be acquired by any method, and in particular by focus bracketing.
- a computer program comprising executable instructions which, when executed by a computing device, implement all the steps of the method according to the invention.
- the computer program may be in any computer language, such as for example machine language, C, C++, JAVA, Python, etc.
- a device comprising means configured to implement all the steps of the method according to the invention.
- the device according to the invention can be, or be integrated into, any type of device such as a smartphone, a tablet, a computer, a calculator, a processor, a computer chip, programmed to implement the method according to the invention, for example by executing the computer program according to the invention.
- an apparatus comprising:
- At least one camera module comprising an optical lens and an image sensor
- At least one computing unit configured to implement all the steps of the method according to the invention.
- the apparatus according to the invention may comprise at least one means for displaying an image which may be any type of display means.
- the display means may be a display screen, such as for example a touch screen, etc.
- the display means may be a projector projecting images onto a display surface.
- the device may be a user device of the Smartphone, tablet, etc. type.
- the device may be a computer-type user device.
- the apparatus may be a television.
- the device may be a virtual reality or augmented reality headset.
- the device may be a medical imaging device.
- the device may be an endoscope, an ultrasound device, etc.
- a vehicle comprising:
- At least one camera module comprising an optical lens and an image sensor
- At least one computing unit configured to implement the method according to the invention.
- the vehicle may comprise at least one means for displaying an image which may be any type of display means.
- the display means may be a display screen, such as for example a touch screen, etc.
- the display means may be a projector projecting images onto a display surface.
- the vehicle may be a land vehicle, such as a car, autonomous or not.
- the vehicle may be a flying vehicle, such as a drone, an airplane, a helicopter, autonomous or not.
- the vehicle may be a maritime vehicle, such as a boat or a submarine, autonomous or not.
- FIGURES 1-3 are schematic representations of non-limiting exemplary embodiments of a method according to the invention.
- FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of a device according to the invention.
- FIGURES 5a-5c are schematic representations of non-limiting exemplary embodiments of an apparatus according to the invention.
- FIGURE 6 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the invention.
- FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the present invention.
- the method 100 of FIGURE 1 can be used to obtain a stack of images of a scene comprising images acquired at different focuses, comprising no, or very few, geometric aberrations due to the use of different focuses during the acquisition of said images.
- the method 100 takes as input a stack of source images of the scene, called source stack, and denoted PILs.
- This PILs source stack can be captured by the apparatus implementing the method 100 or another apparatus.
- the PILs source stack comprises several images of the scene, at least two of which, and in particular all of them, are captured with different focuses so that each of said images has a different sharpness zone for the scene. In other words, the scene is represented on each of the images with a different sharpness zone.
- the method 100 comprises a step 102 of correcting geometric aberrations for at least one, in particular several, or even all, of the source images forming the PILs source stack, with respect to a reference format and using at least one predetermined coordinate transformation function.
- the reference format may be a source image that is part of the PILs source stack.
- the reference format may be the format of the image sensor used for the acquisition of the source stack.
- the reference format is the format of the image sensor.
- step 102 comprises the following steps performed for at least one, and in particular each, pixel/point of said source image individually.
- a step 104 the position of said point/pixel is given as input to a predetermined coordinate transformation function.
- This coordinate transformation function gives as output a corrected position of this point/pixel.
- a step 106 the pixel/point whose corrected position was identified in step 104 is added to said corrected position in a corrected source image, also called corrected image.
- a corrected source image is constructed for said source image.
- the corrected image represents the scene and does not include, includes very few, geometric aberrations due to the focus used to capture the source image.
- Steps 104 and 106 can be performed for each point/pixel of the source image, in turn or in parallel.
- a stack of corrected images is obtained for the scene.
- the corrected stack PIL C may comprise only corrected images.
- the corrected stack PIL C may comprise a corrected image for each source image of the source stack PIL S .
- the corrected stack PIL C may comprise corrected images and at least one uncorrected source image.
- the corrected stack PIL C may be stored in place of the source stack PILs.
- the corrected stack PIL C is obtained by replacing the source image with the corrected image obtained in step 102 for said source image.
- the corrected PIL C stack may be stored in addition to the PILs source.
- the corrected PIL C stack is constructed in parallel with the source stack PIL S by gradually adding the corrected images obtained in step 102. If at least one source image is not corrected, a copy of it can be added to the corrected stack PIL C.
- The, or each, data transformation function used in step 104 may be any mathematical relationship.
- the, or each, coordinate transformation function is a position correspondence matrix.
- the coordinate transformation function used to correct said source image depends on the focus used for the acquisition of said source image.
- the geomatic aberrations introduced into an image depend on the focus used for the acquisition of said image.
- these aberrations can differ from one image to another when these images are acquired at different focuses.
- the at least one coordinate transformation function is not calculated. Indeed, the at least one transformation function may have been previously calculated. Alternatively, the at least one transformation function may have been provided with the PILs image stack.
- FIGURE 2 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
- the method 200 of FIGURE 2 can be used to obtain a stack of images of a scene comprising images acquired at different focuses, comprising no, or very few, geometric aberrations due to a change of focus during the acquisition of said images.
- the method 200 of FIGURE 2 includes all of the steps of the method 100 of FIGURE 1.
- the method 200 further comprises a phase 202, called the calibration phase, for calculating at least one coordinate transformation function.
- the calibration phase 202 can be carried out by simulation from a digital model of a camera module. Alternatively, the calibration phase 202 can be carried out from images taken by a real camera module.
- the calibration phase 202 can be carried out with the camera module used for the acquisition of the source stack PIL S .
- the calibration phase 202 can be carried out with a camera module other than that used for the acquisition of the source stack PIL S .
- the other camera module can be a camera module having the same design as the camera module used for the acquisition of the source stack PIL S , and/or a camera module produced in the same manufacturing batch as the camera module used for the acquisition of the source stack PILs.
- the calibration phase 202 can be carried out with the source stack PILs or a stack of images from another scene, or even a stack of images from a reference scene.
- the calibration phase 202 is carried out, before the acquisition of the source stack PILs, with a reference scene.
- the reference scene can be any type of scene.
- the reference scene is a test pattern having a known pattern, and arranged at a known distance.
- the calibration phase 202 is carried out with the same camera module as that used for the acquisition of the PILs source stack, or another camera module having the same design and forming part of the same manufacturing batch as that used for the acquisition of the PILs source stack.
- the calibration phase 202 comprises a step 204 of acquiring a stack of images, called a calibration stack, and denoted PILcai.
- the calibration stack PILcai comprises images taken with at least the same focuses as those of the images of the source stack PILs.
- the calibration stack PILcai can be acquired by a focus bracketing technique.
- a step 206 calculates a coordinate transformation function between each image of the calibration stack PILcai and the reference format.
- the reference format may be an image of the calibration stack.
- the reference format is the format of the image sensor.
- each point of the target is identified on said image.
- the coordinate transformation function giving for each position of the image, the corresponding position in the reference format, namely on the sensor is then possible to determine the coordinate transformation function giving for each position of the image, the corresponding position in the reference format, namely on the sensor.
- the coordinate transformation function associated with each image of the PI LCAL calibration stack, and therefore with the focus used for the acquisition of said image is stored in association with said focus.
- this coordinate transformation function can be used to perform a coordinate transformation between an image taken at said focus in order to correct the geometric aberrations due to said focus.
- step 206 provides K coordinate transformation functions. If the PI LCAL calibration stack comprises a high number of focuses, and potentially all possible focuses with the camera module, then it is possible to determine all the transformation functions that could potentially be needed to correct geometric aberrations in the images captured with said camera module.
- each coordinate transformation function is stored in association with the corresponding focus.
- the coordinate transformation functions obtained during the calibration phase 202 can be used for one or more source stacks, and this for the same scene, or different scenes.
- FIGURE 3 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
- the method 300 of FIGURE 3 can be used to obtain an image stack of a scene comprising images acquired at different focuses, not containing, or very few, geometric aberrations due to a change of focus during the acquisition of said images.
- the method 300 of FIGURE 3 includes all of the steps of the method 200 of FIGURE 2.
- the method 300 further comprises a step 302 of acquiring the stack of source images PILs comprising images acquired at different focuses so that said images comprise different areas of sharpness.
- each source image of the source stack PILs is acquired at a different focus from the other images of the source stack PILs.
- the PILs image stack can be acquired using any known technique, for example by focus bracketing.
- the method according to the invention can comprise all the steps of the method 300, but the step 302 of acquiring the source stack PILs can be carried out before the calibration phase 202.
- the method according to the invention can comprise all the steps of the method 300, with the exception of the calibration phase 200.
- FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of a device according to the present invention.
- the device 400 of FIGURE 4 comprises a module 402 implementing the step of correcting geometric aberrations.
- the module 402 comprises a module 404 carrying out an identification of the corrected position of a point/pixel in a source image.
- This module 404 takes as input a position of the point/pixel in the source image and returns a corrected position of said point/pixel in a corrected image, using a coordinate transformation function.
- This module 404 is in particular configured/programmed to carry out step 104 of the methods 100, 200 and 300.
- the module 402 comprises a module 406 carrying out a construction of a corrected image.
- This module 406 is in particular configured/programmed to carry out step 106 of the methods 100, 200 and 300.
- the module 402 comprises a module 408 carrying out a storage of each corrected image in a corrected stack.
- This module 408 is in particular configured/programmed to carry out step 108 of the methods 100, 200 and 300.
- the device 400 may further comprise an optional calibration module 410 for determining the coordinate transformation functions.
- This module 410 is in particular configured/programmed to carry out phase 202 of the methods 200 and 300.
- the device 400 may further comprise an optional module 412 for acquiring a stack of images of a scene, by cooperating with a camera module comprising an image sensor and an optical lens.
- This module 412 is in particular configured/programmed to carry out step 302 of the method 300.
- the optional module 412 may for example be a photo application.
- At least one of the modules of the device 400 may be a module independent of the others.
- At least two modules of the device 400 can be integrated within the same module.
- At least one of the modules of the device 400 may be a hardware module.
- At least one of the modules of the device 400 may be a software module, such as a computer program.
- At least one of the modules of the device 400 may be a combination of at least one software module, such as a computer program, and at least one hardware module.
- At least one of the modules of the device 400 can be integrated into an electronic chip, or even into an application installed in a user device.
- the device 400 may further comprise, optionally, at least one display means 420, such as a touch screen or a display screen. no, or a means of projecting an image onto a medium, to display an image of the scene.
- at least one display means 420 such as a touch screen or a display screen. no, or a means of projecting an image onto a medium, to display an image of the scene.
- Such a display means may be integrated into the device.
- Such a display means is optional because the device may not include such a means.
- the device 400 may be integrated into an apparatus that already has a display means and cooperate with said display means to display the image of the scene.
- the device 400 can be connected to an external display means, or to an external device having a display means or itself connected to a display means.
- the display means may be an electronic display screen.
- the device 400 may further comprise at least one image acquisition means 430, such as a camera, or a camera module, comprising an optical lens and an image sensor, for acquiring an image or a stack of images of the scene.
- image acquisition means 430 such as a camera, or a camera module, comprising an optical lens and an image sensor, for acquiring an image or a stack of images of the scene.
- Such an image acquisition means 430 may be integrated into the device, for example on a front face or on a rear face, or both.
- the device 400 may be connected to an external image acquisition means, or to an external apparatus having an image acquisition means or itself connected to an image acquisition means.
- the device 400 may further comprise, optionally, at least one sensor 450 for detecting:
- the position aimed at by a part of the user's body such as a hand, finger, eye, eyes or the user's face.
- the sensor 450 can be any type of sensor such as a camera, a lidar, a detection surface for example of the capacitive type, etc. [0024] In the example shown in FIGURE 4, and without loss of generality, the sensor 450 may be in the form of a detection surface, of the capacitive type, integrated into the display means 420.
- Such a sensor 450 is optional because the device may not include such a sensor.
- the device 400 may be integrated into an apparatus that already has a sensor.
- FIGURE 5a is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the present invention.
- the apparatus 510 of FIGURE 5a comprises means configured to implement the invention, and in particular any one of the methods 100, 200 and 300.
- the apparatus 510 of FIGURE 5a may comprise a device according to the invention, and in particular the device 400 of FIGURE 4.
- the device 510 is a smartphone, or a tablet, comprising the device 400 of FIGURE 4.
- the device 510 comprises a display screen 420 equipped with a detection surface 450, for example capacitive, and at least one camera module 430.
- FIGURE 5b is a schematic representation of another non-limiting exemplary embodiment of an apparatus according to the present invention.
- the apparatus 520 of FIGURE 5b comprises means configured to implement the invention, and in particular any one of the methods 100, 200 and 300.
- the apparatus 520 of FIGURE 5b may comprise a device according to the invention, and in particular the device 400 of FIGURE 4, without the camera 430.
- the apparatus 520 is a virtual reality, VR, headset, or an augmented reality headset, comprising the device 400 of FIGURE 4.
- the headset 520 comprises a display screen 420, a sensor (not visible in FIGURE 5b) to detect the position aimed by an eye, or eyes, of the user on said display screen 420.
- the headset 520 may comprise at least one camera for capturing images of the scene in which it is located to display them on the screen 420, optionally after enrichment of said images, for example in the context of an augmented reality application.
- FIGURE 5c is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the present invention.
- the apparatus 530 of FIGURE 5c comprises means configured to implement the invention, and in particular any one of the methods 100, 200, and 300.
- the apparatus 530 of FIGURE 5c may comprise a device according to the invention, and in particular the device 400 of FIGURE 4.
- the apparatus is a medical imaging apparatus, such as an endoscope, an ultrasound apparatus, etc. comprising the device 400 of FIGURE 4.
- the medical imaging apparatus 530 comprises a display screen 420 equipped with a detection surface 450, for example capacitive.
- the medical imaging apparatus 530 further comprises an imaging means formed by a distal objective connected to an imaging module (not shown).
- FIGURE 6 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the present invention.
- the vehicle 600 of FIGURE 6 comprises means configured to implement the invention, and in particular any one of the methods 100, 200 and 300.
- the vehicle 600 of FIGURE 6 may comprise a device according to the invention, and in particular the device 400 of FIGURE 4.
- the vehicle 600 is a land vehicle, in particular a car, comprising the device 400 of FIGURE 4.
- the vehicle 600 comprises a display screen 420 equipped with a detection surface 450, for example capacitive, arranged in the passenger compartment of the vehicle 600.
- the vehicle 600 further comprises at least one camera 418, for example arranged on the windshield of the vehicle 600.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
Abstract
Description
DESCRIPTION DESCRIPTION
Titre : Procédé d'obtention d'une pile d'images d'une scène, programme d'ordinateur, dispositif, appareil et véhicule mettant en œuvre un tel procédé. Title: Method for obtaining a stack of images of a scene, computer program, device, apparatus and vehicle implementing such a method.
[0001] La présente invention concerne un procédé d'obtention d'une pile d'images d'une scène, et en particulier une pile d'images dans laquelle au moins deux images, et en particulier toutes les images, représentent la scène avec un focus différent. Elle concerne également un programme d'ordinateur et un dispositif mettant en œuvre un tel procédé. Elle concerne en outre un appareil et un véhicule mettant en œuvre un tel procédé. [0001] The present invention relates to a method for obtaining a stack of images of a scene, and in particular to a stack of images in which at least two images, and in particular all the images, represent the scene with a different focus. It also relates to a computer program and a device implementing such a method. It further relates to an apparatus and a vehicle implementing such a method.
[0002] Le domaine de l'invention est le domaine de l'obtention d'une pile d'images d'une scène à des focus différents. [0002] The field of the invention is the field of obtaining a stack of images of a scene at different focuses.
État de la technique State of the art
[0003] On connaît des techniques permettant de représenter une scène à partir d'une pile d'images prises à différentes distances de focalisation, également appelées focus, profondeurs de champ, différent dans la présente demande. Par exemple, on connaît la technique appelée focus bracketing, ou focus stacking, « empilement de mises au point » en langue française, qui permet de capter une pile d'images d'une scène, chaque image étant captée à une profondeur de champ différente. Ensuite, la scène est représentée sur un support d'affichage, avec une plus grande profondeur de champ, en exploitant la pile d'images. [0003] Techniques are known for representing a scene from a stack of images taken at different focusing distances, also called focus, depths of field, different in the present application. For example, the technique called focus bracketing, or focus stacking, "stacking of focus points" in French, is known, which makes it possible to capture a stack of images of a scene, each image being captured at a different depth of field. Then, the scene is represented on a display medium, with a greater depth of field, by exploiting the stack of images.
[0004] Or, les techniques actuelles, bien qu'améliorant la profondeur de champ de l'image d'une scène présentent des inconvénients. Lors de l'acquisition de la pile d'images par un module caméra comprenant un capteur d'image et un objectif optique, la distance entre le capteur d'image et l'objectif optique est modifiée pour changer le focus, en particulier pour l'acquisition de chaque image. Les inventeurs ont remarqué que cette modification de focus engendre des déformations, ou des décalages, dans les images et donc dégrade la représentation de la scène sur un support d'affichage à partir de la pile d'images ainsi obtenue. [0004] However, current techniques, although improving the depth of field of the image of a scene, have drawbacks. When acquiring the stack of images by a camera module comprising an image sensor and an optical lens, the distance between the image sensor and the optical lens is modified to change the focus, in particular for the acquisition of each image. The inventors have noticed that this change in focus causes distortions, or shifts, in the images and therefore degrades the representation of the scene on a display medium from the stack of images thus obtained.
[0005] Un but de la présente invention est de remédier à au moins un des inconvénients de l'état de la technique. [0005] An aim of the present invention is to remedy at least one of the drawbacks of the state of the art.
[0006] Un autre but de l'invention est de proposer une solution permettant d'obtenir une pile d'images représentant la scène à des focus différents comprenant moins, ou pas, d'aberrations géométriques permettant ainsi une représentation de ladite scène avec moins de déformations ou de décalages. [0006] Another aim of the invention is to propose a solution making it possible to obtain a stack of images representing the scene at different focuses comprising fewer, or no, geometric aberrations, thus allowing a representation of said scene with fewer deformations or shifts.
Exposé de l'invention Disclosure of the invention
[0007] L'invention propose d'atteindre au moins l'un des buts précités par un procédé d'obtention d'une pile d'images d'une scène, à partir d'une pile d'images sources, dite pile source, de ladite scène, ladite pile source : [0007] The invention proposes to achieve at least one of the aforementioned aims by a method of obtaining a stack of images of a scene, from a stack of source images, called source stack, of said scene, said source stack:
- comprenant au moins deux images sources acquises à des focus différents, de sorte que lesdites au moins deux images sources ont des zones de netteté différentes pour ladite scène, et - comprising at least two source images acquired at different focuses, such that said at least two source images have different areas of sharpness for said scene, and
- ayant été acquise avec un module caméra comprenant au moins un objectif optique et au moins un capteur d'image ; ledit procédé comprenant les étapes suivantes pour au moins une image source de ladite pile source : - having been acquired with a camera module comprising at least one optical lens and at least one image sensor; said method comprising the following steps for at least one source image of said source stack:
- correction d'aberration(s) géométrique(s) dans ladite image source, prédéterminé, par application, à au moins un pixel de ladite image source, d'une fonction de transformation de coordonnées prédéterminée par rapport à un format de référence, ladite correction fournissant une image corrigée, et - correction of geometric aberration(s) in said source image, predetermined, by application, to at least one pixel of said source image, of a predetermined coordinate transformation function relative to a reference format, said correction providing a corrected image, and
- mémorisation d'une pile d'images, dite corrigée, comprenant ladite au moins une image corrigée à la place de ladite image source. - storing a stack of images, called corrected, comprising said at least one corrected image in place of said source image.
[0008] Ainsi, l'invention propose d'obtenir une pile d'images, dite pile corrigée, dans laquelle les aberrations géométriques dues à un changement de focus lors de l'acquisition de la pile d'images sources sont corrigées, dans au moins une image, et en particulier toutes les images de pile (sauf éventuellement une). De ce fait, la pile corrigée ne présente pas, ou présente moins, d'aberrations géométriques. En utilisant la pile d'images corrigée, il est alors possible de réaliser une représentation de la scène sur un support d'affichage avec peu, ou pas, de déformations, ou de décalages, lors de ladite représentation, en particulier lors de basculement d'une des images de la pile corrigée ou à une autre, par exemple pour modifier la zone nette de la scène affichée sur le support d'affichage. De plus, l'utilisation de la pile corrigée ne nécessite pas de recalage, entre elles, des images formant ladite pile corrigée. [0009] Il est à noter que la correction des aberrations géométriques ne consiste pas, ou est différent, du recalage des images entre elles. En effet, le recalage d'une première image par rapport à une deuxième image applique une transformation de coordonnées qui est uniforme, ou identique, à tous les pixels : par exemple une translation ou une rotation, identique à tous les pixels de l'image. De manière différente, la correction d'aberrations géométriques est réalisée avec une transformation de coordonnées qui est différente pour au moins deux pixels de l'image, et en particulier tous les pixels de l'image. [0008] Thus, the invention proposes to obtain a stack of images, called a corrected stack, in which the geometric aberrations due to a change of focus during the acquisition of the stack of source images are corrected, in at least one image, and in particular all the stack images (except possibly one). As a result, the corrected stack does not have, or has fewer, geometric aberrations. By using the corrected image stack, it is then possible to produce a representation of the scene on a display medium with little or no deformation or offset during said representation, in particular when switching from one of the images in the corrected stack to another, for example to modify the sharp area of the scene displayed on the display medium. In addition, the use of the corrected stack does not require any registration of the images forming said corrected stack between them. [0009] It should be noted that the correction of geometric aberrations does not consist of, or is different from, the registration of the images between them. Indeed, the registration of a first image relative to a second image applies a coordinate transformation that is uniform or identical to all the pixels: for example a translation or a rotation, identical to all the pixels of the image. In a different way, the correction of geometric aberrations is performed with a coordinate transformation that is different for at least two pixels of the image, and in particular all pixels of the image.
[0010] Par image, on entend une image numérique, et en particulier une image matricielle. [0010] By image is meant a digital image, and in particular a matrix image.
[0011] Selon l'invention, le support d'affichage peut être tout type de support d'affichage. [0011] According to the invention, the display medium can be any type of display medium.
[0012] Par exemple, le support d'affichage peut être un écran d'affichage, tel que par exemple un écran tactile, etc. [0012] For example, the display medium may be a display screen, such as for example a touch screen, etc.
[0013] Par exemple, le support d'affichage peut être une surface sur laquelle est projetée une image de la scène, tel que par exemple une surface d'affichage associée à un projecteur, etc. [0013] For example, the display medium may be a surface onto which an image of the scene is projected, such as for example a display surface associated with a projector, etc.
[0014] Le support d'affichage peut être un support d'affichage équipant l'appareil mettant en œuvre l'invention, tel que : [0014] The display medium may be a display medium equipping the apparatus implementing the invention, such as:
- un écran d'affichage équipant ledit appareil, etc. ou - a display screen equipping said device, etc. or
- une surface de projection équipant ledit appareil. - a projection surface equipping said device.
[0015] Le support d'affichage peut être un support indépendant de l'appareil mettant en œuvre l'invention, par exemple une surface d'affichage, tel qu'un tableau, un mur, un rideau, etc., recevant des images projetées par un projecteur. [0015] The display medium may be a medium independent of the apparatus implementing the invention, for example a display surface, such as a a painting, a wall, a curtain, etc., receiving images projected by a projector.
[0016] Selon l'invention, la correction des aberrations géométriques dans au moins une image source est réalisée par rapport à un format de référence. [0016] According to the invention, the correction of geometric aberrations in at least one source image is carried out with respect to a reference format.
[0017] Suivant des modes de réalisation, le format de référence peut être une image source de la pile source. Autrement dit, une des images sources se trouvant dans la pile d'image est choisie comme image de référence. Les aberrations géométriques dans une, ou chacune, des autres images sources se trouvant dans la pile source sont corrigées en référence à ladite image source choisie comme image de référence, ou format de référence. Dans ce cas, potentiellement, toutes les images sources se trouvant dans la pile source peuvent être corrigées, à l'exception de l'image source choisie comme format de référence. [0017] In embodiments, the reference format may be a source image in the source stack. That is, one of the source images in the image stack is selected as the reference image. Geometric aberrations in one or each of the other source images in the source stack are corrected with reference to said source image selected as the reference image, or reference format. In this case, potentially all of the source images in the source stack may be corrected, except for the source image selected as the reference format.
[0018] Suivant des modes de réalisation, le format de référence peut être le format du capteur d'image. Autrement dit, le capteur d'image est choisi comme référence pour la correction des aberrations géométriques dans les images sources formant la pile source. Les aberrations géométriques dans une, ou chacune, des images sources de la pile source sont corrigées en référence au capteur d'image. Dans ce cas, potentiellement, toutes les images sources formant la pile source peuvent être corrigées. Ce mode de réalisation présente l'avantage de mieux corriger la pile source car chacune des images sources peut être corrigée. De plus, ce mode de réalisation permet de déterminer la ou les fonctions de transformation de coordonnées associée(s) associée(s) au module caméra et qui peuvent être utilisées pour toutes les piles sources captées par ledit module caméra, pour la même scène ou pour des scènes différentes. [0018] According to embodiments, the reference format may be the format of the image sensor. In other words, the image sensor is chosen as a reference for correcting geometric aberrations in the source images forming the source stack. Geometric aberrations in one or each of the source images of the source stack are corrected with reference to the image sensor. In this case, potentially all of the source images forming the source stack can be corrected. This embodiment has the advantage of better correcting the source stack because each of the source images can be corrected. In addition, this embodiment makes it possible to determine the associated coordinate transformation function(s) associated with the camera module and which can be used for all of the source stacks captured by said camera module, for the same scene or for different scenes.
[0019] Suivant des modes de réalisation, pour au moins une image source, l'étape de correction d'aberration(s) géométrique(s) dans ladite image source comprend les étapes suivantes réalisées pour au moins un pixel de ladite image source : [0019] According to embodiments, for at least one source image, the step of correcting geometric aberration(s) in said source image comprises the following steps carried out for at least one pixel of said source image:
- calcul, par la fonction de transformation de coordonnées prédéterminée prenant en entrée la position dudit pixel dans ladite image source, d'une position, dite corrigée, dudit pixel dans le format de référence, et - calculation, by the predetermined coordinate transformation function taking as input the position of said pixel in said source image, of a position, called corrected, of said pixel in the reference format, and
- recalage dudit pixel à ladite position corrigée. - resetting of said pixel to said corrected position.
[0020] Ainsi, la correction d'aberrations géométriques est réalisée individuellement pour chaque point/pixel de l'image source. La transformation de coordonnées appliquée à un point/pixel peut être différente de celle appliquée à un autre point/pixel. En comparaison, le recalage classique d'une première image par rapport à une deuxième image applique généralement la même transformation à tous les pixels de la première image. [0020] Thus, the correction of geometric aberrations is performed individually for each point/pixel of the source image. The coordinate transformation applied to one point/pixel may be different from that applied to another point/pixel. In comparison, the conventional registration of a first image with respect to a second image generally applies the same transformation to all the pixels of the first image.
[0021] Suivant des modes de réalisation, pour au moins une image source, la fonction de transformation peut être fonction du focus de ladite image source, de sorte que deux images sources acquises à deux focus différents sont corrigées avec des fonctions de transformation différentes. [0021] According to embodiments, for at least one source image, the transformation function may be a function of the focus of said source image, such that two source images acquired at two different focuses are corrected with different transformation functions.
[0022] Ainsi, l'invention permet de réaliser une meilleure correction des aberrations géométriques dans les images sources acquises à des focus différents. En effet, lorsque des images sources sont acquises avec des focus différents, les aberrations géométriques introduites dans lesdites images sources, dues au focus, sont différentes. Autrement dit, une première image source acquise à un premier focus comprend des aberrations géométriques qui diffèrent de celles se trouvant dans une deuxième image acquise à un deuxième focus, différent du premier. Par conséquent, la fonction de transformation de coordonnées utilisée pour corriger les aberrations géométriques dans la première image par rapport à un format de référence est différente de la fonction de transformation de coordonnées utilisée pour corriger les aberrations géométriques dans la deuxième image. [0022] Thus, the invention makes it possible to achieve better correction of geometric aberrations in source images acquired at different focuses. Indeed, when source images are acquired with different focuses, the geometric aberrations introduced into said source images, due to the focus, are different. In other words, a first source image acquired at a first focus comprises geometric aberrations which differ from those found in a second image acquired at a second focus, different from the first. Consequently, the coordinate transformation function used to correct the geometric aberrations in the first image with respect to a reference format is different from the coordinate transformation function used to correct the geometric aberrations in the second image.
[0023] Pour une pile source comprenant K images sources prises à K focus différents, et dans le cas où le format de référence est une des images sources de la pile source, il peut y avoir un nombre total de (K-l) fonctions de transformations de coordonnées. Dans ce cas, les fonctions de transformation de coordonnées peuvent être mémorisées dans une base de données en étant associées, chacune, à un couple de focus {focus image source utilisée comme format de référence ; focus image source corrigée}. [0024] Alternativement, pour une pile source comprenant K images sources prises à K focus différents, et dans le cas où le format de référence n'est pas une des images sources formant la pile source, par exemple lorsque le format de référence est le capteur d'image, il peut y avoir un nombre total de K fonctions de transformations de coordonnées. Dans ce cas, les fonctions de transformation de coordonnées peuvent être mémorisées dans une base de données en étant associées, chacune, à un focus. [0023] For a source stack comprising K source images taken at K different focuses, and in the case where the reference format is one of the source images of the source stack, there may be a total number of (Kl) coordinate transformation functions. In this case, the coordinate transformation functions may be stored in a database by being associated, each, with a focus pair {focus source image used as reference format; focus corrected source image}. [0024] Alternatively, for a source stack comprising K source images taken at K different focuses, and in the case where the reference format is not one of the source images forming the source stack, for example when the reference format is the image sensor, there may be a total number of K coordinate transformation functions. In this case, the coordinate transformation functions may be stored in a database by being associated, each, with a focus.
[0025] Lors de l'étape de correction, la fonction de transformation de coordonnées peut être lue depuis ladite base de données, en fonction du focus de l'image corrigée. [0025] During the correction step, the coordinate transformation function can be read from said database, depending on the focus of the corrected image.
[0026] Au moins une fonction de transformation de coordonnées peut se présenter sous tout type, tel que par exemple sous la forme d'une relation mathématique. [0026] At least one coordinate transformation function can be of any type, such as for example in the form of a mathematical relation.
[0027] Suivant des modes de réalisation, mais non limitatifs, au moins une fonction de transformation peut être un modèle intelligent préalablement entraîné, tel qu'un réseau de neurones. [0027] According to embodiments, but not limiting, at least one transformation function can be a previously trained intelligent model, such as a neural network.
[0028] Suivant des modes de réalisation, mais non limitatifs, au moins une fonction de transformation peut être une matrice de correspondance de positions. Dans ce cas, chaque emplacement de la matrice de correspondance peut indiquer la position corrigée d'un pixel/point correspond audit emplacement dans l'image à corriger. En particulier, la matrice de correspondance peut avoir les mêmes dimensions que le format de référence, et en particulier le capteur d'image utilisé pour l'acquisition de la pile source. Autrement dit, si le format de référence comporte (UxV) pixels, au moins une fonction de transformation de coordonnées peut être une matrice de taille (UxV). Dans ce cas, par exemple, chaque case (ui,vi) de la matrice peut comprendre des valeurs indiquant la position (U2,vz), dans l'image corrigée, d'un point/pixel se trouvant à ladite position (ui,vi) dans l'image source à corriger. [0028] According to embodiments, but not limiting, at least one transformation function can be a position correspondence matrix. In this case, each location of the correspondence matrix can indicate the corrected position of a pixel/point corresponding to said location in the image to be corrected. In particular, the correspondence matrix can have the same dimensions as the reference format, and in particular the image sensor used for the acquisition of the source stack. In other words, if the reference format comprises (UxV) pixels, at least one coordinate transformation function can be a matrix of size (UxV). In this case, for example, each box (ui,vi) of the matrix can comprise values indicating the position (U2,vz), in the corrected image, of a point/pixel located at said position (ui,vi) in the source image to be corrected.
[0029] Au premier ordre, c'est-à-dire pour un objectif optique ne comportant pas d'aberration géométrique, au moins une fonction de transformation dépend directement de la distance caméra - objectif, plus exactement, caméra - centre équivalent optique de l'objectif. La fonction de transformation peut être alors une homothétie dont le centre est l'axe perpendiculaire au capteur passant par ce centre optique équivalent, et dont le facteur de grossissement est le rapport entre cette nouvelle distance et celle de l'image dite de référence. Cette homothétie peut être exprimée aussi comme un champ de vecteurs de translation, au premier ordre radiaux, centrifuges pour un grossissement, centripètes pour un rétrécissement. Par centre optique équivalent, on entend un point dans l'objectif situé sur son axe de symétrie de rotation, et à une position telle qu'une droite reliant un point de la scène et sa projection sur le capteur intercepte ce point. On peut indexer les images de la pile d'images par cette distance caméra - centre équivalent optique de l'objectif, afin de réduire la base des corrections à mémoriser. Cette dernière pouvant être représentée uniquement par le point centre du capteur précédemment défini - issu de l'axe de symétrie - et le ratio du facteur de projection, ou un facteur de projection absolu pour chaque valeur de réglage de l'objectif devant le capteur. [0029] To the first order, that is to say for an optical objective not having geometric aberration, at least one transformation function depends directly on the camera - objective distance, more precisely, camera - optical equivalent center of the lens. The transformation function can then be a homothety whose center is the axis perpendicular to the sensor passing through this optical equivalent center, and whose magnification factor is the ratio between this new distance and that of the so-called reference image. This homothety can also be expressed as a field of translation vectors, to the first order radial, centrifugal for a magnification, centripetal for a shrinkage. By optical equivalent center, we mean a point in the lens located on its axis of rotational symmetry, and at a position such that a straight line connecting a point of the scene and its projection on the sensor intercepts this point. We can index the images of the image stack by this camera - optical equivalent center of the lens distance, in order to reduce the basis of the corrections to be memorized. The latter can be represented only by the previously defined center point of the sensor - coming from the axis of symmetry - and the ratio of the projection factor, or an absolute projection factor for each lens adjustment value in front of the sensor.
[0030] Au moins une fonction de transformation de coordonnées peut être déterminée préalablement, par exemple lors d'une phase de calibration qui ne fait pas partie de la présente invention. [0030] At least one coordinate transformation function may be determined beforehand, for example during a calibration phase which is not part of the present invention.
[0031] Alternativement, le procédé selon l'invention peut en outre comprendre, préalablement à l'étape de correction, une phase, dite phase de calibration, pour déterminer au moins une, en particulier chaque, fonction de transformation de coordonnées. [0031] Alternatively, the method according to the invention may further comprise, prior to the correction step, a phase, called the calibration phase, for determining at least one, in particular each, coordinate transformation function.
[0032] De préférence, mais sans perte de généralité, au moins une fonction de transformation de coordonnées peut être spécifique au module caméra utilisé pour la captation de la pile d'images. Ainsi, ladite au moins une fonction de transformation de coordonnées est fonction des aberrations spécifiques au changement de focus dans ledit module caméra. Cela permet de réaliser une correction des aberrations spécifique audit module caméra, et donc plus précise. [0032] Preferably, but without loss of generality, at least one coordinate transformation function may be specific to the camera module used for capturing the image stack. Thus, said at least one coordinate transformation function is a function of the aberrations specific to the change of focus in said camera module. This makes it possible to perform a correction of the aberrations specific to said camera module, and therefore more precise.
[0033] Alternativement, ou en plus, au moins au moins une fonction de transformation de coordonnées peut être spécifique au design, et/ou à l'architecture, du module caméra utilisé pour la captation de la pile d'images. Dans ce cas, ladite au moins une fonction de transformation de coordonnées est commune à plusieurs modules caméra ayant le même design, et/ou la même architecture. Cela permet d'équiper plusieurs appareils de(s) même(s) fonction(s) de transformation, ce qui est plus rapide à implémenter car cela ne nécessite de pas de caractériser chaque module caméra. [0033] Alternatively, or in addition, at least one coordinate transformation function may be design-specific, and/or the architecture of the camera module used for capturing the image stack. In this case, said at least one coordinate transformation function is common to several camera modules having the same design, and/or the same architecture. This makes it possible to equip several devices with the same transformation function(s), which is faster to implement because it does not require characterizing each camera module.
[0034] Alternativement, ou en plus, au moins une fonction de transformation de coordonnées peut être spécifique à un lot de production du module caméra utilisé pour la captation de la pile d'images. Dans ce cas, ladite au moins une fonction de transformation de coordonnées est commune à plusieurs modules caméra appartenant à un même lot de production, ce qui permet d'obtenir une implémentation plus rapide tout en proposant plus de précision pour la correction des aberrations. [0034] Alternatively, or in addition, at least one coordinate transformation function may be specific to a production batch of the camera module used for capturing the image stack. In this case, said at least one coordinate transformation function is common to several camera modules belonging to the same production batch, which makes it possible to obtain a faster implementation while providing more precision for correcting aberrations.
[0035] Alternativement, ou en plus, au moins au moins une fonction de transformation de coordonnées peut ne pas être spécifique à un module caméra. [0035] Alternatively, or in addition, at least one coordinate transformation function may not be specific to a camera module.
[0036] La phase de calibration peut être réalisée avant ou après production du module caméra. [0036] The calibration phase can be carried out before or after production of the camera module.
[0037] La phase de calibration peut être réalisée avant ou après acquisition de la pile source. [0037] The calibration phase can be performed before or after acquisition of the source stack.
[0038] La phase de calibration peut être réalisée dans le même appareil que celui ayant réalisé l'acquisition de la pile source. [0038] The calibration phase can be carried out in the same device as that which carried out the acquisition of the source stack.
[0039] La phase de calibration peut être réalisée dans un appareil autre que celui ayant réalisé l'acquisition de la pile source. [0039] The calibration phase can be carried out in a device other than the one which carried out the acquisition of the source stack.
[0040] De préférence, mais de manière nullement limitative, la phase de calibration peut être réalisée avec le module caméra utilisé pour la captation de la pile source de sorte qu'au moins une fonction de transformation est spécifique audit module caméra. [0041] Suivant un exemple de réalisation, au moins une fonction de transformation de coordonnées peut être déterminée par simulation, à partir d'un modèle numérique de module caméra. [0040] Preferably, but in no way limiting manner, the calibration phase can be carried out with the camera module used for capturing the source stack so that at least one transformation function is specific to said camera module. [0041] According to an exemplary embodiment, at least one coordinate transformation function can be determined by simulation, from a digital model of a camera module.
[0042] Par exemple, il est possible de simuler par un logiciel de simulation, par exemple de type Zemax ®, prenant en entrée un modèle numérique du module caméra, la propagation d'un rayon lumineux dans ledit module caméra. Cette simulation peut être réitérée : [0042] For example, it is possible to simulate by simulation software, for example of the Zemax® type, taking as input a digital model of the camera module, the propagation of a light ray in said camera module. This simulation can be repeated:
- pour différents focus, et en particulier les focus correspondants à ceux utilisés lors de l'acquisition de la pile source ; et/ou - for different focuses, and in particular the focuses corresponding to those used when acquiring the source stack; and/or
- pour différents points de l'espace. - for different points in space.
Il est alors possible d'identifier par simulation, le pixel recevant le rayon lumineux, pour différents points de l'espace et pour différents focus, ce qui permet de déterminer la ou les fonctions de transformation de coordonnées. [0043] La simulation peut être menée, non pas avec un rayon lumineux ponctuel, mais avec un motif de référence, tel qu'une mire. Cela permet de réaliser la simulation pour une multitude de points dans l'espace, de manière simultanée, pour un focus donné It is then possible to identify by simulation, the pixel receiving the light ray, for different points in space and for different focuses, which makes it possible to determine the coordinate transformation function(s). [0043] The simulation can be carried out, not with a point light ray, but with a reference pattern, such as a target. This makes it possible to carry out the simulation for a multitude of points in space, simultaneously, for a given focus.
[0044] Suivant un exemple de réalisation, au moins une fonction de transformation de coordonnées peut être déterminée, à partir d'une pile d'images réellement acquise. [0044] According to an exemplary embodiment, at least one coordinate transformation function can be determined, from a stack of images actually acquired.
[0045] Suivant un mode de réalisation, la phase de calibration peut être réalisée avec une pile d'images. Dans ce cas, la phase de calibration peut comprendre les étapes suivantes : [0045] According to one embodiment, the calibration phase can be performed with a stack of images. In this case, the calibration phase can comprise the following steps:
- acquisition d'une pile d'images, dite pile de calibration, avec au moins les mêmes focus que ceux des images de la pile source, et- acquisition of a stack of images, called a calibration stack, with at least the same focuses as those of the images in the source stack, and
- déduction de ladite pile de calibration d'au moins une fonction de transformation de coordonnées. - deduction from said calibration stack of at least one coordinate transformation function.
[0046] La pile de calibration peut être une pile d'images d'un motif de calibration. Le motif de calibration peut être une scène de calibration ou un motif tel que par exemple une mire de calibration. [0046] The calibration stack may be a stack of images of a calibration pattern. The calibration pattern may be a calibration scene or a pattern such as, for example, a calibration target.
[0047] Lors de la phase de calibration, plusieurs images sont captées, réellement ou par simulation, pour constituer une pile de calibration, chacune à un focus parmi plusieurs focus, tel que par exemple les focus utilisés lors de l'acquisition de la pile d'images de la scène. Le motif de calibration étant connu, il est possible de déterminer, pour chaque point du motif de calibration, le pixel auquel il correspond, et ce pour chacun des focus utilisés. En connaissant, pour chaque point du motif de calibration, le pixel qui lui correspond pour chacun des focus, il est alors possible d'établir les fonctions de transformation de coordonnées, par exemple sous la forme de matrices de correspondance, ou sous la forme de fonctions mathématiques. [0047] During the calibration phase, several images are captured, either in real life or by simulation, to constitute a calibration stack, each to a focus among several focuses, such as for example the focuses used during the acquisition of the stack of images of the scene. The calibration pattern being known, it is possible to determine, for each point of the calibration pattern, the pixel to which it corresponds, and this for each of the focuses used. By knowing, for each point of the calibration pattern, the pixel which corresponds to it for each of the focuses, it is then possible to establish the coordinate transformation functions, for example in the form of correspondence matrices, or in the form of mathematical functions.
[0048] Suivant une autre alternative, la phase de calibration peut être réalisée avec la pile source, par analyse du contenu des images sources formant ladite pile source. [0048] According to another alternative, the calibration phase can be carried out with the source stack, by analysis of the content of the source images forming said source stack.
[0049] Dans ce cas, la pile source peut être analysée pour y détecter les différents objets de la scène sur chaque image source de la scène. Les pixels correspondants à ces objets sont ensuite déterminés, pour chaque image source de la scène, ce qui permet ensuite d'en déduire chaque fonction de transformation de coordonnées. [0049] In this case, the source stack can be analyzed to detect the different objects of the scene on each source image of the scene. The pixels corresponding to these objects are then determined, for each source image of the scene, which then makes it possible to deduce each coordinate transformation function.
[0050] Suivant des modes de réalisation, au moins une fonction de transformation de coordonnées peut être reçue d'un autre appareil que celui mettant en œuvre l'étape de correction, en particulier lorsque la pile source a été acquise par ledit autre appareil. [0050] According to embodiments, at least one coordinate transformation function can be received from a device other than that implementing the correction step, in particular when the source stack has been acquired by said other device.
[0051] Dans ce cas, de préférence, ladite au moins une fonction de transformation peut être spécifique au module caméra dudit autre appareil. [0051] In this case, preferably, said at least one transformation function may be specific to the camera module of said other device.
[0052] Alternativement, l'étape de correction peut être mise en œuvre dans l'appareil utilisé pour l'acquisition de la pile source. [0052] Alternatively, the correction step may be implemented in the apparatus used for the acquisition of the source stack.
[0053] Suivant des modes de réalisation, le procédé selon l'invention peut ne pas comprendre d'étape d'acquisition de la pile source. [0053] According to embodiments, the method according to the invention may not include a step of acquiring the source stack.
[0054] Suivant des modes de réalisation, le procédé selon l'invention peut en outre comprendre une étape d'acquisition de la pile source. La pile source peut être acquise par toute méthode, et en particulier par focus bracketing. [0055] Selon un autre aspect de l'invention, il est proposé un programme d'ordinateur comprenant des instructions exécutables qui, lorsqu'elles sont exécutées par un appareil informatique, mettent en en œuvre toutes les étapes du procédé selon l'invention. [0054] According to embodiments, the method according to the invention can further comprise a step of acquiring the source stack. The source stack can be acquired by any method, and in particular by focus bracketing. [0055] According to another aspect of the invention, there is provided a computer program comprising executable instructions which, when executed by a computing device, implement all the steps of the method according to the invention.
[0056] Le programme d'ordinateur peut être en tout langage informatique, tel que par exemple en langage machine, en C, C++, JAVA, Python, etc. [0056] The computer program may be in any computer language, such as for example machine language, C, C++, JAVA, Python, etc.
[0057] Selon un autre aspect de l'invention, il est proposé un dispositif comprenant des moyens configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention. [0057] According to another aspect of the invention, a device is proposed comprising means configured to implement all the steps of the method according to the invention.
[0058] Le dispositif selon l'invention peut être, ou être intégré dans, tout type d'appareil tel qu'un smartphone, une tablette, un ordinateur, un calculateur, un processeur, une puce informatique, programmé pour mettre en œuvre le procédé selon l'invention, par exemple en exécutant le programme d'ordinateur selon l'invention. [0058] The device according to the invention can be, or be integrated into, any type of device such as a smartphone, a tablet, a computer, a calculator, a processor, a computer chip, programmed to implement the method according to the invention, for example by executing the computer program according to the invention.
[0059] Selon un autre aspect de l'invention, il est proposé un appareil comprenant : [0059] According to another aspect of the invention, there is provided an apparatus comprising:
- au moins un module caméra comprenant un objectif optique et un capteur d'image, et - at least one camera module comprising an optical lens and an image sensor, and
- au moins une unité de calcul ; configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention. - at least one computing unit; configured to implement all the steps of the method according to the invention.
[0060] L'appareil selon l'invention peut comprendre au moins un moyen d'affichage d'une image qui peut être tout type de moyen d'affichage. [0060] The apparatus according to the invention may comprise at least one means for displaying an image which may be any type of display means.
[0061] Par exemple, le moyen d'affichage peut être un écran d'affichage, tel que par exemple un écran tactile, etc. [0061] For example, the display means may be a display screen, such as for example a touch screen, etc.
[0062] Par exemple, le moyen d'affichage peut être un projecteur projetant des images sur une surface d'affichage. [0063] En particulier, l'appareil peut être un appareil utilisateur de type Smartphone, tablette, etc. [0062] For example, the display means may be a projector projecting images onto a display surface. [0063] In particular, the device may be a user device of the Smartphone, tablet, etc. type.
[0064] En particulier, l'appareil peut être un appareil utilisateur de type ordinateur. [0064] In particular, the device may be a computer-type user device.
[0065] En particulier, l'appareil peut être une télévision. [0065] In particular, the apparatus may be a television.
[0066] En particulier, l'appareil peut être un casque de réalité virtuelle ou de réalité augmentée. [0066] In particular, the device may be a virtual reality or augmented reality headset.
[0067] En particulier, l'appareil peut être dispositif d'imagerie médical. [0067] In particular, the device may be a medical imaging device.
[0068] En particulier, l'appareil peut être un endoscope, un appareil d'échographie, etc. [0068] In particular, the device may be an endoscope, an ultrasound device, etc.
[0069] Bien entendu, l'invention n'est pas limitée aux appareils qui viennent d'être donnés. [0069] Of course, the invention is not limited to the devices which have just been given.
[0070] Selon un autre aspect de la présente invention, il est proposé un véhicule comprenant : [0070] According to another aspect of the present invention, there is provided a vehicle comprising:
- au moins un module caméra comprenant un objectif optique et un capteur d'image, et - at least one camera module comprising an optical lens and an image sensor, and
- au moins une unité de calcul ; configurés pour mettre en œuvre le procédé selon l'invention. - at least one computing unit; configured to implement the method according to the invention.
[0071] Le véhicule peut comprendre au moins un moyen d'affichage d'une image qui peut être tout type de moyen d'affichage. [0071] The vehicle may comprise at least one means for displaying an image which may be any type of display means.
[0072] Par exemple, le moyen d'affichage peut être un écran d'affichage, tel que par exemple un écran tactile, etc. [0072] For example, the display means may be a display screen, such as for example a touch screen, etc.
[0073] Par exemple, le moyen d'affichage peut être un projecteur projetant des images sur une surface d'affichage. [0074] Suivant des modes de réalisation, le véhicule peut être un véhicule terrestre, tel qu'une voiture, autonome ou non. [0073] For example, the display means may be a projector projecting images onto a display surface. [0074] According to embodiments, the vehicle may be a land vehicle, such as a car, autonomous or not.
[0075] Suivant des modes de réalisation, le véhicule peut être un véhicule volant, tel qu'un drone, un avion, un hélicoptère, autonome ou non. [0075] According to embodiments, the vehicle may be a flying vehicle, such as a drone, an airplane, a helicopter, autonomous or not.
[0076] Suivant des modes de réalisation, le véhicule peut être un véhicule maritime, tel qu'un bateau ou un sous-marin, autonome ou non. [0076] According to embodiments, the vehicle may be a maritime vehicle, such as a boat or a submarine, autonomous or not.
Description des figures et modes de réalisation Description of figures and embodiments
[0077] D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée de modes de réalisation nullement limitatifs, et des dessins annexés sur lesquels : [0077] Other advantages and characteristics will appear on examining the detailed description of non-limiting embodiments, and the attached drawings in which:
- les FIGURES 1-3 sont des représentations schématiques d'exemples de réalisation non limitatifs d'un procédé selon l'invention ;- FIGURES 1-3 are schematic representations of non-limiting exemplary embodiments of a method according to the invention;
- la FIGURE 4 est une représentation schématique d'un exemple de réalisation non limitatif d'un dispositif selon l'invention ; - FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of a device according to the invention;
- les FIGURES 5a-5c sont des représentations schématiques d'exemples de réalisation non limitatifs d'un appareil selon l'invention ; et - FIGURES 5a-5c are schematic representations of non-limiting exemplary embodiments of an apparatus according to the invention; and
- la FIGURE 6 est une représentation schématique d'un exemple de réalisation non limitatif d'un véhicule selon l'invention. - FIGURE 6 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the invention.
[0078] Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si c’est cette partie qui est uniquement suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. [0079] En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan technique. [0078] It is understood that the embodiments that will be described below are in no way limiting. In particular, it will be possible to imagine variants of the invention comprising only a selection of features described below isolated from the other features described, if this selection of features is sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art. This selection comprises at least one preferably functional feature without structural details, or with only a part of the structural details if it is this part which is only sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art. [0079] In particular, all the variants and embodiments described can be combined with each other if there is no technical obstacle to this combination.
[0080] Sur les figures et dans la suite de la description, les éléments communs à plusieurs figures conservent la même référence. [0080] In the figures and in the remainder of the description, the elements common to several figures retain the same reference.
[0081] La FIGURE 1 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé selon la présente invention. [0081] FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the present invention.
[0082] Le procédé 100 de la FIGURE 1 peut être utilisé pour obtenir une pile d'images d'une scène comportant des images acquises à des focus différents, ne comportant pas, ou très peu, d'aberrations géométriques dues à l'utilisation de différents focus lors de l'acquisition desdites images. [0082] The method 100 of FIGURE 1 can be used to obtain a stack of images of a scene comprising images acquired at different focuses, comprising no, or very few, geometric aberrations due to the use of different focuses during the acquisition of said images.
[0083] Le procédé 100 prend en entrée une pile d'images sources de la scène, appelé pile source, et noté PILs. Cette pile sources PILs peut être captée par l'appareil mettant en œuvre le procédé 100 ou un autre appareil. La pile source PILs comprend plusieurs images de la scène, dont au moins deux, et en particulier toutes, sont captées avec des focus différents de sorte que chacun desdites images a une zone de netteté différente pour la scène. Autrement dit, la scène est représentée sur chacune des images avec une zone de netteté différente. [0083] The method 100 takes as input a stack of source images of the scene, called source stack, and denoted PILs. This PILs source stack can be captured by the apparatus implementing the method 100 or another apparatus. The PILs source stack comprises several images of the scene, at least two of which, and in particular all of them, are captured with different focuses so that each of said images has a different sharpness zone for the scene. In other words, the scene is represented on each of the images with a different sharpness zone.
[0084] Le procédé 100 comprend une étape 102 de correction d'aberrations géométriques pour au moins une, en particulier plusieurs, voire toutes, les images sources formant la pile sources PILs, par rapport à un format de référence et en utilisant au moins une fonction de transformation de coordonnées prédéterminée. [0084] The method 100 comprises a step 102 of correcting geometric aberrations for at least one, in particular several, or even all, of the source images forming the PILs source stack, with respect to a reference format and using at least one predetermined coordinate transformation function.
[0085] Le format de référence peut être une image source faisant partie de la pile source PILs. [0085] The reference format may be a source image that is part of the PILs source stack.
[0086] Alternativement, le format de référence peut être le format du capteur d'image utilisé pour l'acquisition de la pile source. Dans la suite, sans perte de généralité, on considère que le format de référence et le format du capteur d'image. [0087] L'étape 102 est réalisée individuellement pour au moins une, et en particulier chaque, image source. [0086] Alternatively, the reference format may be the format of the image sensor used for the acquisition of the source stack. In the following, without loss of generality, we consider that the reference format is the format of the image sensor. [0087] Step 102 is performed individually for at least one, and in particular each, source image.
[0088] Pour l'image source donnée en entrée, l'étape 102 comprend les étapes suivantes réalisées pour au moins un, et en particulier chaque, pixel/point de ladite image source individuellement. [0088] For the source image given as input, step 102 comprises the following steps performed for at least one, and in particular each, pixel/point of said source image individually.
[0089] Lors d'une étape 104 la position dudit point/pixel est donnée en entrée d'une fonction de transformation de cordonnées prédéterminée. Cette fonction de transformation de coordonnées donne en sortie une position corrigée de ce point/pixel. [0089] During a step 104, the position of said point/pixel is given as input to a predetermined coordinate transformation function. This coordinate transformation function gives as output a corrected position of this point/pixel.
[0090] Lors d'une étape 106, le pixel/point dont la position corrigée a été identifiée lors de l'étape 104, est ajoutée à ladite position corrigée dans une image source corrigée, également appelée image corrigée. [0090] In a step 106, the pixel/point whose corrected position was identified in step 104 is added to said corrected position in a corrected source image, also called corrected image.
[0091] En réalisant les étapes 104 et 106 pour, plusieurs, et en particulier tous les, points/pixels de l'image source, une image source corrigée est construite pour ladite image source. L'image corrigée représente la scène et ne comprend pas, comprend très peu, d'aberrations géométriques dues au focus utilisé pour capter l'image source. [0091] By performing steps 104 and 106 for several, and in particular all, points/pixels of the source image, a corrected source image is constructed for said source image. The corrected image represents the scene and does not include, includes very few, geometric aberrations due to the focus used to capture the source image.
[0092] Les étapes 104 et 106 peuvent être réalisées pour chaque point/pixel de l'image source, à tour de rôle ou en parallèle. [0092] Steps 104 and 106 can be performed for each point/pixel of the source image, in turn or in parallel.
[0093] Lors d'une étape 108 l'image corrigée est mémorisée. [0093] During a step 108 the corrected image is stored.
[0094] En réalisant l'étape 102 pour plusieurs, voire chacune des, images sources de la pile source PILS, à tour de rôle ou en parallèle, une pile d'images corrigées, dite pile corrigée, notée PILC, est obtenue pour la scène. [0094] By performing step 102 for several, or even each, of the source images of the source stack PIL S , in turn or in parallel, a stack of corrected images, called a corrected stack, denoted PIL C , is obtained for the scene.
[0095] La pile corrigée PILC peut ne comprendre que des images corrigées. En particulier, la pile corrigée PILC peut comprendre une image corrigée pour chaque image source de la pile source PILS. [0095] The corrected stack PIL C may comprise only corrected images. In particular, the corrected stack PIL C may comprise a corrected image for each source image of the source stack PIL S .
[0096] Alternativement, la pile corrigée PILC peut comprendre des images corrigées et au moins une image source non corrigée. [0096] Alternatively, the corrected stack PIL C may comprise corrected images and at least one uncorrected source image.
[0097] La pile corrigée PILC peut être mémorisée à la place de la pile source PILs. Dans ce cas, la pile corrigée PILC est obtenue en remplaçant l'image source par l'image corrigée obtenue à l'étape 102 pour ladite image source. [0097] The corrected stack PIL C may be stored in place of the source stack PILs. In this case, the corrected stack PIL C is obtained by replacing the source image with the corrected image obtained in step 102 for said source image.
[0098] Alternativement, la pile corrigée PILC peut être mémorisée en plus de la source PILs. Dans ce cas, la pile corrigée PILC est construite en parallèle de la pile source PILS en ajoutant au fur et à mesure les images corrigées obtenues à l'étape 102. Si au moins une image source n'est pas corrigée, une copie de celle-ci peut être ajoutée dans la pile corrigée PILC. [0098] Alternatively, the corrected PIL C stack may be stored in addition to the PILs source. In this case, the corrected PIL C stack is constructed in parallel with the source stack PIL S by gradually adding the corrected images obtained in step 102. If at least one source image is not corrected, a copy of it can be added to the corrected stack PIL C.
[0099] La, ou chaque, fonction de transformation de données utilisée lors de l'étape 104 peut être toute relation mathématique. Dans la suite, et sans perte de généralité, il est considérée que la, ou chaque, fonction de transformation de coordonnées est une matrice de correspondance de positions. [0099] The, or each, data transformation function used in step 104 may be any mathematical relationship. In the following, and without loss of generality, it is considered that the, or each, coordinate transformation function is a position correspondence matrix.
[0100] De plus, dans des modes de réalisation, pour chaque image source, la fonction de transformation de coordonnées utilisée pour corriger ladite image source dépend du focus utilisé pour l'acquisition de ladite image source. En effet, les aberrations géomatiques introduites dans une image dépendent du focus utilisée pour l'acquisition de ladite image. Ainsi, ces aberrations peuvent différer d'une image à l'autre lorsque ces images sont acquises à des focus différents. [0100] Furthermore, in embodiments, for each source image, the coordinate transformation function used to correct said source image depends on the focus used for the acquisition of said source image. Indeed, the geomatic aberrations introduced into an image depend on the focus used for the acquisition of said image. Thus, these aberrations can differ from one image to another when these images are acquired at different focuses.
[0101] Dans l'exemple de la FIGURE 1, l'au moins une fonction de transformation de coordonnées n'est pas calculée. En effet, l'au moins une fonction de transformation peut être avoir été préalablement calculée. Alternativement, l'au moins une fonction de transformation peut être avoir été fournie avec la pile d'images PILs. [0101] In the example of FIGURE 1, the at least one coordinate transformation function is not calculated. Indeed, the at least one transformation function may have been previously calculated. Alternatively, the at least one transformation function may have been provided with the PILs image stack.
[0102] La FIGURE 2 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un procédé selon la présente invention. [0102] FIGURE 2 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
[0103] Le procédé 200 de la FIGURE 2 peut être utilisé pour obtenir une pile d'images d'une scène comportant des images acquises à des focus différents, ne comportant pas, ou très peu, d'aberrations géométriques dues à un changement de focus lors de l'acquisition desdites images. [0103] The method 200 of FIGURE 2 can be used to obtain a stack of images of a scene comprising images acquired at different focuses, comprising no, or very few, geometric aberrations due to a change of focus during the acquisition of said images.
[0104] Le procédé 200 de la FIGURE 2 comprend toutes les étapes du procédé 100 de la FIGURE 1. [0104] The method 200 of FIGURE 2 includes all of the steps of the method 100 of FIGURE 1.
[0105] Le procédé 200 comprend en outre une phase 202, dite phase de calibration, pour calculer au moins une fonction de transformation de coordonnées. [0106] La phase de calibration 202 peut être réalisée par simulation à partir d'un modèle numérique d'un module caméra. Alternativement, la phase de calibration 202 peut être réalisée à partir d'images prises par un module caméra réel. [0105] The method 200 further comprises a phase 202, called the calibration phase, for calculating at least one coordinate transformation function. [0106] The calibration phase 202 can be carried out by simulation from a digital model of a camera module. Alternatively, the calibration phase 202 can be carried out from images taken by a real camera module.
[0107] De préférence, la phase de calibration 202 peut être réalisée avec le module caméra utilisé pour l'acquisition de la pile source PILS. Alternativement, la phase de calibration 202 peut être réalisée avec un autre module caméra que celui utilisé pour l'acquisition de la pile source PILS. Dans ce cas, l'autre module caméra peut être un module caméra ayant le même design que le module caméra utilisé pour l'acquisition de la pile source PILS, et/ou un module caméra produit dans le même lot de fabrication que le module caméra utilisé pour l'acquisition de la pile source PILs. [0107] Preferably, the calibration phase 202 can be carried out with the camera module used for the acquisition of the source stack PIL S . Alternatively, the calibration phase 202 can be carried out with a camera module other than that used for the acquisition of the source stack PIL S . In this case, the other camera module can be a camera module having the same design as the camera module used for the acquisition of the source stack PIL S , and/or a camera module produced in the same manufacturing batch as the camera module used for the acquisition of the source stack PILs.
[0108] La phase de calibration 202 peut être réalisée avec la pile source PILs ou une pile d'images d'une autre scène, ou encore une pile d'images d'une scène de référence. [0108] The calibration phase 202 can be carried out with the source stack PILs or a stack of images from another scene, or even a stack of images from a reference scene.
[0109] Dans l'exemple décrit sur la FIGURE 2, il est considéré, sans perte de généralité, que la phase de calibration 202 est réalisée, avant l'acquisition de la pile source PILs, avec une scène de référence. La scène de référence peut être tout type de scène. De préférence, la scène de référence est une mire ayant un motif connu, et disposé à une distance connue. [0109] In the example described in FIGURE 2, it is considered, without loss of generality, that the calibration phase 202 is carried out, before the acquisition of the source stack PILs, with a reference scene. The reference scene can be any type of scene. Preferably, the reference scene is a test pattern having a known pattern, and arranged at a known distance.
[0110] De plus, il est considéré que la phase de calibration 202 est réalisée avec le même module caméra que celui utilisé pour l'acquisition de la pile source PILs, ou un autre module caméra ayant le même design et faisant partie du même lot de fabrication que celui utilisé pour l'acquisition de la pile source PILs. [0110] Furthermore, it is considered that the calibration phase 202 is carried out with the same camera module as that used for the acquisition of the PILs source stack, or another camera module having the same design and forming part of the same manufacturing batch as that used for the acquisition of the PILs source stack.
[OUI] La phase de calibration 202 comprend une étape 204 d'acquisition d'une pile d'images, dite pile de calibration, et noté PILcai. De préférence, la pile de calibration PILcai comprend des images prises avec au moins les mêmes focus que ceux des images de la pile source PILs. Par exemple, la pile de calibration PILcai peut être acquise par une technique de focus bracketing. [YES] The calibration phase 202 comprises a step 204 of acquiring a stack of images, called a calibration stack, and denoted PILcai. Preferably, the calibration stack PILcai comprises images taken with at least the same focuses as those of the images of the source stack PILs. For example, the calibration stack PILcai can be acquired by a focus bracketing technique.
[0112] Ensuite, une étape 206 calcule une fonction de transformation de cordonnées entre chaque image de la pile de calibration PILcai et le format de référence. Le format de référence peut être une image de la pile de calibration. De préférence, et sans perte de généralité, dans la suite, on considère que le format de référence est le format du capteur d'image. [0112] Next, a step 206 calculates a coordinate transformation function between each image of the calibration stack PILcai and the reference format. The reference format may be an image of the calibration stack. Preferably, and without loss of generality, in the following, we consider that the reference format is the format of the image sensor.
[0113] Pour ce faire, pour chaque image de la pile de calibration PI LCAL, chaque point de la mire est identifié sur ladite image. En connaissant la position de chaque point de la mire sur le capteur d'image, il est alors possible de déterminer la fonction de transformation de coordonnées donnant pour chaque position de l'image, la position correspondante dans le format de référence, à savoir sur le capteur. [0113] To do this, for each image of the PI LCAL calibration stack, each point of the target is identified on said image. By knowing the position of each point of the target on the image sensor, it is then possible to determine the coordinate transformation function giving for each position of the image, the corresponding position in the reference format, namely on the sensor.
[0114] Lors d'une étape 208, la fonction de transformation de coordonnées associée à chaque image de la pile de calibration PI LCAL, et au donc au focus utilisé pour l'acquisition de ladite image, est mémorisée en association avec ledit focus. Ainsi, cette fonction de transformation de coordonnées peut être utilisée pour réaliser une transformation de coordonnées entre une image prise audit focus en vue de corriger les aberrations géométriques dues audit focus. [0114] During a step 208, the coordinate transformation function associated with each image of the PI LCAL calibration stack, and therefore with the focus used for the acquisition of said image, is stored in association with said focus. Thus, this coordinate transformation function can be used to perform a coordinate transformation between an image taken at said focus in order to correct the geometric aberrations due to said focus.
[0115] Ainsi, si la pile de calibration PI LCAL comprend K images, l'étape 206 fournit K fonctions de transformation de coordonnées. Si la pile de calibration PI LCAL comprend un nombre élevé de focus, et potentiellement tous les focus possibles avec le module caméra, alors il est possible de déterminer toutes les fonctions de transformation dont on pourrait potentielles avoir besoin pour corriger les aberrations géométriques dans les images captées avec ledit module caméra. [0115] Thus, if the PI LCAL calibration stack comprises K images, step 206 provides K coordinate transformation functions. If the PI LCAL calibration stack comprises a high number of focuses, and potentially all possible focuses with the camera module, then it is possible to determine all the transformation functions that could potentially be needed to correct geometric aberrations in the images captured with said camera module.
[0116] Lors d'une étape 208, chaque fonction de transformation de coordonnées est mémorisée en association avec le focus correspondant. [0116] In a step 208, each coordinate transformation function is stored in association with the corresponding focus.
[0117] Comme indiqué plus haut, les fonctions de transformations de coordonnées obtenues lors de la phase de calibration 202 peuvent être utilisées pour une ou plusieurs piles sources, et ce pour la même scène, ou des scènes différentes. [0117] As indicated above, the coordinate transformation functions obtained during the calibration phase 202 can be used for one or more source stacks, and this for the same scene, or different scenes.
[0118] La FIGURE 3 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un procédé selon la présente invention. [0118] FIGURE 3 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
[0119] Le procédé 300 de la FIGURE 3 peut être utilisé pour obtenir une pile d'images d'une scène comportant des images acquises à des focus différents, ne comportant pas, ou très peu, d'aberrations géométriques dues à un changement de focus lors de l'acquisition desdites images. [0119] The method 300 of FIGURE 3 can be used to obtain an image stack of a scene comprising images acquired at different focuses, not containing, or very few, geometric aberrations due to a change of focus during the acquisition of said images.
[0120] Le procédé 300 de la FIGURE 3 comprend toutes les étapes du procédé 200 de la FIGURE 2. [0120] The method 300 of FIGURE 3 includes all of the steps of the method 200 of FIGURE 2.
[0121] Le procédé 300 comprend en outre une étape 302 d'acquisition de la pile d'images source PILs comprenant des images acquises à des focus différents de sorte que lesdites images comportent des zones de netteté différentes. De préférence, chaque image source de la pile source PILs est acquise à un focus différent des autres images de la pile source PILs. [0121] The method 300 further comprises a step 302 of acquiring the stack of source images PILs comprising images acquired at different focuses so that said images comprise different areas of sharpness. Preferably, each source image of the source stack PILs is acquired at a different focus from the other images of the source stack PILs.
[0122] La pile d'images PILs peut être acquise selon toute technique connue, par exemple par focus bracketing. [0122] The PILs image stack can be acquired using any known technique, for example by focus bracketing.
[0123] Suivant un exemple de réalisation non limitatif et non représenté sur les FIGURES, le procédé selon l'invention peut comprendre toutes les étapes du procédé 300, mais l'étape 302 d'acquisition de la pile source PILs peut être réalisée avant la phase de calibration 202. [0123] According to a non-limiting exemplary embodiment not shown in the FIGURES, the method according to the invention can comprise all the steps of the method 300, but the step 302 of acquiring the source stack PILs can be carried out before the calibration phase 202.
[0124] Suivant un exemple de réalisation non limitatif et non représenté sur les FIGURES, le procédé selon l'invention peut comprendre toutes les étapes du procédé 300, à l'exception de la phase de calibration 200. [0124] According to a non-limiting exemplary embodiment not shown in the FIGURES, the method according to the invention can comprise all the steps of the method 300, with the exception of the calibration phase 200.
[0001] La FIGURE 4 est une représentation schématique d'un exemple de réalisation non limitatif d'un dispositif selon la présente invention. [0001] FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of a device according to the present invention.
[0002] Le dispositif 400 de la FIGURE 4 comprend un module 402 mettant en œuvre l'étape de correction des aberrations géométriques. [0002] The device 400 of FIGURE 4 comprises a module 402 implementing the step of correcting geometric aberrations.
[0003] Le module 402 comprend un module 404 réalisant une identification de la position corrigée d'un point/pixel dans une image source. Ce module 404 prend en entrée une position du point/pixel dans l'image source et retourne une position corrigée dudit point/pixel dans une image corrigée, en utilisant une fonction de transformation de coordonnées. Ce module 404 est en particulier configuré/programmé pour réaliser l'étape 104 des procédés 100, 200 et 300. [0004] Le module 402 comprend un module 406 réalisant une construction d'une image corrigée. Ce module 406 est en particulier configuré/programmé pour réaliser l'étape 106 des procédés 100, 200 et 300. [0003] The module 402 comprises a module 404 carrying out an identification of the corrected position of a point/pixel in a source image. This module 404 takes as input a position of the point/pixel in the source image and returns a corrected position of said point/pixel in a corrected image, using a coordinate transformation function. This module 404 is in particular configured/programmed to carry out step 104 of the methods 100, 200 and 300. [0004] The module 402 comprises a module 406 carrying out a construction of a corrected image. This module 406 is in particular configured/programmed to carry out step 106 of the methods 100, 200 and 300.
[0005] Le module 402 comprend un module 408 réalisant une mémorisation de chaque image corrigée dans une pile corrigée. Ce module 408 est en particulier configuré/programmé pour réaliser l'étape 108 des procédés 100, 200 et 300. [0005] The module 402 comprises a module 408 carrying out a storage of each corrected image in a corrected stack. This module 408 is in particular configured/programmed to carry out step 108 of the methods 100, 200 and 300.
[0006] Le dispositif 400 peut en outre comprendre un module optionnel 410 de calibration pour déterminer les fonctions de transformation de coordonnées. Ce module 410 est en particulier configuré/programmé pour réaliser la phase 202 des procédés 200 et 300. [0006] The device 400 may further comprise an optional calibration module 410 for determining the coordinate transformation functions. This module 410 is in particular configured/programmed to carry out phase 202 of the methods 200 and 300.
[0007] Le dispositif 400 peut en outre comprendre un module optionnel 412 d'acquisition d'une pile d'images d'une scène, en coopérant avec un module caméra comprenant un capteur d'image et un objectif optique. Ce module 412 est en particulier configuré/programmé pour réaliser l'étape 302 du procédé 300. Le module optionnel 412 peut par exemple être une application photo. [0007] The device 400 may further comprise an optional module 412 for acquiring a stack of images of a scene, by cooperating with a camera module comprising an image sensor and an optical lens. This module 412 is in particular configured/programmed to carry out step 302 of the method 300. The optional module 412 may for example be a photo application.
[0008] Au moins un des modules du dispositif 400 peut être un module indépendant des autres. [0008] At least one of the modules of the device 400 may be a module independent of the others.
[0009] Au moins deux de modules du dispositif 400 peuvent intégrés au sein d'un même module. [0009] At least two modules of the device 400 can be integrated within the same module.
[0010] Au moins un des modules du dispositif 400 peut être un module matériel. [0010] At least one of the modules of the device 400 may be a hardware module.
[0011] Au moins un des modules du dispositif 400 peut être un module logiciel, tel qu'un programme d'ordinateur. [0011] At least one of the modules of the device 400 may be a software module, such as a computer program.
[0012] Au moins un des modules du dispositif 400 peut être une combinaison d'au moins un module logiciel, tel qu'un programme d'ordinateur, et d'au moins un module matériel. [0012] At least one of the modules of the device 400 may be a combination of at least one software module, such as a computer program, and at least one hardware module.
[0013] En particulier, au moins un des modules du dispositif 400 peut être intégré dans une puce électronique, ou encore dans une application installée dans un appareil utilisateur. [0013] In particular, at least one of the modules of the device 400 can be integrated into an electronic chip, or even into an application installed in a user device.
[0014] Le dispositif 400 peut en outre comprendre, de manière optionnelle, au moins un moyen d'affichage 420, tel qu'un écran d'affichage, tactile ou non, ou un moyen de projection d'image sur un support, pour afficher une image de la scène. [0014] The device 400 may further comprise, optionally, at least one display means 420, such as a touch screen or a display screen. no, or a means of projecting an image onto a medium, to display an image of the scene.
[0015] Un tel moyen d'affichage peut être intégré dans le dispositif. [0015] Such a display means may be integrated into the device.
[0016] Un tel moyen d'affichage est optionnel car le dispositif peut ne pas comprendre un tel moyen. Par exemple, le dispositif 400 peut être intégré dans un appareil qui dispose déjà d'un moyen d'affichage et coopérer avec ledit moyen d'affichage pour afficher l'image de la scène. [0016] Such a display means is optional because the device may not include such a means. For example, the device 400 may be integrated into an apparatus that already has a display means and cooperate with said display means to display the image of the scene.
[0017] Suivant encore une autre alternative, le dispositif 400 peut être relié à un moyen d'affichage externe, ou à un appareil externe disposant d'un moyen d'affichage ou lui-même relié à un moyen d'affichage. [0017] According to yet another alternative, the device 400 can be connected to an external display means, or to an external device having a display means or itself connected to a display means.
[0018] Dans l'exemple représenté, et sans perte de généralité, le moyen d'affichage peut être un écran d'affichage électronique. [0018] In the example shown, and without loss of generality, the display means may be an electronic display screen.
[0019] De manière optionnelle, le dispositif 400 peut en outre comprendre au moins un moyen d'acquisition d'image 430, tel qu'une caméra, ou un module caméra, comprenant un objectif optique et un capteur d'image, pour acquérir une image ou une pile d'images de la scène. [0019] Optionally, the device 400 may further comprise at least one image acquisition means 430, such as a camera, or a camera module, comprising an optical lens and an image sensor, for acquiring an image or a stack of images of the scene.
[0020] Un tel moyen d'acquisition d'image 430 peut être intégré dans le dispositif, par exemple sur une face avant ou sur une face arrière, ou les deux. [0021] Suivant encore une autre alternative, le dispositif 400 peut être relié à un moyen d'acquisition d'image externe, ou à un appareil externe disposant d'un moyen d'acquisition d'image ou lui-même relié à un moyen d'acquisition d'image. [0020] Such an image acquisition means 430 may be integrated into the device, for example on a front face or on a rear face, or both. [0021] According to yet another alternative, the device 400 may be connected to an external image acquisition means, or to an external apparatus having an image acquisition means or itself connected to an image acquisition means.
[0022] Le dispositif 400 peut en outre comprendre, de manière optionnelle, au moins un capteur 450 pour détecter : [0022] The device 400 may further comprise, optionally, at least one sensor 450 for detecting:
- la position d'un pointeur, - the position of a pointer,
- la position de contact d'une partie du corps de l'utilisateur telle qu'une main ou un doigt, ou - the contact position of a part of the user's body such as a hand or finger, or
- la position visée par une partie du corps de l'utilisateur telle qu'une main, un doigt, un œil, des yeux ou le visage de l'utilisateur. - the position aimed at by a part of the user's body such as a hand, finger, eye, eyes or the user's face.
[0023] Le capteur 450 peut être tout type de capteur telle qu'une caméra, un lidar, une surface de détection par exemple de type capacitive, etc. [0024] Dans l'exemple représenté sur la FIGURE 4, et sans perte de généralité, le capteur 450 peut se présenter sous la forme d'une surface de détection, de type capacitive, intégrée dans le moyen d'affichage 420. [0023] The sensor 450 can be any type of sensor such as a camera, a lidar, a detection surface for example of the capacitive type, etc. [0024] In the example shown in FIGURE 4, and without loss of generality, the sensor 450 may be in the form of a detection surface, of the capacitive type, integrated into the display means 420.
[0025] Un tel capteur 450 est optionnel car le dispositif peut ne pas comprendre un tel capteur. Par exemple, le dispositif 400 peut être intégré dans un appareil qui dispose déjà d'un capteur. [0025] Such a sensor 450 is optional because the device may not include such a sensor. For example, the device 400 may be integrated into an apparatus that already has a sensor.
[0026] La FIGURE 5a est une représentation schématique d'un exemple de réalisation non limitatif d'un appareil selon la présente invention. [0026] FIGURE 5a is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the present invention.
[0027] L'appareil 510 de la FIGURE 5a comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 100, 200 et 300. [0027] The apparatus 510 of FIGURE 5a comprises means configured to implement the invention, and in particular any one of the methods 100, 200 and 300.
[0028] L'appareil 510 de la FIGURE 5a peut comprendre un dispositif selon l'invention, et en particulier le dispositif 400 de la FIGURE 4. [0028] The apparatus 510 of FIGURE 5a may comprise a device according to the invention, and in particular the device 400 of FIGURE 4.
[0029] Dans l'exemple représenté sur la FIGURE 5a, l'appareil 510 est un smartphone, ou une tablette, comprenant le dispositif 400 de la FIGURE 4. En particulier, l'appareil 510 comprend un écran d'affichage 420 équipé d'une surface de détection 450, par exemple capacitive, et au moins un module caméra 430. [0029] In the example shown in FIGURE 5a, the device 510 is a smartphone, or a tablet, comprising the device 400 of FIGURE 4. In particular, the device 510 comprises a display screen 420 equipped with a detection surface 450, for example capacitive, and at least one camera module 430.
[0030] La FIGURE 5b est une représentation schématique d'un autre exemple de réalisation non limitatif d'un appareil selon la présente invention. [0031] L'appareil 520 de la FIGURE 5b comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 100, 200 et 300. [0030] FIGURE 5b is a schematic representation of another non-limiting exemplary embodiment of an apparatus according to the present invention. [0031] The apparatus 520 of FIGURE 5b comprises means configured to implement the invention, and in particular any one of the methods 100, 200 and 300.
[0032] L'appareil 520 de la FIGURE 5b peut comprendre un dispositif selon l'invention, et en particulier le dispositif 400 de la FIGURE 4, sans la caméra 430. [0032] The apparatus 520 of FIGURE 5b may comprise a device according to the invention, and in particular the device 400 of FIGURE 4, without the camera 430.
[0033] Dans l'exemple représenté sur la FIGURE 5b, l'appareil 520 est un casque de réalité virtuelle, VR, ou un casque de réalité augmentée, comprenant le dispositif 400 de la FIGURE 4. En particulier, le casque 520 comprend un écran d'affichage 420, un capteur (non visible sur la FIGURE 5b) pour détecter la position visée par un œil, ou les yeux, de l'utilisateur sur ledit écran d'affichage 420. [0033] In the example shown in FIGURE 5b, the apparatus 520 is a virtual reality, VR, headset, or an augmented reality headset, comprising the device 400 of FIGURE 4. In particular, the headset 520 comprises a display screen 420, a sensor (not visible in FIGURE 5b) to detect the position aimed by an eye, or eyes, of the user on said display screen 420.
[0034] Le casque 520 peut comprendre au moins une caméra pour capter les images de la scène dans laquelle il se trouve pour les afficher sur l'écran 420, optionnellement après enrichissement desdites images, dans le cadre par exemple d'une application de réalité augmentée. [0034] The headset 520 may comprise at least one camera for capturing images of the scene in which it is located to display them on the screen 420, optionally after enrichment of said images, for example in the context of an augmented reality application.
[0035] La FIGURE 5c est une représentation schématique d'un exemple de réalisation non limitatif d'un appareil selon la présente invention. [0035] FIGURE 5c is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the present invention.
[0036] L'appareil 530 de la FIGURE 5c comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 100, 200, et 300. [0036] The apparatus 530 of FIGURE 5c comprises means configured to implement the invention, and in particular any one of the methods 100, 200, and 300.
[0037] L'appareil 530 de la FIGURE 5c peut comprendre un dispositif selon l'invention, et en particulier le dispositif 400 de la FIGURE 4. [0037] The apparatus 530 of FIGURE 5c may comprise a device according to the invention, and in particular the device 400 of FIGURE 4.
[0038] Dans l'exemple représenté sur la FIGURE 5c, l'appareil est un appareil d'imagerie médicale, tel qu'un endoscope, un appareil d'échographie, etc. comprenant le dispositif 400 de la FIGURE 4. En particulier, l'appareil d'imagerie médical 530 comprend un écran d'affichage 420 équipé d'une surface de détection 450, par exemple capacitive. L'appareil d'imagerie médicale 530 comprend en outre un moyen d'imagerie formé par un objectif distal relié à un module d'imagerie (non représentés). [0038] In the example shown in FIGURE 5c, the apparatus is a medical imaging apparatus, such as an endoscope, an ultrasound apparatus, etc. comprising the device 400 of FIGURE 4. In particular, the medical imaging apparatus 530 comprises a display screen 420 equipped with a detection surface 450, for example capacitive. The medical imaging apparatus 530 further comprises an imaging means formed by a distal objective connected to an imaging module (not shown).
[0039] La FIGURE 6 est une représentation schématique d'un exemple de réalisation non limitatif d'un véhicule selon la présente invention. [0039] FIGURE 6 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the present invention.
[0040] Le véhicule 600 de la FIGURE 6 comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 100, 200 et 300. [0040] The vehicle 600 of FIGURE 6 comprises means configured to implement the invention, and in particular any one of the methods 100, 200 and 300.
[0041] Le véhicule 600 de la FIGURE 6 peut comprendre un dispositif selon l'invention, et en particulier le dispositif 400 de la FIGURE 4. [0041] The vehicle 600 of FIGURE 6 may comprise a device according to the invention, and in particular the device 400 of FIGURE 4.
[0042] Dans l'exemple représenté sur la FIGURE 6, le véhicule 600 est un véhicule terrestre, en particulier une voiture, comprenant le dispositif 400 de la FIGURE 4. En particulier, le véhicule 600 comprend un écran d'affichage 420 équipé d'une surface de détection 450, par exemple capacitive, agencé dans l'habitacle du véhicule 600. Le véhicule 600 comprend en outre au moins une caméra 418, par exemple disposée sur le pare-brise du véhicule 600. [0042] In the example shown in FIGURE 6, the vehicle 600 is a land vehicle, in particular a car, comprising the device 400 of FIGURE 4. In particular, the vehicle 600 comprises a display screen 420 equipped with a detection surface 450, for example capacitive, arranged in the passenger compartment of the vehicle 600. The vehicle 600 further comprises at least one camera 418, for example arranged on the windshield of the vehicle 600.
[0125] Bien entendu l'invention n'est pas limitée aux exemples qui viennent d'être décrits. [0125] Of course, the invention is not limited to the examples which have just been described.
Claims
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/FR2023/051061 WO2025012529A1 (en) | 2023-07-08 | 2023-07-08 | Method for obtaining a stack of images of a scene, computer program, device, apparatus and vehicle implementing such a method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/FR2023/051061 WO2025012529A1 (en) | 2023-07-08 | 2023-07-08 | Method for obtaining a stack of images of a scene, computer program, device, apparatus and vehicle implementing such a method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025012529A1 true WO2025012529A1 (en) | 2025-01-16 |
Family
ID=88018165
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/FR2023/051061 Pending WO2025012529A1 (en) | 2023-07-08 | 2023-07-08 | Method for obtaining a stack of images of a scene, computer program, device, apparatus and vehicle implementing such a method |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025012529A1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030228053A1 (en) * | 2002-05-03 | 2003-12-11 | Creatv Microtech, Inc. | Apparatus and method for three-dimensional image reconstruction |
| WO2008061548A1 (en) * | 2006-11-22 | 2008-05-29 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Reconstruction and visualization of neuronal cell structures with brigh-field mosaic microscopy |
-
2023
- 2023-07-08 WO PCT/FR2023/051061 patent/WO2025012529A1/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030228053A1 (en) * | 2002-05-03 | 2003-12-11 | Creatv Microtech, Inc. | Apparatus and method for three-dimensional image reconstruction |
| WO2008061548A1 (en) * | 2006-11-22 | 2008-05-29 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Reconstruction and visualization of neuronal cell structures with brigh-field mosaic microscopy |
Non-Patent Citations (4)
| Title |
|---|
| HORN ROBIN ET AL: "Investigations on the potential application of machine vision lenses for depth measurement by exploiting chromatic aberrations", MEASUREMENT: SENSORS, vol. 23, October 2022 (2022-10-01), pages 100410, XP093137292, ISSN: 2665-9174, DOI: 10.1016/j.measen.2022.100410 * |
| SANCHEZ A. M. ET AL: "An approach to the systematic distortion correction in aberration-corrected HAADF images", JOURNAL OF MICROSCOPY, vol. 221, no. 1, 2006, GB, pages 1 - 7, XP093137333, ISSN: 0022-2720, DOI: 10.1111/j.1365-2818.2006.01533.x * |
| WILLIAM D. PYRZ ET AL: "Particle Size Determination Using TEM: A Discussion of Image Acquisition and Analysis for the Novice Microscopist", LANGMUIR, vol. 24, no. 20, 21 October 2008 (2008-10-21), US, pages 11350 - 11360, XP055673517, ISSN: 0743-7463, DOI: 10.1021/la801367j * |
| YU WANG ET AL: "Applying Space-Variant Point Spread Function to Three-Dimensional Reconstruction of Fluorescence Microscopic Images", AUTOMATIC CONTROL AND COMPUTER SCIENCES, ALLERTON PRESS, INC. NEW YORK, US, vol. 53, no. 2, 7 June 2019 (2019-06-07), pages 194 - 201, XP036800091, ISSN: 0146-4116, [retrieved on 20190607], DOI: 10.3103/S0146411619020111 * |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3657784B1 (en) | Method for estimating a fault of an image capturing system and associated systems | |
| FR3054897A1 (en) | METHOD FOR PRODUCING DIGITAL IMAGE, COMPUTER PROGRAM PRODUCT AND OPTICAL SYSTEM THEREOF | |
| EP3866064B1 (en) | Method for authentication or identification of an individual | |
| FR3053500B1 (en) | METHOD FOR DETECTING FRAUD OF AN IRIS RECOGNITION SYSTEM | |
| EP2909671B1 (en) | Method for designing a single-path imager able to estimate the depth of field | |
| EP3614306A1 (en) | Method for facial location and identification and pose determination, from a three-dimensional view | |
| EP4396789A1 (en) | Method for matching a candidate image with a reference image | |
| WO2025012529A1 (en) | Method for obtaining a stack of images of a scene, computer program, device, apparatus and vehicle implementing such a method | |
| EP3073441B1 (en) | Method for correcting an image of at least one object presented remotely to an imager and illuminated by an illumination system and camera system for carrying out said method | |
| WO2025012526A1 (en) | Method for representing a scene on a display medium, computer program, device, apparatus and vehicle implementing such a method | |
| EP4207077A1 (en) | Correction of artefacts in tomographic reconstructions by neural networks | |
| WO2025262376A1 (en) | Method and system for characterising an optical lens on the basis of at least one item of production data | |
| WO2025257479A1 (en) | Method and device for determining a depth map of a scene from a stack of images of the scene | |
| WO2025012530A1 (en) | Method for obtaining a stack of images, and computer program product implementing such a method | |
| WO2025062073A1 (en) | Computer-based method for designing a more efficient lens | |
| WO2025253054A1 (en) | Method and device for determining a depth map of a scene from images of said scene | |
| WO2025253055A1 (en) | Method and device for determining a depth map of a scene | |
| WO2025012523A1 (en) | Method for selectively blurring an image | |
| WO2025062072A1 (en) | Method and system for efficiently characterizing a lens | |
| WO2025062070A1 (en) | Method and system for characterising an optical lens | |
| WO2025012531A1 (en) | Method for acquiring a stack of images of a scene | |
| WO2025012527A1 (en) | Method for processing an image of a scene in order to render a change in the viewpoint of the scene | |
| WO2025238312A1 (en) | Method for demosaicing a raw image, and computer program, device and system implementing such a method | |
| WO2025052046A1 (en) | Method for imaging a scene, computer program, device, apparatus and vehicle implementing such a method | |
| WO2025062071A1 (en) | Method and system for characterising at least one optical aberration in an optical lens with a view to correcting it by means of digital processing |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23768588 Country of ref document: EP Kind code of ref document: A1 |