WO2025153777A1 - Method and device for acquiring a stack of images of a scene with improved luminosity - Google Patents
Method and device for acquiring a stack of images of a scene with improved luminosityInfo
- Publication number
- WO2025153777A1 WO2025153777A1 PCT/FR2024/050075 FR2024050075W WO2025153777A1 WO 2025153777 A1 WO2025153777 A1 WO 2025153777A1 FR 2024050075 W FR2024050075 W FR 2024050075W WO 2025153777 A1 WO2025153777 A1 WO 2025153777A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- scene
- image
- brightness
- focusing distance
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/676—Bracketing for image capture at varying focusing conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
Definitions
- the present invention relates to a method for obtaining a stack of images of a scene with enhanced, or balanced, brightness. It also relates to a computer program and a device implementing such a method. It further relates to an apparatus and a vehicle implementing such a method.
- the field of the invention is the field of obtaining a stack of images of a scene comprising images acquired at different focusing distances.
- This technique although improving the depth of field, has drawbacks and can still be improved. Indeed, in a scene, objects located at different depths are not necessarily in the same imaging conditions, and in particular in the same lighting conditions, which produces a lack of details. However, the focus bracketing technique does not take these differences into account and provides a stack of images of the scene comprising images whose qualities vary depending on the focuses used, in particular in terms of brightness. This can generate a significant difference in brightness between the images in the stack of images. Such a difference in brightness results in a rendering that is degraded when representing the scene from the image stack.
- An aim of the present invention is to remedy at least one of the aforementioned drawbacks.
- Another aim of the invention is to propose a solution for imaging a scene and providing a stack of images of the scene of better quality, in particular in terms of brightness or lighting.
- the invention proposes to achieve at least one of the aforementioned aims by a method of acquiring a stack of images of a scene comprising images of said scene at different focusing distances, with an apparatus comprising a camera module formed by an optical lens associated with an image sensor; said method further comprising, for at least one of said focusing distances, an acquisition phase comprising the following steps:
- the invention makes it possible to image a scene to obtain a stack of several images captured at different focusing distances, or at different focuses. Such a stack of images makes it possible to represent the scene with a greater depth of field.
- the invention proposes to adjust the brightness with which the scene is imaged for at least one focusing distance, as a function of the brightness received by the apparatus for the parts of the scene located at the depth of field associated with said focusing distance.
- the invention makes it possible to image a scene more efficiently and provide a stack of images of the scene whose quality, and in particular the brightness, is better, or at least better harmonized and balanced for the entire stack of images, compared to current techniques.
- the present invention it is possible to acquire a stack of images of the scene while avoiding certain parts of the scene being saturated and other parts of the scene being under-illuminated.
- the invention makes it possible to better control and adjust the brightness when acquiring a stack of images of the scene.
- image we mean a digital image, and in particular a matrix image, and more particularly an RGB matrix image for example.
- depth of field is meant the extent of the area of sharpness which appears on an image, that is to say the area between the sharp foreground and the sharpest ground of the image.
- sharpness range is meant the distance over which the sharp part of the image extends, that is to say the distance from the sharp foreground to the sharp last plane of the image.
- focusing distance is meant the distance at which an optical lens is focused, with reference to the position of said lens.
- the focusing distance for taking an image is generally adjusted by modifying the distance between the image sensor and the optical lens.
- a first image of a scene acquired at a first focusing distance will clearly represent a first part of the scene
- a second image of a scene acquired at a second focusing distance will clearly represent a second part of the scene.
- the focusing distance can be adjusted over 15 meters.
- the sharpness range can be 1.50 meters.
- the depth of field can be 14.50 meters - 16 meters.
- the image will clearly represent all objects, or parts of the scene, located at a distance of between 14.5m and 16m from the optical lens.
- brightness value associated with a focusing distance or “brightness value for a focusing distance” is meant the brightness value of at least a part of the scene located in the depth of field associated with said focusing distance.
- the at least one predetermined threshold value may be, or may include, a minimum brightness value to be achieved.
- the at least one predetermined threshold value may be, or may include, a maximum brightness value not to be exceeded.
- the at least one predetermined threshold value may be, or may comprise, a predetermined interval of brightness values to be satisfied, said interval being bordered by a minimum brightness threshold value and by a maximum brightness threshold value.
- the scene is imaged and several images of the scene are obtained, each for a different focusing distance, and each representing the scene with a brightness value included in an interval. This makes it possible to obtain a stack of images of the scene, said images being acquired at different focusing distances, the brightness of which is more uniform and harmonized, regardless of the focusing distance.
- the at least one threshold value may be determined independently of the scene. According to embodiments, the at least one threshold value may be determined as a brightness value, or a range of brightness values, desired for imaging the scene.
- the average brightness of the scene can be calculated from an exploratory image of the scene captured prior to the acquisition of the image stack. Alternatively, or in addition, the average brightness of the scene can be measured with a sensor provided for this purpose and equipping the device used to image the scene.
- the brightness adjustment can achieve an increase in brightness during the acquisition of the image at said focusing distance.
- the scene may include certain areas which are under-illuminated, compared to the rest of the scene.
- the depth of field corresponds to these areas, or includes these areas, in this case the brightness can be increased for the acquisition of the image at said focusing distance.
- the image acquired for said focusing distance will represent the scene with increased, or improved, lighting for said areas, so as to reduce the difference in lighting between these areas and the rest of the scene.
- the brightness adjustment can achieve a decrease in brightness during image acquisition at said focusing distance.
- the scene may include certain areas which are overlit, compared to the rest of the scene.
- the brightness may be reduced for the acquisition of the image at said focusing distance.
- the image acquired for said focusing distance focus will represent the scene with diminished or reduced lighting for said areas, so as to reduce the difference in lighting between these areas and the rest of the scene.
- the flash may be triggered to increase the brightness of the scene.
- the flash when acquiring the image of the scene at said focusing distance, the flash may be triggered and the average intensity of said flash may be adjusted, upwards or downwards, to illuminate the scene, and thus adjust the brightness of the scene for acquiring an image at said focusing distance.
- the average intensity of the flash can be adjusted by adjusting the instantaneous intensity of said flash.
- the flash emits a more or less strong light to illuminate the scene.
- the average intensity of the flash can be adjusted by time modulation of said flash.
- the flash emits light whose intensity is constant, but the total emission time of the flash is adjusted upwards or downwards to increase or decrease the light emitted towards the scene.
- modulation of the flash can be achieved with a flash which performs sequential light emission, for example in the form of a series of light pulses, and the time modulation can be achieved by adjusting either the emission frequency or the width of each pulse.
- adjusting the brightness may effect a modification of an exposure time of the image sensor.
- the longer the exposure time of the image sensor the more light the image sensor collects from the scene, and therefore the more the scene is imaged with increased brightness, and vice versa. From there, for at least one focusing distance, the brightness with which the scene is imaged at said focusing distance can be adjusted upwards or downwards, by adjusting the exposure time of the image sensor upwards or downwards.
- the adjustment of the brightness can result in a modification of the opening of a diaphragm equipping the device.
- the larger the opening of the diaphragm the more the image sensor collects light coming from the scene, and therefore the more the scene is imaged with increased brightness, vice versa.
- the brightness with which the scene is imaged at said focusing distance can be adjusted upwards or downwards, by adjusting the opening of the diaphragm upwards or downwards.
- the intensity captured by the half-pixel, Ipa is equal to the intensity, denoted Ipb, captured by the half-pixel pb.
- Ipa the intensity captured by the half-pixel
- Ipb the intensity captured by the half-pixel pb.
- the focusing motor/mechanism is actuated in the direction indicated by (Ipa-Ipb) in the area considered, and is stopped when (Ipa-Ipb) reaches zero or is below a certain threshold (absolute value (Ipa-Ipb) ⁇ threshold).
- These dual pixels can also be used to find the focus difference of the area considered. It is then necessary to analyze a set of pixels in the area, to find a certain (blurred) image on the pa pixels of the area, to find the corresponding image on the pb pixels of the area.
- the depth map of the scene can be determined with at least one sensor for measuring the depths of objects located in the scene.
- a sensor can be a lidar, a time-of-flight camera, etc.
- Such a sensor can equip the device used to image the scene.
- the method according to the invention comprises, for at least one, and in particular each, focusing distance, a step of determining the brightness of the scene for said focusing distance, or for at least one zone/part of the scene located in the depth of field associated with said focusing distance.
- the brightness value of the scene at said focusing distance can be determined by analysis of an exploratory image of the scene taken prior to the acquisition of the stack of images, and in particular prior to the first acquisition phase.
- the areas of the scene located within the depth of field associated with said focusing distance are identified on said exploratory image.
- the brightness of said areas can then be calculated from the brightness values of each pixel of the exploratory image corresponding to said areas.
- At least one image of the scene may be a 2D image.
- At least one image of the scene may be a 3D image.
- a computer program comprising executable instructions which, when executed by a computer device, implement all the steps of the method according to the invention.
- the computer program can be in any computer language, such as for example machine language, C, C++, JAVA, Python, etc.
- Such a computer program may be in the form of an individual application.
- such a computer program may be integrated into a photo or video application, or into an image or video playback application.
- a device comprising means configured to implement all the steps of the method according to the invention.
- the device according to the invention can be, or be integrated into, any type of device such as a smartphone, a tablet, a computer, a calculator, a processor, a computer chip, programmed to implement the method according to the invention, for example by executing the computer program according to the invention.
- an apparatus comprising:
- At least one computing unit configured to implement all the steps of the method according to the invention.
- the apparatus may further comprise a flash, and optionally a mechanism for adjusting the average intensity of the flash.
- the apparatus may further comprise a mechanism for adjusting the exposure time of the image sensor.
- the apparatus may further include a diaphragm and a mechanism for adjusting the opening of said diaphragm.
- the device may be a user device of the Smartphone, tablet, etc. type comprising a display screen.
- the user device may further comprise a display screen, a capacitive sensing surface, etc.
- the device may be a computer-type user device.
- the computer-type user device may comprise a display screen, a touch-sensitive surface, in particular integrated into, or associated with, the display screen of said computer, etc.
- the apparatus may be a television.
- the method 100 of FIGURE 1 can be used to obtain, with a device, a stack of images of the scene, comprising images acquired at different focusing distances, the brightnesses of which are improved and in particular harmonized.
- the apparatus used to image the scene comprises a camera module comprising an image sensor associated with an optical lens.
- the apparatus comprises a flash and possibly a first mechanism for adjusting the average intensity of the flash.
- the apparatus comprises a second mechanism for adjusting the exposure time of the image sensor.
- the apparatus comprises a diaphragm, and possibly a third mechanism for adjusting the opening of said diaphragm.
- the apparatus may include means other than those indicated here, instead of or in combination with at least one of the means listed above.
- the method 100 comprises an optional step 102 for establishing a depth map of the scene. Such a depth map can be established in different ways.
- the depth map is established from an exploratory image of the scene.
- an image of the scene is acquired by the device during a step 104: this image is called the first exploratory image.
- the first exploratory image is analyzed during a step 106 to determine the depth of the objects in the scene. For example, a depth value is determined for each object in the scene, indicating the distance at which said object is located relative to the device used to image the scene.
- Determining the depth of an object in an image can be achieved by any known technique.
- a dual pixel is a pixel split into two half pixels, denoted "pa” and "pb” in the following, the micro lens placed just above which therefore illuminates half the half-pixel pa for one half and half the half-pixel pb for the other half.
- Ipa the intensity captured by the half-pixel
- Ipb the intensity captured by the half-pixel
- step 106 a map indicating the depths of the objects located in the scene is determined. This depth map is used to choose the focusing distances for which the scene is imaged in order to obtain the image stack.
- This step 102 is optional because the depth map can be provided by another device.
- the method 100 may not use a depth map for acquiring the image stack: in this case, the focusing distances for which the scene is imaged in order to obtain the image stack can be determined randomly, or according to a predetermined rule or predetermined focusing distance values.
- the method 100 then comprises an optional step 110 for determining at least one brightness threshold value which will be used in the remainder of the method for imaging the scene.
- the at least one brightness threshold value is a function of the scene, and in particular of the brightness of the different parts of the scene.
- an image of the scene is acquired by the device during a step 112: this image is called the second exploratory image.
- This second exploratory image is acquired at an intermediate focusing distance from the scene, for example determined from a depth map of the scene. This depth map may for example be the one determined in step 102, or provided by another device. Alternatively, the second exploratory image may be acquired at a randomly chosen focusing distance.
- This second exploratory image is analyzed, during a step 114, to determine an average brightness of the scene.
- the average brightness can be determined as being the average of the brightness values for each pixel of the second exploratory image.
- the brightness value of a pixel can be the average of the values representing said pixel.
- At least one brightness threshold value can be calculated based on the average brightness value obtained in step 114. For example, a minimum brightness threshold value can be determined. For example, a maximum brightness threshold value can be determined. According to a non-limiting example, and without loss of generality:
- the minimum brightness threshold value may correspond to a certain percentage X%, in particular 90%, of said average brightness value
- the maximum brightness threshold value may correspond to a certain percentage Y%, in particular 110%, of said average brightness value.
- step 116 provides an interval of brightness values defined by a minimum threshold value and a maximum brightness threshold value.
- the at least one brightness threshold value may be determined differently from what is described above. [0100] According to alternative embodiments, step 110 is not performed and the at least one brightness threshold value may be predetermined and previously provided.
- the method 100 then comprises a phase 120 of acquiring images of the scene at different focusing distances.
- This acquisition phase 120 is carried out individually, for example in turn, for each focusing distance at which the scene is to be imaged, for example in turn.
- the acquisition phase 120 comprises a step 122 during which the imaging module is set to the focusing distance for which the scene is to be imaged. For example, the distance between the optical lens and the image sensor can be adjusted to obtain said focusing distance.
- the acquisition phase 120 comprises a step 124 of acquiring an image, called a preliminary image, of the scene at said focusing distance.
- the preliminary image is used to determine the brightness of the part of the scene located in the depth of field associated with the focusing distance, or of at least one area of said part of the scene.
- the sharp areas of the preliminary image are identified: these sharp areas of the image corresponding to the part of the scene located at the depth of field associated with the focusing distance.
- the brightness value of the part of the scene, respectively of an area of the scene, located at the depth of field associated with said focusing distance, can then be determined from the brightness values of the pixels corresponding to said part of the scene, respectively to said area of the scene.
- the brightness calculated in step 125 is compared, during a step 126, to at least one brightness threshold value.
- the at least one brightness threshold value may have been determined during the optional step 110. Alternatively, the at least one brightness threshold value may have been previously provided, for example by the user. [0106] If the brightness value calculated in step 125 satisfies the at least one brightness threshold value, for example if it is within an interval of brightness threshold values, then the preliminary image is kept as the final image, at said focusing distance, or another image can be taken under the same conditions at the focusing distance, and the acquisition phase for this focusing distance is terminated. A new acquisition phase for another focusing distance can then be carried out.
- step 125 If the brightness value calculated in step 125 does not satisfy the at least one brightness threshold value, for example if it is not within an interval of threshold values, then the brightness is adjusted during a step 128 for the acquisition of a new image of the scene at the focusing distance.
- step 1208 the brightness adjustment can be carried out in different ways.
- the brightness of the scene can be adjusted by triggering a flash to illuminate the scene, during a step 128i.
- a flash to illuminate the scene
- the brightness at which the scene will be imaged may be adjusted by modifying the total exposure time of the image sensor during a step 128s.
- the total exposure time of the image sensor may be adjusted by any known means, for example by controlling the opening time of a shutter located in front of the sensor or in front of the camera module.
- the brightness with which the scene will be imaged may be adjusted by changing the aperture of a diaphragm of the camera module, or of the image sensor, in a step 1284.
- the aperture of the diaphragm may be adjusted by any known means, for example by controlling a mechanism controlling the size of the aperture of the diaphragm.
- the brightness with which the scene will be imaged can be adjusted by performing all of the steps 1281-1284, or any combination of at least two of these steps, or only one of these steps 1281-1284.
- the steps 1281-1284 can be performed in the order in which they have just been described or in another order.
- the brightness adjustment can be performed according to a predetermined relationship taking as input:
- the predetermined relationship can be any type of relationship.
- the predetermined relationship can be a mathematical relationship.
- the predetermined relationship can be a lookup table.
- the predetermined relationship can be an artificial intelligence model, such as a neural network, previously trained for this purpose.
- the value provided may be the intensity of the flash, denoted I_FLASH, varying between 0 and I_FLASH_MAX.
- I_FLASH the intensity of the flash
- I_FLASH_MAX the intensity of the flash
- LUM_ECL LUM_AMB + L_SUR_F * I_FLASH. Or :
- - LUM_ECL is the brightness obtained under artificial lighting - the flash - and ambient lighting, on the considered part of the scene
- FLASH_ACTION(CURRENT_LUM, L_OBJ) (L_OBJ-CURRENT_LUM)/L_SUR_F Or :
- the acquisition phase 120 then comprises a step 130 of acquiring an image of the scene, at the focusing distance, and with at least one brightness adjustment parameter determined in step 128, for example:
- step 1284 - with a sensor exposure time calculated in step 128s, and/or - with a diaphragm opening calculated in step 1284.
- a step 132 the image acquired in step 130 with brightness adjustment is stored in an image stack.
- the preliminary image acquired in step 124 may also be stored.
- the acquisition phase 120 is repeated for each focusing distance for which an image of the scene must be acquired.
- the acquisition phase 120 is carried out for several, and in particular all, focusing distances, a stack of images of the scene is obtained, with harmonized brightness.
- the brightness of the scene on all the images of the image stack satisfies the at least one threshold value.
- the scene is imaged in the image stack with improved brightness and the image stack does not include an image on which the scene is underlit or the scene is overlit.
- FIGURE 2 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
- the method 200 comprises a step 202 calculating the brightness of the scene for all the focusing distances at which it is desired to take an image of the scene.
- This step 202 takes as input an exploratory image of the scene, for example the first exploratory image or the second exploratory image, or another exploratory image acquired during said step 202.
- step 202 takes as input the second exploratory image.
- the acquisition phase 120 is repeated for all the desired focusing distances in order to constitute a stack of images of the scene comprising images acquired at different focusing distances.
- the depth map of the scene is determined from the first exploratory image.
- the depth map of the scene can be determined with at least one sensor measuring the depths of the objects located in the scene, for example a LIDAR type sensor, time-of-flight camera, etc.
- the device 300 of FIGURE 3 can be used to obtain a stack of images of the scene, comprising images acquired at different focusing distances, the brightnesses of which are improved and in particular harmonized.
- the device 300 of FIGURE 3 can be used to implement a method according to the invention, and in particular any one of the methods 100 or 200 of FIGURES 1 and 2.
- the calculation unit 302 comprises an optional module 304 for determining a depth map of the scene by analyzing an exploratory image of the scene.
- This module 304 is for example configured/programmed to carry out step 102 of the methods 100 or 200.
- the module 304 can be replaced by a sensor, such as a lidar or a time-of-flight camera, possibly associated with a processing module, for determining the depth map.
- the calculation unit 302 further comprises an optional module 306 for determining at least one brightness threshold value, by analyzing a second exploratory image of the scene.
- This module 306 is for example configured/programmed to carry out step 110 of the methods 100 and 200.
- the module 306 can be replaced by a sensor, such as an optical sensor, possibly associated with a processing module, for determining the at least one brightness threshold value.
- the module 306 can be coupled to the image sensor used for acquiring images of the scene, in order to determine the at least a brightness threshold value from the brightness captured by said image sensor without acquiring an image.
- the calculation unit 302 further comprises an optional module 308 for determining the brightness of the parts of the scene located at a depth of field associated with a given focusing distance, in other words a brightness value associated with a focusing distance.
- This module 308 is in particular configured/programmed to carry out step 126 of the method 100, or step 202 of the method 200 of FIGURE 2.
- the calculation unit 302 comprises a module 310 for adjusting the brightness of the scene for acquiring an image of the scene at a given focusing distance.
- This module 310 may for example be configured to implement step 128 of the methods 100 and 200.
- the computing unit 302 further comprises a module 312 performing the adjustment of the imaging module to a focusing distance, for example by adjusting the distance between the image sensor and the lens.
- This module 312 may for example be configured to implement step 122 of the methods 100 and 200.
- This module 312 may be part of the device 300. Alternatively, this module 312 may exist in the apparatus used to image the scene. In this case, the device 300 may use such a module existing in the apparatus.
- the calculation unit 302 further comprises a module 314 controlling the triggering of the acquisition of an image of the scene, this image being able to be an exploratory image, a preliminary image, a definitive image at a given focusing distance, etc.
- This module 314 can for example be configured to trigger the acquisition of image(s) during at least one of the steps 104, 112, 124, 130, 204 of the methods 100 and 200.
- This module 314 can be part of the device 300.
- this module 314 can exist in the apparatus used to image the scene. In this case, the device 300 can use such a module existing in the apparatus.
- At least one of the modules 304-314 may be a module independent of the others. [0011] At least two of the modules 304-314 can be integrated within the same module.
- At least one of modules 304-314 may be a hardware module, such as a processor, a microchip, etc.
- At least one of the modules 304-314 may be a software module, such as a computer program.
- the calculation unit 302 may be, or may be integrated, in an electronic chip, or even in an application installed in a user device.
- the device 300 may further comprise, optionally, an image storage means 316, for storing the acquired images.
- This module 314 may for example be configured to store an image, or images, during step 132 of the methods 100 and 200.
- This storage means 316 is optional because such a storage means may already exist in the apparatus used to image the scene. In this case, the device according to the invention may use such a module existing in the apparatus.
- the device 300 may further comprise at least one means for illuminating the scene, and in particular a flash 320.
- a means 320 for illuminating the scene is optional because the device 300 may not comprise such an image acquisition means 318.
- the device 300 may be integrated into an apparatus which already has such a means.
- the device 300 may further comprise, optionally, - a mechanism (not shown) for adjusting the intensity of the flash, and/or
- the apparatus 400 of FIGURE 4 may comprise a device according to the invention, and in particular the device 300 of FIGURE 3.
- the device 400 is a smartphone, or a tablet, comprising the device 300 of FIGURE 3.
- the device 400 of FIGURE 4 comprises a camera module 318 and at least one flash 320 for illuminating the scene.
- the apparatus 400 comprises a display screen 402 equipped with a detection surface 404, for example capacitive.
- FIGURE 5 is a schematic representation of another non-limiting exemplary embodiment of an apparatus according to the present invention.
- the apparatus 500 of FIGURE 5 comprises means configured to implement the invention, and in particular any one of the methods 100 and 200.
- the apparatus 500 of FIGURE 5 may comprise a device according to the invention, and in particular the device 300 of FIGURE 3.
- the device 500 is a virtual reality, VR, headset, or an augmented reality headset, comprising the device 300 of FIGURE 3.
- the headset 500 of FIGURE 5 comprises in particular a camera module 318 and at least one flash 320 for illuminating the scene.
- a mechanism for adjusting the aperture of a diaphragm (not shown) of the camera module 318, positioned between the image sensor and the scene.
- the helmet 500 includes a display screen 502 in/on a visor of said helmet 500.
- FIGURE 6 is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the present invention.
- the apparatus 600 of FIGURE 6 comprises means configured to implement the invention, and in particular any one of the methods 100 or 200.
- the apparatus 600 of FIGURE 6 may comprise a device according to the invention, and in particular the device 300 of FIGURE 3.
- the apparatus is a medical imaging apparatus, such as an endoscope, an ultrasound apparatus, etc.
- the medical imaging apparatus 600 comprises a camera module 318 and at least one flash 320 for illuminating the scene.
- the medical imaging device 600 may further comprise:
- a mechanism for adjusting the aperture of a diaphragm (not shown) of the camera module 318, positioned between the image sensor and the scene.
- the medical imaging device 600 comprises a display screen 602 equipped with a detection surface 604, for example capacitive.
- the medical imaging device 600 may include other organs than those indicated above.
- FIGURE 7 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the present invention.
- the vehicle 700 of FIGURE 7 comprises means configured to implement the invention, and in particular any one of the methods 100 and 200 of FIGURES 1 and 2. [0044]
- the vehicle 700 of FIGURE 7 may comprise a device according to the invention, and in particular the device 300 of FIGURE 3.
- a mechanism for adjusting the aperture of a diaphragm (not shown) of the camera module 318, positioned between the image sensor and the scene.
- the vehicle 700 comprises a display screen 702 equipped with a detection surface 704, for example capacitive, arranged in the passenger compartment of the vehicle 700.
- vehicle 700 may include other members than those indicated above.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
DESCRIPTION DESCRIPTION
Titre : Procédé et dispositif d'acquisition d'une pile d'images d'une scène à luminosité améliorée Title: Method and device for acquiring a stack of images of a scene with enhanced brightness
[0001] La présente invention concerne un procédé d'obtention d'une pile d'images d'une scène à luminosité améliorée, ou équilibrée. Elle concerne également un programme d'ordinateur et un dispositif mettant en œuvre un tel procédé. Elle concerne en outre un appareil et un véhicule mettant en œuvre un tel procédé. [0001] The present invention relates to a method for obtaining a stack of images of a scene with enhanced, or balanced, brightness. It also relates to a computer program and a device implementing such a method. It further relates to an apparatus and a vehicle implementing such a method.
[0002] Le domaine de l'invention est le domaine de l'obtention d'une pile d'images d'une scène comprenant des images acquises à des distances de focalisation différentes. [0002] The field of the invention is the field of obtaining a stack of images of a scene comprising images acquired at different focusing distances.
État de la technique State of the art
[0003] On connaît la technique, appelée focus bracketing, ou focus stacking, « empilement de mises au point » en langue française, qui permet de capter une pile d'images d'une scène, chaque image étant captée à une distance de focalisation, ou à une mise au point, différente. Ensuite, la scène peut être représentée sur un support d'affichage, avec une plus grande profondeur de champ, en exploitant la pile d'images, par exemple en les combinant ou en les affichant à tour de rôle. [0003] We know the technique, called focus bracketing, or focus stacking, "stacking of focus points" in French, which makes it possible to capture a stack of images of a scene, each image being captured at a different focusing distance, or at a different focus. Then, the scene can be represented on a display medium, with a greater depth of field, by exploiting the stack of images, for example by combining them or by displaying them in turn.
[0004] Cette technique, bien qu'améliorant la profondeur de champ, présente des inconvénients et peut encore être améliorée. En effet, dans une scène les objets se trouvant à différentes profondeurs ne sont pas forcément dans les mêmes conditions d'imagerie, et en particulier dans les mêmes conditions d'éclairage, ce qui produit un manque de détails. Or, la technique du focus bracketing ne prend pas en compte ces différences et fournit une pile d'images de la scène comprenant des images dont les qualités varient en fonction des focus utilisés, en particulier en termes de luminosité. Ce qui peut générer une différence de luminosité importante entre les images de la pile d'images. Une telle différence de luminosité engendre un rendu qui est dégradé lors de la représentation de la scène à partir de la pile d'images. [0004] This technique, although improving the depth of field, has drawbacks and can still be improved. Indeed, in a scene, objects located at different depths are not necessarily in the same imaging conditions, and in particular in the same lighting conditions, which produces a lack of details. However, the focus bracketing technique does not take these differences into account and provides a stack of images of the scene comprising images whose qualities vary depending on the focuses used, in particular in terms of brightness. This can generate a significant difference in brightness between the images in the stack of images. Such a difference in brightness results in a rendering that is degraded when representing the scene from the image stack.
[0005] Un but de la présente invention est de remédier à au moins un des inconvénients précités. [0005] An aim of the present invention is to remedy at least one of the aforementioned drawbacks.
[0006] Un autre but de l'invention est de proposer une solution permettant d'imager une scène et de fournir une pile d'images de la scène de meilleure qualité, en particulier en termes de luminosité ou d'éclairage. [0006] Another aim of the invention is to propose a solution for imaging a scene and providing a stack of images of the scene of better quality, in particular in terms of brightness or lighting.
Exposé de l'invention Statement of the invention
[0007] L'invention propose d'atteindre au moins l'un des buts précités par un procédé d'acquisition d'une pile d'images d'une scène comprenant des images de ladite scène à des distances de focalisation différentes, avec un appareil comprenant un module caméra formé par un objectif optique associé à un capteur d'image ; ledit procédé comprenant en outre, pour au moins une desdites distances de focalisation, une phase d'acquisition comprenant les étapes suivantes : [0007] The invention proposes to achieve at least one of the aforementioned aims by a method of acquiring a stack of images of a scene comprising images of said scene at different focusing distances, with an apparatus comprising a camera module formed by an optical lens associated with an image sensor; said method further comprising, for at least one of said focusing distances, an acquisition phase comprising the following steps:
- comparaison d'une valeur de luminosité d'au moins une partie de ladite scène se trouvant à une profondeur de champ associée à ladite distance de focalisation, à au moins une valeur seuil de luminosité prédéfinie, - comparison of a brightness value of at least one part of said scene located at a depth of field associated with said focusing distance, to at least one predefined brightness threshold value,
- lorsque ladite valeur de luminosité ne satisfait pas ladite au moins une valeur seuil de luminosité, ajustement de la luminosité pour l'acquisition d'une image de ladite scène à ladite distance de focalisation, par modification d'au moins un paramètre dudit appareil pour, et - when said brightness value does not satisfy said at least one brightness threshold value, adjusting the brightness for the acquisition of an image of said scene at said focusing distance, by modifying at least one parameter of said device for, and
- acquisition d'une image de ladite scène à ladite distance de focalisation. - acquisition of an image of said scene at said focusing distance.
[0008] Ainsi, à l'instar des techniques connues, l'invention permet d'imager une scène pour obtenir une pile de plusieurs images captées à des distances de focalisation différentes, ou à des mises au point différentes. Une telle pile d'images permet de représenter la scène avec une plus grande profondeur de champ. [0009] En plus de ce qui est proposé par les techniques actuelles, l'invention propose d'ajuster la luminosité avec laquelle la scène est imagée pour au moins une distance de focalisation, en fonction de la luminosité reçue par l'appareil pour les parties de la scène se trouvant à la profondeur de champ associée à ladite distance de focalisation. Ainsi, l'invention permet d'imager une scène de manière plus performante et fournir une pile d'images de la scène dont la qualité, et en particulier la luminosité, est meilleure, ou tout du moins mieux harmonisée et équilibrée pour l'ensemble de la pile d'images, comparées aux techniques actuelles. Avec la présente invention, il est possible d'acquérir une pile d'images de la scène tout en évitant que certaines parties de la scène soient en saturation et d'autres parties de la scène soient sous- éclairées. L'invention permet de mieux contrôler et ajuster la luminosité lors de l'acquisition d'une pile d'images de la scène. [0008] Thus, like known techniques, the invention makes it possible to image a scene to obtain a stack of several images captured at different focusing distances, or at different focuses. Such a stack of images makes it possible to represent the scene with a greater depth of field. [0009] In addition to what is proposed by current techniques, the invention proposes to adjust the brightness with which the scene is imaged for at least one focusing distance, as a function of the brightness received by the apparatus for the parts of the scene located at the depth of field associated with said focusing distance. Thus, the invention makes it possible to image a scene more efficiently and provide a stack of images of the scene whose quality, and in particular the brightness, is better, or at least better harmonized and balanced for the entire stack of images, compared to current techniques. With the present invention, it is possible to acquire a stack of images of the scene while avoiding certain parts of the scene being saturated and other parts of the scene being under-illuminated. The invention makes it possible to better control and adjust the brightness when acquiring a stack of images of the scene.
[0010] Par image, on entend une image numérique, et en particulier une image matricielle, et plus particulièrement une image matricielle RGB par exemple. [0010] By image, we mean a digital image, and in particular a matrix image, and more particularly an RGB matrix image for example.
[0011] Par « profondeur de champ », on entend l’étendue de la zone de netteté qui figure sur une image, c'est-à-dire la zone entre le premier plan net et le dernier plan net de l'image. [0011] By "depth of field" is meant the extent of the area of sharpness which appears on an image, that is to say the area between the sharp foreground and the sharpest ground of the image.
[0012] Par « étendue de netteté », on entend la distance sur laquelle s'étend la partie nette de l'image, c'est-à-dire la distance allant du premier plan net et au dernier plan net de l'image. [0012] By "sharpness range" is meant the distance over which the sharp part of the image extends, that is to say the distance from the sharp foreground to the sharp last plane of the image.
[0013] Par distance de focalisation, on entend la distance à laquelle un objectif optique est focalisé, en référence à la position dudit objectif. La distance de focalisation pour la prise d'une image est ajustée généralement en modifiant la distance entre le capteur d'image et l'objectif optique. Ainsi, une première image d'une scène acquise à une première distance de focalisation représentera de manière nette une première partie de la scène, et une deuxième image d'une scène acquise à une deuxième distance de focalisation représentera de manière nette une deuxième partie de la scène. [0014] Suivant un exemple de réalisation non limitatif, donné à titre d'illustration des définitions indiquées ci-dessus, la distance de focalisation peut être ajustée sur 15 mètres. L'étendue de netteté peut être de 1.50 mètre et la profondeur de champ peut être de 14,50 mètres - 16 mètres. Dans ce cas, l'image représentera de manière nette tous les objets, ou les parties de la scène, se trouvant à une distance comprise entre 14,5m et 16m de l'objectif optique. [0013] By focusing distance is meant the distance at which an optical lens is focused, with reference to the position of said lens. The focusing distance for taking an image is generally adjusted by modifying the distance between the image sensor and the optical lens. Thus, a first image of a scene acquired at a first focusing distance will clearly represent a first part of the scene, and a second image of a scene acquired at a second focusing distance will clearly represent a second part of the scene. [0014] According to a non-limiting exemplary embodiment, given by way of illustration of the definitions indicated above, the focusing distance can be adjusted over 15 meters. The sharpness range can be 1.50 meters. and the depth of field can be 14.50 meters - 16 meters. In this case, the image will clearly represent all objects, or parts of the scene, located at a distance of between 14.5m and 16m from the optical lens.
[0015] Dans la suite, par « valeur de luminosité associée à une distance de focalisation » ou « valeur de luminosité pour une distance de focalisation », on entend la valeur de luminosité d'au moins une partie de la scène se trouvant dans la profondeur de champ associée à ladite distance de focalisation. [0015] In the following, by "brightness value associated with a focusing distance" or "brightness value for a focusing distance" is meant the brightness value of at least a part of the scene located in the depth of field associated with said focusing distance.
[0016] L'au moins une valeur seuil prédéterminée peut être, ou peut comprendre, une valeur minimale de luminosité à atteindre. [0016] The at least one predetermined threshold value may be, or may include, a minimum brightness value to be achieved.
[0017] L'au moins une valeur seuil prédéterminée peut être, ou peut comprendre, une valeur maximale de luminosité à ne pas dépasser. [0017] The at least one predetermined threshold value may be, or may include, a maximum brightness value not to be exceeded.
[0018] De préférence, l'au moins une valeur seuil prédéterminée peut être, ou peut comprendre, un intervalle prédéterminé de valeurs de luminosité à satisfaire, ladite intervalle étant bordée par une valeur seuil minimale de luminosité et par une valeur seuil maximale de luminosité. Ainsi, la scène est imagée et plusieurs images de la scène sont obtenues, chacune pour une distance de focalisation différente, et chacune représentant la scène avec une valeur de luminosité comprise dans un intervalle. Cela permet d'obtenir une pile d'images de la scène, lesdites images étant acquises à différentes distances de focalisation, dont la luminosité est plus uniforme et harmonisée, et ce quelle que soit la distance de focalisation. [0018] Preferably, the at least one predetermined threshold value may be, or may comprise, a predetermined interval of brightness values to be satisfied, said interval being bordered by a minimum brightness threshold value and by a maximum brightness threshold value. Thus, the scene is imaged and several images of the scene are obtained, each for a different focusing distance, and each representing the scene with a brightness value included in an interval. This makes it possible to obtain a stack of images of the scene, said images being acquired at different focusing distances, the brightness of which is more uniform and harmonized, regardless of the focusing distance.
[0019] L'au moins une valeur seuil peut être déterminée de manière indépendante de la scène. Suivant des modes de réalisation, l'au moins une valeur seuil peut être déterminée comme étant une valeur de luminosité, ou un intervalle de valeurs de luminosité, souhaité(e) pour imager la scène. [0019] The at least one threshold value may be determined independently of the scene. According to embodiments, the at least one threshold value may be determined as a brightness value, or a range of brightness values, desired for imaging the scene.
[0020] L'au moins une valeur seuil peut être déterminée en fonction de la luminosité de la scène, ou en fonction de la scène. Par exemple, une valeur moyenne de luminosité de la scène peut être déterminée/mesurée, et un intervalle de valeurs de luminosité, d'une largeur donnée, peut être centrée sur ladite valeur moyenne. Par exemple, si la valeur moyenne de luminosité de la scène est VLM, alors un intervalle de luminosité peut être déterminée comme étant (Vmin-Vmax), avec Vmin= VLM-X%VLM et Vmax=VLM+Y%VLM, avec X=Y, ou X*Y. Suivant un exemple non limitatif X=Y=10. Dans ce cas, la scène sera imagée et une pile d'images de la scène sera acquise comprenant des images à des distances de focalisation différents, et dont la luminosité et contrôlée et est peu variable d'une image à l'autre. [0020] The at least one threshold value may be determined as a function of the brightness of the scene, or as a function of the scene. For example, an average brightness value of the scene may be determined/measured, and an interval of brightness values, of a given width, may be centered on said average value. For example, if the average brightness value of the scene is VLM, then a brightness interval can be determined as being (Vmin-Vmax), with Vmin= VLM-X%VLM and Vmax=VLM+Y%VLM, with X=Y, or X*Y. According to a non-limiting example X=Y=10. In this case, the scene will be imaged and a stack of images of the scene will be acquired comprising images at different focusing distances, and whose brightness is controlled and varies little from one image to another.
[0021] La luminosité moyenne de la scène peut être calculée à partir d'une image exploratoire de la scène captée préalablement à l'acquisition de la pile d'image. Alternativement, ou en plus, la luminosité moyenne de la scène peut être mesurée avec un capteur prévu à cet effet et équipant l'appareil utilisé pour imager la scène. [0021] The average brightness of the scene can be calculated from an exploratory image of the scene captured prior to the acquisition of the image stack. Alternatively, or in addition, the average brightness of the scene can be measured with a sensor provided for this purpose and equipping the device used to image the scene.
[0022] Suivant des modes de réalisation, pour au moins une distance de focalisation, l'ajustement de la luminosité peut réaliser une augmentation de la luminosité lors de l'acquisition de l'image à ladite distance de focalisation. [0023] En effet, la scène peut comporter certaines zones qui sont sous- éclairées, par rapport au reste de la scène. Lorsque, pour une distance de focalisation, la profondeur de champ correspond à ces zones, ou comprend ces zones, dans ce cas la luminosité peut être augmentée pour l'acquisition de l'image à ladite distance de focalisation. Ainsi, l'image acquise pour ladite distance de focalisation représentera la scène avec un éclairage augmentée, ou améliorée, pour lesdites zones, de sorte à diminuer la différence d'éclairage entre ces zones et le reste de la scène. [0022] According to embodiments, for at least one focusing distance, the brightness adjustment can achieve an increase in brightness during the acquisition of the image at said focusing distance. [0023] Indeed, the scene may include certain areas which are under-illuminated, compared to the rest of the scene. When, for a focusing distance, the depth of field corresponds to these areas, or includes these areas, in this case the brightness can be increased for the acquisition of the image at said focusing distance. Thus, the image acquired for said focusing distance will represent the scene with increased, or improved, lighting for said areas, so as to reduce the difference in lighting between these areas and the rest of the scene.
[0024] Suivant des modes de réalisation, pour au moins une distance de focalisation, l'ajustement de la luminosité peut réaliser une diminution de la luminosité lors de l'acquisition de l'image à ladite distance de focalisation. [0024] According to embodiments, for at least one focusing distance, the brightness adjustment can achieve a decrease in brightness during image acquisition at said focusing distance.
[0025] En effet, la scène peut comporter certaines zones qui sont suréclairées, par rapport au reste de la scène. Lorsque la profondeur de champ associée à une distance de focalisation correspond à ces zones, ou comprend ces zones, la luminosité peut être diminuée pour l'acquisition de l'image à ladite distance de focalisation. Ainsi, l'image acquise pour ladite distance de focalisation représentera la scène avec un éclairage diminué ou réduit pour lesdites zones, de sorte à diminuer la différence d'éclairage entre ces zones et le reste de la scène. [0025] Indeed, the scene may include certain areas which are overlit, compared to the rest of the scene. When the depth of field associated with a focusing distance corresponds to these areas, or includes these areas, the brightness may be reduced for the acquisition of the image at said focusing distance. Thus, the image acquired for said focusing distance focus will represent the scene with diminished or reduced lighting for said areas, so as to reduce the difference in lighting between these areas and the rest of the scene.
[0026] Suivant des modes de réalisation, l'ajustement de la luminosité peut réaliser : [0026] According to embodiments, the brightness adjustment can achieve:
- un déclenchement, et/ou - a trigger, and/or
- un ajustement de l'intensité moyenne : d'un moyen d'éclairage de la scène, et en particulier d'un flash, équipant l'appareil d'imagerie. - an adjustment of the average intensity: of a means of lighting the scene, and in particular of a flash, equipping the imaging device.
[0027] Par exemple, pour au moins une distance de focalisation, lors de l'acquisition de l'image de la scène à ladite distance de focalisation, le flash peut être déclenché pour augmenter la luminosité de la scène. [0027] For example, for at least one focusing distance, when acquiring the image of the scene at said focusing distance, the flash may be triggered to increase the brightness of the scene.
[0028] Par exemple, pour au moins une distance de focalisation, lors de l'acquisition de l'image de la scène à ladite distance de focalisation, le flash peut être déclenché et l'intensité moyenne dudit flash peut être ajustée, à la hausse ou à la baisse, pour éclairer la scène, et ainsi ajuster la luminosité de la scène pour l'acquisition d'une image à ladite distance de focalisation. [0028] For example, for at least one focusing distance, when acquiring the image of the scene at said focusing distance, the flash may be triggered and the average intensity of said flash may be adjusted, upwards or downwards, to illuminate the scene, and thus adjust the brightness of the scene for acquiring an image at said focusing distance.
[0029] Suivant un exemple de réalisation, l'intensité moyenne du flash peut être ajustée en ajustant l'intensité instantanée dudit flash. Dans ce cas, le flash émet une lumière plus ou moins forte pour éclairer la scène. [0029] According to an exemplary embodiment, the average intensity of the flash can be adjusted by adjusting the instantaneous intensity of said flash. In this case, the flash emits a more or less strong light to illuminate the scene.
[0030] Suivant un exemple de réalisation, l'intensité moyenne du flash peut être ajustée par modulation temporelle dudit flash. Dans ce cas, le flash émet une lumière dont l'intensité est constante, mais le temps d'émission totale du flash est ajusté à la hausse ou à la baisse pour augmenter ou diminuer la lumière émise vers la scène. Une telle modulation du flash peut être obtenue avec un flash qui réalise une émission de lumière séquentielle, par exemple sous la forme d'une suite d'impulsions de lumière, et la modulation temporelle peut être obtenue en ajustant soit la fréquence d'émission, soit la largeur de chaque impulsion. [0031] Suivant des modes de réalisation, l'ajustement de la luminosité peut réaliser une modification d'un temps d'exposition du capteur d'image. [0030] According to an exemplary embodiment, the average intensity of the flash can be adjusted by time modulation of said flash. In this case, the flash emits light whose intensity is constant, but the total emission time of the flash is adjusted upwards or downwards to increase or decrease the light emitted towards the scene. Such modulation of the flash can be achieved with a flash which performs sequential light emission, for example in the form of a series of light pulses, and the time modulation can be achieved by adjusting either the emission frequency or the width of each pulse. [0031] According to embodiments, adjusting the brightness may effect a modification of an exposure time of the image sensor.
[0032] En effet, plus le temps d'exposition du capteur d'image est long plus le capteur d'image collecte de la lumière provenant de la scène, et donc plus la scène est imagée avec une luminosité augmentée, et vice versa. Partant de là, pour au moins une distance de focalisation, la luminosité avec laquelle la scène est imagée à ladite distance de focalisation peut être ajustée à la hausse ou à la baisse, en ajustant à la hausse ou à la baisse le temps d'exposition du capteur d'image. [0032] Indeed, the longer the exposure time of the image sensor, the more light the image sensor collects from the scene, and therefore the more the scene is imaged with increased brightness, and vice versa. From there, for at least one focusing distance, the brightness with which the scene is imaged at said focusing distance can be adjusted upwards or downwards, by adjusting the exposure time of the image sensor upwards or downwards.
[0033] Suivant des modes de réalisation, l'ajustement de la luminosité peut réaliser une modification de l'ouverture d'un diaphragme équipant l'appareil. [0034] En effet, plus l'ouverture du diaphragme est grande plus le capteur d'image collecte de la lumière provenant de la scène, et donc plus la scène est imagée avec une luminosité augmentée, vice versa. Partant de là, pour au moins une distance de focalisation, la luminosité avec laquelle la scène est imagée à ladite distance de focalisation peut être ajustée à la hausse ou à la baisse, en ajustant à la hausse ou à la baisse l'ouverture du diaphragme. [0033] According to embodiments, the adjustment of the brightness can result in a modification of the opening of a diaphragm equipping the device. [0034] Indeed, the larger the opening of the diaphragm, the more the image sensor collects light coming from the scene, and therefore the more the scene is imaged with increased brightness, vice versa. Based on this, for at least one focusing distance, the brightness with which the scene is imaged at said focusing distance can be adjusted upwards or downwards, by adjusting the opening of the diaphragm upwards or downwards.
[0035] Suivant des modes de réalisation, le procédé selon l'invention peut comprendre une étape de détermination d'une carte de profondeurs de la scène, les distances de focalisation pour lesquelles les images sont acquises étant sélectionnées en fonction de ladite carte de profondeurs. [0035] According to embodiments, the method according to the invention may comprise a step of determining a depth map of the scene, the focusing distances for which the images are acquired being selected as a function of said depth map.
[0036] La carte de profondeurs de la scène peut être déterminée suivant toute technique connue. [0036] The depth map of the scene can be determined using any known technique.
[0037] Suivant des modes de réalisation, la carte de profondeurs peut être déterminée par analyse d'une image de ladite scène, dite image exploratoire, prise préalablement à l'acquisition de la pile d'images, et en particulier préalablement à la première phase d'acquisition. [0037] According to embodiments, the depth map can be determined by analyzing an image of said scene, called an exploratory image, taken prior to the acquisition of the stack of images, and in particular prior to the first acquisition phase.
[0038] L'image exploratoire peut être analysée par toute technique connue pour déterminer les profondeurs des objets qui se trouvent dans la scène. Ainsi, une carte de profondeur de la scène peut être obtenue, indiquant les profondeurs des différents objets se trouvant dans la scène. [0039] Suivant un premier exemple, il est possible d'utiliser les données captées par les duals pixels du capteur d'image utilisé pour capter ladite image exploratoire. Un dual pixel est un pixel scindé en deux demi pixels, notés « pa » et « pb » dans la suite, dont la micro lentille posée juste au- dessus, éclaire donc pour une moitié le demi-pixel pa et pour l'autre moitié le demi-pixel pb. Lorsque, l'image est au focus, l'intensité captée le demi-pixel, Ipa, est égale à l'intensité, noté Ipb, captée par le demi-pixel pb. Lorsque l'image est hors focus, on a un écart dont le sens est lié au sens d'écart au focus : par exemple Ipa>Ppb quand les points observés sont plus loin que la distance de focalisation. Et quand Ipa< Ipb, les points observés sont plus proche. Ces demi-pixels sont donc utilisés pour faire la mise au point sur une zone de l'image : le moteur/mécanisme de mise au point est actionné dans le sens indiqué par (Ipa-Ipb) dans la zone considérée, et est arrêté quand (Ipa- Ipb) atteint zéro ou est sous un certain seuil (valeur absolue (Ipa-Ipb) < seuil). Ces dual pixels peuvent aussi servir à trouver l'écart de focalisation de la zone considérée. Il convient alors d'analyser un ensemble de pixels de la zone, de retrouver sur les pixels pa de la zone une certaine image (floue), retrouver l'image correspondante sur les pixels pb de la zone. La comparaison des 2 images fournit une idée du défocus, et connaissant la distance de mise au point, on peut en déduire la ou les profondeur(s) de la zone, et donc de chaque objet de la zone. Suivant un deuxième exemple, il est possible d'utiliser les fonctions de transfert optique, en particulier la PSF (pour « Point Spread Function ») de l'objectif optique utilisé pour capter l'image. En effet, la PSF de l'objectif optique varie avec la distance objectif optique et objet se trouvant dans la scène. En connaissant les différents PSF de l'objectif optique, il est possible de déterminer la profondeur de chaque objet de la scène se trouvant sur l'image exploratoire par convolution/déconvolution de ladite image exploratoire avec les différents PSF. Bien entendu d'autres techniques sont possibles et l'invention n'est pas limité aux exemples qui viennent d'être décrits. [0038] The exploratory image can be analyzed by any known technique for determining the depths of objects in the scene. Thus, a depth map of the scene can be obtained, indicating the depths of different objects in the scene. [0039] According to a first example, it is possible to use the data captured by the dual pixels of the image sensor used to capture said exploratory image. A dual pixel is a pixel split into two half pixels, denoted "pa" and "pb" in the following, the micro lens placed just above which therefore illuminates half the half-pixel pa for one half and half the half-pixel pb for the other half. When the image is in focus, the intensity captured by the half-pixel, Ipa, is equal to the intensity, denoted Ipb, captured by the half-pixel pb. When the image is out of focus, there is a difference whose direction is linked to the direction of difference in focus: for example Ipa>Ppb when the observed points are further away than the focusing distance. And when Ipa<Ipb, the observed points are closer. These half-pixels are therefore used to focus on an area of the image: the focusing motor/mechanism is actuated in the direction indicated by (Ipa-Ipb) in the area considered, and is stopped when (Ipa-Ipb) reaches zero or is below a certain threshold (absolute value (Ipa-Ipb) < threshold). These dual pixels can also be used to find the focus difference of the area considered. It is then necessary to analyze a set of pixels in the area, to find a certain (blurred) image on the pa pixels of the area, to find the corresponding image on the pb pixels of the area. Comparing the 2 images provides an idea of the defocus, and knowing the focusing distance, we can deduce the depth(s) of the area, and therefore of each object in the area. Following a second example, it is possible to use the optical transfer functions, in particular the PSF (for "Point Spread Function") of the optical lens used to capture the image. Indeed, the PSF of the optical lens varies with the distance between the optical lens and the object in the scene. By knowing the different PSFs of the optical lens, it is possible to determine the depth of each object in the scene in the exploratory image by convolution/deconvolution of said exploratory image with the different PSFs. Of course, other techniques are possible and the invention is not limited to the examples that have just been described.
[0040] Suivant des modes de réalisation, la carte de profondeurs de la scène peut être déterminée avec au moins un capteur pour mesurer les profondeurs des objets se trouvant dans la scène. [0041] Un tel capteur peut être un lidar, une caméra temps de vol, etc. [0040] According to embodiments, the depth map of the scene can be determined with at least one sensor for measuring the depths of objects located in the scene. [0041] Such a sensor can be a lidar, a time-of-flight camera, etc.
[0042] Un tel capteur peut équiper l'appareil utilisé pour imager la scène. [0042] Such a sensor can equip the device used to image the scene.
[0043] Le procédé selon l'invention comprend, pour au moins une, et en particulier chaque, distance de focalisation une étape de détermination de la luminosité de la scène pour ladite distance de focalisation, ou pour au moins une zone/partie de la scène se trouvant dans la profondeur de champ associée à ladite distance de focalisation. [0043] The method according to the invention comprises, for at least one, and in particular each, focusing distance, a step of determining the brightness of the scene for said focusing distance, or for at least one zone/part of the scene located in the depth of field associated with said focusing distance.
[0044] Suivant des modes de réalisation, pour au moins une distance de focalisation, la valeur de luminosité de la scène à ladite distance de focalisation peut être déterminée par analyse d'une image exploratoire de la scène prise préalablement à l'acquisition de la pile d'images, et en particulier préalablement à la première phase d'acquisition. [0044] According to embodiments, for at least one focusing distance, the brightness value of the scene at said focusing distance can be determined by analysis of an exploratory image of the scene taken prior to the acquisition of the stack of images, and in particular prior to the first acquisition phase.
[0045] Dans ce cas, les zones de la scène se trouvant dans la profondeur de champ associée à ladite distance de focalisation sont identifiées sur ladite image exploratoire. La luminosité desdites zones peut ensuite être calculée à partir des valeurs de luminosité de chaque pixel de l'image exploratoire correspondant auxdites zones. [0045] In this case, the areas of the scene located within the depth of field associated with said focusing distance are identified on said exploratory image. The brightness of said areas can then be calculated from the brightness values of each pixel of the exploratory image corresponding to said areas.
[0046] Suivant des modes de réalisation, pour au moins une distance de focalisation, la valeur de la luminosité de la scène à ladite distance de focalisation peut être déterminée par analyse d'une image, dite image préliminaire, de la scène prise à ladite distance de focalisation. [0046] According to embodiments, for at least one focusing distance, the value of the brightness of the scene at said focusing distance can be determined by analyzing an image, called a preliminary image, of the scene taken at said focusing distance.
[0047] Dans ce cas, l'image préliminaire est prise à ladite distance de focalisation. Les zones nettes de la scène sont déterminées sur ladite image. La valeur de la luminosité de la scène peut alors être déterminée à partir des valeurs de luminosité des pixels appartenant aux zones nettes de ladite image préliminaire. [0047] In this case, the preliminary image is taken at said focusing distance. The sharp areas of the scene are determined on said image. The brightness value of the scene can then be determined from the brightness values of the pixels belonging to the sharp areas of said preliminary image.
[0048] Dans l'image préliminaire, et de manière générale dans une image de la scène, les zones nettes de la scène peuvent être déterminées par toute technique connue. Suivant un exemple de réalisation non limitatif, les zones nettes de la scène peuvent être déterminées par exemple par analyse de variance locale de l'image : les zones correspondent aux zones pour lesquelles cette variance locale est supérieure à un certain seuil prédéfini. [0048] In the preliminary image, and generally in an image of the scene, the sharp areas of the scene can be determined by any known technique. According to a non-limiting exemplary embodiment, the sharp areas of the scene can be determined for example by analysis of local variance of the image: the areas correspond to the areas for which this local variance is greater than a certain predefined threshold.
[0049] La valeur de luminosité d'un pixel d'une image peut par exemple correspondre à une moyenne des valeurs dudit pixel. [0049] The brightness value of a pixel of an image may for example correspond to an average of the values of said pixel.
[0050] Par exemple, pour chaque pixel d'une image couleur RGB, on a une valeur pour chaque couleur : une valeur pour la couleur rouge, une valeur pour la couleur verte et une valeur pour la couleur bleue. Dans ce cas, la valeur de luminosité pour ledit pixel peut être calculée comme étant une moyenne desdites valeurs rouge, vert et bleu dudit pixel. Bien entendu, cet exemple est donné à titre d'illustration seulement et d'autres techniques de calcul de luminosité peuvent être utilisées. [0050] For example, for each pixel of an RGB color image, there is a value for each color: a value for the red color, a value for the green color and a value for the blue color. In this case, the brightness value for said pixel can be calculated as an average of said red, green and blue values of said pixel. Of course, this example is given for illustration purposes only and other brightness calculation techniques can be used.
[0051] Suivant des modes de réalisation, pour au moins une distance de focalisation, le procédé selon l'invention peut comprendre : [0051] According to embodiments, for at least one focusing distance, the method according to the invention can comprise:
- une acquisition sans flash d'une première image de la scène à ladite distance de focalisation, et - a flash-free acquisition of a first image of the scene at said focusing distance, and
- une acquisition avec flash d'une deuxième image de la scène à ladite distance de focalisation. - a flash acquisition of a second image of the scene at the said focusing distance.
[0052] Dans ce cas, l'image conservée dans la pile d'images pour ladite distance de focalisation peut être soit la première image prise sans flash, soit la deuxième image prise avec flash, soit une image obtenue à partir desdites première et deuxième images, par exemple une image correspondant à la moyenne desdites images. [0052] In this case, the image stored in the image stack for said focusing distance may be either the first image taken without flash, or the second image taken with flash, or an image obtained from said first and second images, for example an image corresponding to the average of said images.
[0053] Suivant des modes de réalisation, au moins une image de la scène peut être une image 2D. [0053] According to embodiments, at least one image of the scene may be a 2D image.
[0054] Suivant des modes de réalisation, au moins une image de la scène peut être une image 3D. [0054] According to embodiments, at least one image of the scene may be a 3D image.
[0055] Suivant un autre aspect de la même invention, il est proposé un programme d'ordinateur comprenant des instructions exécutables qui, lorsqu'elles sont exécutées par un appareil informatique, mettent en en œuvre toutes les étapes du procédé selon l'invention. [0055] According to another aspect of the same invention, there is provided a computer program comprising executable instructions which, when executed by a computer device, implement all the steps of the method according to the invention.
[0056] Le programme d'ordinateur peut être en tout langage informatique, tel que par exemple en langage machine, en C, C++, JAVA, Python, etc. [0056] The computer program can be in any computer language, such as for example machine language, C, C++, JAVA, Python, etc.
[0057] Un tel programme d'ordinateur peut se présenter sous la forme d'une application individuelle. Alternativement, un tel programme d'ordinateur peut être intégré dans une application photo ou vidéo, ou encore dans une application de lecture d'image ou de vidéo. [0057] Such a computer program may be in the form of an individual application. Alternatively, such a computer program may be integrated into a photo or video application, or into an image or video playback application.
[0058] Selon un autre aspect de l'invention, il est proposé un dispositif comprenant des moyens configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention. [0058] According to another aspect of the invention, a device is proposed comprising means configured to implement all the steps of the method according to the invention.
[0059] Le dispositif selon l'invention peut être, ou être intégré dans, tout type d'appareil tel qu'un smartphone, une tablette, un ordinateur, un calculateur, un processeur, une puce informatique, programmé pour mettre en œuvre le procédé selon l'invention, par exemple en exécutant le programme d'ordinateur selon l'invention. [0059] The device according to the invention can be, or be integrated into, any type of device such as a smartphone, a tablet, a computer, a calculator, a processor, a computer chip, programmed to implement the method according to the invention, for example by executing the computer program according to the invention.
[0060] Selon un autre aspect de l'invention, il est proposé un appareil comprenant : [0060] According to another aspect of the invention, there is provided an apparatus comprising:
- au moins un module caméra, - at least one camera module,
- au moins une unité de calcul ; configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention. - at least one computing unit; configured to implement all the steps of the method according to the invention.
[0061] Suivant des modes de réalisation, l'appareil peut en outre comprendre un flash, et optionnellement un mécanisme d'ajustement de l'intensité moyenne du flash. [0061] According to embodiments, the apparatus may further comprise a flash, and optionally a mechanism for adjusting the average intensity of the flash.
[0062] Suivant des modes de réalisation, l'appareil peut en outre comprendre un mécanisme d'ajustement du temps d'exposition du capteur d'image. [0063] Suivant des modes de réalisation, l'appareil peut en outre un diaphragme et un mécanisme d'ajustement de l'ouverture dudit diaphragme. [0062] According to embodiments, the apparatus may further comprise a mechanism for adjusting the exposure time of the image sensor. [0063] According to embodiments, the apparatus may further include a diaphragm and a mechanism for adjusting the opening of said diaphragm.
[0064] En particulier, l'appareil peut être un appareil utilisateur de type Smartphone, tablette, etc. comprenant un écran d'affichage. [0064] In particular, the device may be a user device of the Smartphone, tablet, etc. type comprising a display screen.
[0065] Dans ce cas, l'appareil utilisateur peut en outre comprendre un écran d'affichage, une surface de détection capacitive, etc. [0065] In this case, the user device may further comprise a display screen, a capacitive sensing surface, etc.
[0066] En particulier, l'appareil peut être un appareil utilisateur de type ordinateur. [0066] In particular, the device may be a computer-type user device.
[0067] Dans ce cas, l'appareil utilisateur de type ordinateur peut comprendre un écran d'affichage, une surface tactile, en particulier intégrée dans, ou associée à, l'écran d'affichage dudit ordinateur, etc. [0067] In this case, the computer-type user device may comprise a display screen, a touch-sensitive surface, in particular integrated into, or associated with, the display screen of said computer, etc.
[0068] En particulier, l'appareil peut être une télévision. [0068] In particular, the apparatus may be a television.
[0069] En particulier, l'appareil peut être un casque de réalité virtuelle ou un casque de réalité augmentée. [0069] In particular, the device may be a virtual reality headset or an augmented reality headset.
[0070] Dans ce cas, le casque peut comprendre un écran d'affichage d'au moins une image, un ou des capteurs en particulier optiques, etc. [0070] In this case, the helmet may comprise a screen for displaying at least one image, one or more sensors, in particular optical sensors, etc.
[0071] En particulier, l'appareil peut être un dispositif d'imagerie médicale. [0071] In particular, the apparatus may be a medical imaging device.
[0072] En particulier, le dispositif d'imagerie médicale peut être un endoscope, un appareil d'échographie, etc. [0072] In particular, the medical imaging device may be an endoscope, an ultrasound device, etc.
[0073] Bien entendu, l'appareil selon l'invention n'est pas limité aux exemples qui viennent d'être donnés. [0073] Of course, the apparatus according to the invention is not limited to the examples which have just been given.
[0074] Suivant un autre aspect de la présente invention, il est proposé un véhicule comprenant : [0074] According to another aspect of the present invention, there is provided a vehicle comprising:
- au moins un module caméra, et - at least one camera module, and
- au moins une unité de calcul ; configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention. - at least one computing unit; configured to implement all the steps of the method according to the invention.
[0075] Suivant des modes de réalisation, le véhicule peut en outre comprendre un flash, et optionnellement un mécanisme d'ajustement de l'intensité moyenne du flash. [0075] According to embodiments, the vehicle may further comprise a flash, and optionally a mechanism for adjusting the average intensity of the flash.
[0076] Suivant des modes de réalisation, le véhicule peut en outre comprendre un mécanisme d'ajustement du temps d'exposition du capteur d'image. [0076] According to embodiments, the vehicle may further comprise a mechanism for adjusting the exposure time of the image sensor.
[0077] Suivant des modes de réalisation, le véhicule peut en outre un diaphragme et un mécanisme d'ajustement de l'ouverture dudit diaphragme. [0077] According to embodiments, the vehicle may further have a diaphragm and a mechanism for adjusting the opening of said diaphragm.
[0078] Suivant des modes de réalisation, le véhicule peut être un véhicule terrestre, tel qu'une voiture, autonome, semi-autonome ou non-autonome. [0078] According to embodiments, the vehicle may be a land vehicle, such as a car, autonomous, semi-autonomous or non-autonomous.
[0079] Suivant des modes de réalisation, le véhicule peut être un véhicule volant, tel qu'un drone, un avion, un hélicoptère, autonome, semi-autonome ou non-autonome. [0079] According to embodiments, the vehicle may be a flying vehicle, such as a drone, an airplane, a helicopter, autonomous, semi-autonomous or non-autonomous.
[0080] Suivant des modes de réalisation, le véhicule peut être un véhicule maritime, tel qu'un bateau ou un sous-marin, autonome, semi-autonome ou non-autonome. [0080] According to embodiments, the vehicle may be a maritime vehicle, such as a boat or a submarine, autonomous, semi-autonomous or non-autonomous.
Description des figures et modes de réalisation Description of figures and embodiments
[0081] D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée de modes de réalisation nullement limitatifs, et des dessins annexés sur lesquels : [0081] Other advantages and characteristics will appear on examining the detailed description of non-limiting embodiments, and the appended drawings in which:
- la FIGURE 1 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé selon l'invention ; - FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the invention;
- la FIGURE 2 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un procédé selon l'invention ;- FIGURE 2 is a schematic representation of another non-limiting exemplary embodiment of a method according to the invention;
- la FIGURE 3 est une représentation schématique d'un exemple de réalisation non limitatif d'un dispositif selon l'invention ; - FIGURE 3 is a schematic representation of a non-limiting exemplary embodiment of a device according to the invention;
- les FIGURES 4-6 sont des représentations schématiques d'exemple de réalisation non limitatifs d'un appareil selon l'invention ; et - la FIGURE 7 est une représentation schématique d'un exemple de réalisation non limitatif d'un véhicule selon l'invention. - FIGURES 4-6 are schematic representations of non-limiting exemplary embodiments of an apparatus according to the invention; and - FIGURE 7 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the invention.
[0082] Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si c’est cette partie qui est uniquement suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. [0082] It is understood that the embodiments which will be described below are in no way limiting. In particular, it will be possible to imagine variants of the invention comprising only a selection of characteristics described below isolated from the other characteristics described, if this selection of characteristics is sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art. This selection comprises at least one preferably functional characteristic without structural details, or with only a part of the structural details if it is this part which is only sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art.
[0083] En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan technique. [0083] In particular, all the variants and all the embodiments described can be combined with each other if nothing prevents this combination from a technical point of view.
[0084] Sur les figures et dans la suite de la description, les éléments communs à plusieurs figures conservent la même référence. [0084] In the figures and in the remainder of the description, the elements common to several figures retain the same reference.
[0085] La FIGURE 1 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé selon la présente invention. [0085] FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the present invention.
[0086] Le procédé 100 de la FIGURE 1 peut être utilisé pour obtenir, avec un appareil, une pile d'images de la scène, comprenant des images acquises à des distances de focalisation différentes, dont les luminosités sont améliorées et en particulier harmonisées. [0086] The method 100 of FIGURE 1 can be used to obtain, with a device, a stack of images of the scene, comprising images acquired at different focusing distances, the brightnesses of which are improved and in particular harmonized.
[0087] L'appareil utilisé pour imager la scène comprend un module caméra comportant un capteur d'image associé à un objectif optique. De manière optionnelle, mais de préférence, l'appareil comprend un flash et éventuellement un premier mécanisme pour ajuster l'intensité moyenne du flash. De manière optionnelle, mais de préférence, l'appareil comprend un deuxième mécanisme permettant d'ajuster le temps d'exposition du capteur d'image. De manière optionnelle, mais de préférence, l'appareil comprend un diaphragme, et éventuellement un troisième mécanisme permettant d'ajuster l'ouverture dudit diaphragme. Bien entendu, l'appareil peut comprendre d'autres moyens que ceux indiqués ici, à la place ou en combinaison avec au moins un des moyens listés plus haut. [0087] The apparatus used to image the scene comprises a camera module comprising an image sensor associated with an optical lens. Optionally, but preferably, the apparatus comprises a flash and possibly a first mechanism for adjusting the average intensity of the flash. Optionally, but preferably, the apparatus comprises a second mechanism for adjusting the exposure time of the image sensor. Optionally, but preferably, the apparatus comprises a diaphragm, and possibly a third mechanism for adjusting the opening of said diaphragm. Of course, the apparatus may include means other than those indicated here, instead of or in combination with at least one of the means listed above.
[0088] Le procédé 100 comprend une étape optionnelle 102 pour établir une carte de profondeurs de la scène. Une telle carte de profondeur peut être établie de différentes manières. [0088] The method 100 comprises an optional step 102 for establishing a depth map of the scene. Such a depth map can be established in different ways.
[0089] Dans l'exemple représenté sur la FIGURE 1, la carte de profondeur est établie à partir d'une image exploratoire de la scène. Dans ce cas, une image de la scène est acquise par l'appareil lors d'une étape 104 : cette image est appelée première image exploratoire. La première image exploratoire est analysée lors d'une étape 106 pour déterminer la profondeur des objets se trouvant dans la scène. Par exemple, une valeur de profondeur est déterminée pour chaque objet de la scène, indiquant la distance à laquelle se trouve ledit objet par rapport à l'appareil utilisé pour imager la scène. [0089] In the example shown in FIGURE 1, the depth map is established from an exploratory image of the scene. In this case, an image of the scene is acquired by the device during a step 104: this image is called the first exploratory image. The first exploratory image is analyzed during a step 106 to determine the depth of the objects in the scene. For example, a depth value is determined for each object in the scene, indicating the distance at which said object is located relative to the device used to image the scene.
[0090] La détermination de la profondeur d'un objet se trouvant dans une image peut être réalisée par toute technique connue. Suivant un premier exemple, il est possible d'utiliser les données captées par les duals pixels du capteur d'image utilisé pour capter ladite image. Un dual pixel est un pixel scindé en deux demi pixels, notés « pa » et « pb » dans la suite, dont la micro lentille posée juste au-dessus, éclaire donc pour une moitié le demi-pixel pa et pour l'autre moitié le demi-pixel pb. Lorsque, l'image est au focus, l'intensité captée par le demi-pixel, Ipa, est égale à l'intensité, noté Ipb, captée par le demi-pixel pb. Lorsque l'image est hors focus, on a un écart dont le sens est lié au sens d'écart au focus : par exemple Ipa>Ppb quand les points observés sont plus loin que la distance de focalisation. Et quand Ipa< Ipb, les points observés sont plus proche. Ces demi-pixels sont donc utilisés pour faire la mise au point sur une zone de l'image : le moteur/mécanisme de mise au point est actionné dans le sens indiqué par (Ipa-Ipb) dans la zone considérée, et est arrêté quand (Ipa-Ipb) atteint zéro ou est sous un certain seuil (valeur absolue (Ipa-Ipb) < seuil). Ces dual pixels peuvent aussi servir à trouver l'écart de focalisation de la zone considérée. Il convient alors d'analyser un ensemble de pixels de la zone, de retrouver sur les demi-pixels pa de la zone une certaine image (floue), retrouver l'image correspondante sur les demi-pixels pb de la zone. La comparaison des 2 images fournit une idée du défocus, et connaissant la distance de mise au point, on peut en déduire la ou les profondeur(s) de la zone, et donc de chaque objet de la zone. Suivant un deuxième exemple, il est possible d'utiliser les fonctions de transfert optique, en particulier la PSF (pour « Point Spread Function ») de l'objectif optique utilisé pour capter l'image. En effet, la PSF de l'objectif optique varie avec la distance objectif optique et objet se trouvant dans la scène. En connaissant les différents PSF de l'objectif optique, il est possible de déterminer la profondeur de chaque objet de la scène par convolution/déconvolution avec les différents PSF. Bien entendu d'autres techniques sont possibles et l'invention n'est pas limité aux exemples qui viennent d'être décrits. [0090] Determining the depth of an object in an image can be achieved by any known technique. According to a first example, it is possible to use the data captured by the dual pixels of the image sensor used to capture said image. A dual pixel is a pixel split into two half pixels, denoted "pa" and "pb" in the following, the micro lens placed just above which therefore illuminates half the half-pixel pa for one half and half the half-pixel pb for the other half. When the image is in focus, the intensity captured by the half-pixel, Ipa, is equal to the intensity, denoted Ipb, captured by the half-pixel pb. When the image is out of focus, there is a difference whose direction is linked to the direction of difference in focus: for example Ipa>Ppb when the observed points are further away than the focusing distance. And when Ipa<Ipb, the observed points are closer. These half-pixels are therefore used to focus on an area of the image: the focusing motor/mechanism is actuated in the direction indicated by (Ipa-Ipb) in the area considered, and is stopped when (Ipa-Ipb) reaches zero or is below a certain threshold (absolute value (Ipa-Ipb) < threshold). These dual pixels can also be used to find the focus difference of the area considered. It is then necessary to analyze a set of pixels in the area, to find a certain (blurred) image on the half-pixels pa of the area, to find the corresponding image on the half-pixels pb of the area. Comparing the 2 images provides an idea of the defocus, and knowing the focus distance, we can deduce the depth(s) of the area, and therefore of each object in the area. According to a second example, it is possible to use the optical transfer functions, in particular the PSF (for "Point Spread Function") of the optical lens used to capture the image. Indeed, the PSF of the optical lens varies with the distance between the optical lens and the object in the scene. By knowing the different PSFs of the optical lens, it is possible to determine the depth of each object in the scene by convolution/deconvolution with the different PSFs. Of course, other techniques are possible and the invention is not limited to the examples just described.
[0091] La carte de profondeurs peut alternativement être déterminée par d'autres techniques, par exemple en utilisant un capteur temps de vol, ou un capteur lidar, équipant l'appareil utilisé pour imager la scène. [0091] The depth map can alternatively be determined by other techniques, for example by using a time-of-flight sensor, or a lidar sensor, equipping the device used to image the scene.
[0092] Ainsi, à la fin de l'étape 106 une carte indiquant les profondeurs des objets se trouvant dans la scène est déterminée. Cette carte de profondeurs est utilisée pour choisir les distances de focalisations pour lesquelles la scène est imagée en vue d'obtenir la pile d'images. [0092] Thus, at the end of step 106 a map indicating the depths of the objects located in the scene is determined. This depth map is used to choose the focusing distances for which the scene is imaged in order to obtain the image stack.
[0093] Cette étape 102 est optionnelle car la carte de profondeurs peut être fournie par un autre appareil. Alternativement, le procédé 100 peut ne pas utiliser de carte de profondeurs pour l'acquisition de la pile d'images : dans ce cas, les distances de focalisations pour lesquelles la scène est imagée en vue d'obtenir la pile d'images peuvent être déterminées aléatoirement, ou suivant une règle prédéterminée ou des valeurs de distances de focalisation prédéterminées. [0093] This step 102 is optional because the depth map can be provided by another device. Alternatively, the method 100 may not use a depth map for acquiring the image stack: in this case, the focusing distances for which the scene is imaged in order to obtain the image stack can be determined randomly, or according to a predetermined rule or predetermined focusing distance values.
[0094] Le procédé 100 comprend ensuite une étape 110, optionnelle, pour déterminer au moins une valeur seuil de luminosité qui sera utilisée dans la suite du procédé pour imager la scène. [0094] The method 100 then comprises an optional step 110 for determining at least one brightness threshold value which will be used in the remainder of the method for imaging the scene.
[0095] Dans l'exemple représenté sur la FIGURE 1, l'au moins une valeur seuil de luminosité est fonction de la scène, et en particulier de la luminosité des différentes parties de la scène. [0096] Dans ce cas, une image de la scène est acquise par l'appareil lors d'une étape 112 : cette image est appelée deuxième image exploratoire. Cette deuxième image exploratoire est acquise à une distance de focalisation intermédiaire de la scène, par exemple déterminée à partir d'une carte de profondeurs de la scène. Cette carte de profondeurs peut par exemple être celle déterminée à l'étape 102, ou fournie par un autre appareil. Alternativement, la deuxième image exploratoire peut être acquise à une distance de focalisation choisie aléatoirement. [0095] In the example shown in FIGURE 1, the at least one brightness threshold value is a function of the scene, and in particular of the brightness of the different parts of the scene. [0096] In this case, an image of the scene is acquired by the device during a step 112: this image is called the second exploratory image. This second exploratory image is acquired at an intermediate focusing distance from the scene, for example determined from a depth map of the scene. This depth map may for example be the one determined in step 102, or provided by another device. Alternatively, the second exploratory image may be acquired at a randomly chosen focusing distance.
[0097] Cette deuxième image exploratoire est analysée, lors d'une étape 114, pour déterminer une luminosité moyenne de la scène. Suivant un exemple de réalisation non limitatif, la luminosité moyenne peut être déterminée comme étant la moyenne des valeurs de luminosité pour chaque pixel de la deuxième image exploratoire. Suivant un exemple de réalisation non limitatif, la valeur de la luminosité d'un pixel peut être la moyenne des valeurs représentant ledit pixel. [0097] This second exploratory image is analyzed, during a step 114, to determine an average brightness of the scene. According to a non-limiting exemplary embodiment, the average brightness can be determined as being the average of the brightness values for each pixel of the second exploratory image. According to a non-limiting exemplary embodiment, the brightness value of a pixel can be the average of the values representing said pixel.
[0098] Lors d'une étape 116, au moins une valeur seuil de luminosité peut être calculée en fonction de la valeur moyenne de luminosité obtenue à l'étape 114. Par exemple, une valeur seuil minimale de luminosité peut être déterminée. Par exemple, une valeur seuil maximale de luminosité peut être déterminée. Suivant un exemple non limitatif, et sans perte de généralité : [0098] During a step 116, at least one brightness threshold value can be calculated based on the average brightness value obtained in step 114. For example, a minimum brightness threshold value can be determined. For example, a maximum brightness threshold value can be determined. According to a non-limiting example, and without loss of generality:
- la valeur seuil minimale de luminosité peut correspondre à un certain pourcentage X%, en particulier 90%, de ladite valeur moyenne de luminosité ; et/ou - the minimum brightness threshold value may correspond to a certain percentage X%, in particular 90%, of said average brightness value; and/or
- la valeur seuil maximale de luminosité peut correspondre à un certain pourcentage Y%, en particulier 110%, de ladite valeur moyenne de luminosité. - the maximum brightness threshold value may correspond to a certain percentage Y%, in particular 110%, of said average brightness value.
Dans la suite, on considère, sans perte de généralité que, l'étape 116 fournit un intervalle de valeurs de luminosité définie par une valeur seuil minimale et une valeur seuil maximale de luminosité. In the following, it is considered, without loss of generality, that step 116 provides an interval of brightness values defined by a minimum threshold value and a maximum brightness threshold value.
[0099] Suivant des exemples de réalisation alternatifs, l'au moins une valeur seuil de luminosité peut être déterminée différemment de ce qui est décrit plus haut. [0100] Suivant des exemples de réalisation alternatifs, l'étape 110 n'est pas réalisée et l'au moins une valeur seuil de luminosité peut être prédéterminée et préalablement fournie. [0099] According to alternative embodiments, the at least one brightness threshold value may be determined differently from what is described above. [0100] According to alternative embodiments, step 110 is not performed and the at least one brightness threshold value may be predetermined and previously provided.
[0101] Le procédé 100 comprend ensuite une phase 120 d'acquisition d'images de la scène à différentes distances de focalisation. Cette phase d'acquisition 120 est réalisée individuellement, par exemple à tour de rôle, pour chaque distance de focalisation à laquelle on souhaite imager la scène, par exemple à tour de rôle. [0101] The method 100 then comprises a phase 120 of acquiring images of the scene at different focusing distances. This acquisition phase 120 is carried out individually, for example in turn, for each focusing distance at which the scene is to be imaged, for example in turn.
[0102] La phase d'acquisition 120 comprend une étape 122 lors de laquelle le module d'imagerie est réglé à la distance de focalisation pour laquelle on souhaite imager la scène. Par exemple, la distance entre l'objectif optique et le capteur d'image peut être ajustée pour obtenir ladite distance de focalisation. [0102] The acquisition phase 120 comprises a step 122 during which the imaging module is set to the focusing distance for which the scene is to be imaged. For example, the distance between the optical lens and the image sensor can be adjusted to obtain said focusing distance.
[0103] Lorsque le module d'imagerie est ajusté pour la bonne distance de focalisation, la phase d'acquisition 120 comprend une étape 124 d'acquisition d'une image, dite image préliminaire, de la scène à ladite distance de focalisation. [0103] When the imaging module is adjusted for the correct focusing distance, the acquisition phase 120 comprises a step 124 of acquiring an image, called a preliminary image, of the scene at said focusing distance.
[0104] Lors d'une étape 125, l'image préliminaire est utilisée pour déterminer la luminosité de la partie de la scène se trouvant dans la profondeur de champ associée à la distance de focalisation, ou d'au moins une zone de ladite partie de la scène. Pour ce faire, les zones nettes de l'image préliminaire sont identifiées : ces zones nettes de l'image correspondant à la partie de la scène se trouvant à la profondeur de champ associée à la distance de focalisation. La valeur de la luminosité de la partie de la scène, respectivement d'une zone de la scène, se trouvant à la profondeur de champ associée à ladite distance de focalisation, peut alors être déterminée à partir des valeurs de luminosité des pixels correspondant à ladite partie de la scène, respectivement à ladite zone de la scène. [0104] In a step 125, the preliminary image is used to determine the brightness of the part of the scene located in the depth of field associated with the focusing distance, or of at least one area of said part of the scene. To do this, the sharp areas of the preliminary image are identified: these sharp areas of the image corresponding to the part of the scene located at the depth of field associated with the focusing distance. The brightness value of the part of the scene, respectively of an area of the scene, located at the depth of field associated with said focusing distance, can then be determined from the brightness values of the pixels corresponding to said part of the scene, respectively to said area of the scene.
[0105] La luminosité calculée à l'étape 125 est comparée, lors d'une étape 126, à au moins une valeur seuil de luminosité. L'au moins une valeur seuil de luminosité peut avoir été déterminée lors de l'étape optionnelle 110. Alternativement, l'au moins une valeur seuil de luminosité peut avoir été préalablement fournie, par exemple par l'utilisateur. [0106] Si la valeur de luminosité calculée à l'étape 125 satisfait l'au moins une valeur seuil de luminosité, par exemple si elle se trouve dans un intervalle de valeurs seuils de luminosité, alors l'image préliminaire est conservée comme image définitive, à ladite distance de focalisation, ou une autre image peut être prise dans les mêmes conditions à la distance de focalisation, et la phase d'acquisition pour cette distance de focalisation est terminée. Une nouvelle phase d'acquisition pour une autre distance de focalisation peut alors être réalisée. [0105] The brightness calculated in step 125 is compared, during a step 126, to at least one brightness threshold value. The at least one brightness threshold value may have been determined during the optional step 110. Alternatively, the at least one brightness threshold value may have been previously provided, for example by the user. [0106] If the brightness value calculated in step 125 satisfies the at least one brightness threshold value, for example if it is within an interval of brightness threshold values, then the preliminary image is kept as the final image, at said focusing distance, or another image can be taken under the same conditions at the focusing distance, and the acquisition phase for this focusing distance is terminated. A new acquisition phase for another focusing distance can then be carried out.
[0107] Si la valeur de luminosité calculée à l'étape 125 ne satisfait pas l'au moins une valeur seuil de luminosité, par exemple si elle ne se trouve pas dans un intervalle de valeurs seuils, alors la luminosité est ajustée lors d'une étape 128 pour l'acquisition d'une nouvelle image de la scène à la distance de focalisation. [0107] If the brightness value calculated in step 125 does not satisfy the at least one brightness threshold value, for example if it is not within an interval of threshold values, then the brightness is adjusted during a step 128 for the acquisition of a new image of the scene at the focusing distance.
[0108] Lors de l'étape 128, l'ajustement de luminosité peut être réalisée de différentes façons. [0108] In step 128, the brightness adjustment can be carried out in different ways.
[0109] Suivant un exemple de réalisation, la luminosité de la scène peut être ajustée en déclenchant un flash pour éclairer la scène, lors d'une étape 128i. De plus, éventuellement, lorsque le flash est déclenché, il est possible d'ajuster l'intensité moyenne du flash, lors d'une étape 1282 : [0109] According to an exemplary embodiment, the brightness of the scene can be adjusted by triggering a flash to illuminate the scene, during a step 128i. In addition, optionally, when the flash is triggered, it is possible to adjust the average intensity of the flash, during a step 1282:
- soit en ajustant l'intensité instantanée du flash, - either by adjusting the instantaneous intensity of the flash,
- soit en réalisant une modulation temporelle du flash. - either by performing a temporal modulation of the flash.
[0110] Alternativement, ou en plus, la luminosité à laquelle la scène sera imagée peut être ajustée en modifiant le temps total d'exposition du capteur d'image lors d'une étape 128s. Le temps total d'exposition du capteur d'image peut être ajustée par tout moyen connu, par exemple en commandant le temps d'ouverture d'un obturateur se trouvant devant le capteur ou devant le module caméra. [0110] Alternatively, or in addition, the brightness at which the scene will be imaged may be adjusted by modifying the total exposure time of the image sensor during a step 128s. The total exposure time of the image sensor may be adjusted by any known means, for example by controlling the opening time of a shutter located in front of the sensor or in front of the camera module.
[OUI] Alternativement, ou en plus, la luminosité avec laquelle la scène sera imagée peut être ajustée en modifiant l'ouverture d'un diaphragme du module caméra, ou du capteur d'image, lors d'une étape 1284. L'ouverture du diaphragme peut être ajustée par tout moyen connu, par exemple en commandant un mécanisme contrôlant la taille de l'ouverture du diaphragme. [0112] Bien entendu, la luminosité avec laquelle la scène va être imagée peut être ajustée en réalisant toutes les étapes 1281-1284, ou une combinaison quelconque d'au moins deux de ces étapes, ou uniquement une seule de ces étapes 1281-1284. Les étapes 1281-1284 peuvent être réalisées dans l'ordre dans lequel elles viennent d'être décrites ou dans un autre ordre. [0113] L'ajustement de la luminosité peut être réalisée suivant une relation prédéterminée prenant en entrée : [YES] Alternatively, or in addition, the brightness with which the scene will be imaged may be adjusted by changing the aperture of a diaphragm of the camera module, or of the image sensor, in a step 1284. The aperture of the diaphragm may be adjusted by any known means, for example by controlling a mechanism controlling the size of the aperture of the diaphragm. [0112] Of course, the brightness with which the scene will be imaged can be adjusted by performing all of the steps 1281-1284, or any combination of at least two of these steps, or only one of these steps 1281-1284. The steps 1281-1284 can be performed in the order in which they have just been described or in another order. [0113] The brightness adjustment can be performed according to a predetermined relationship taking as input:
- la valeur de la luminosité de la scène calculée à l'étape 125 ; et- the scene brightness value calculated in step 125; and
- l'au moins une valeur seuil de luminosité, et fournissant en sortie au moins l'une des valeurs suivantes : - at least one brightness threshold value, and providing at least one of the following values as output:
- déclenchement ou non du flash, - flash triggering or not,
- une valeur d'intensité moyenne du flash, - an average flash intensity value,
- un temps d'exposition du capteur d'image, - an exposure time of the image sensor,
- une ouverture du diaphragme. - an opening of the diaphragm.
La relation prédéterminée peut être tout type de relation. Par exemple, la relation prédéterminée peut être une relation mathématique. La relation prédéterminée peut être une table de correspondance. La relation prédéterminée peut être un modèle d'intelligence artificielle, tel qu'un réseau de neurones, préalablement entraîné à cet effet. The predetermined relationship can be any type of relationship. For example, the predetermined relationship can be a mathematical relationship. The predetermined relationship can be a lookup table. The predetermined relationship can be an artificial intelligence model, such as a neural network, previously trained for this purpose.
[0114] Suivant un exemple de réalisation non limitatif, la valeur fournie peut être l'intensité du flash, notée I_FLASH, variant entre 0 et I_FLASH_MAX. On observe, par exemple au moyen d'un allumage du flash avant prise d'image, la variation de luminosité liée à l'action sur I_FLASH. Ainsi, la relation ci- dessous peut être connue : [0114] According to a non-limiting exemplary embodiment, the value provided may be the intensity of the flash, denoted I_FLASH, varying between 0 and I_FLASH_MAX. We observe, for example by means of switching on the flash before taking an image, the variation in brightness linked to the action on I_FLASH. Thus, the relationship below can be known:
LUM_ECL = LUM_AMB + L_SUR_F * I_FLASH. où : LUM_ECL = LUM_AMB + L_SUR_F * I_FLASH. Or :
- LUM_ECL est la luminosité obtenue sous éclairement artificiel - le flash - et ambiant, sur la partie considérée de la scène ; et- LUM_ECL is the brightness obtained under artificial lighting - the flash - and ambient lighting, on the considered part of the scene; and
- LUM_AMB est la même luminosité obtenue quand le flash est éteint. En supposant une relation linéaire entre la luminosité et le paramètre de commande du flash, le paramètre L_SUR_F fournit le coefficient de proportionnalité entre la luminosité obtenue et le pilotage du flash. Alors la relation prédéterminée ACTION_FLASH ( LUM_ACTUELLE, L_OBJ) s'écrit : ACTION_FLASH(LUM_ACTUELLE,L_OBJ) = (L_OBJ-LUM_ACTUELLE)/L_SUR_F où : - LUM_AMB is the same brightness obtained when the flash is off. Assuming a linear relationship between brightness and the flash control parameter, the L_SUR_F parameter provides the proportionality coefficient between the brightness obtained and the flash control. Then the predetermined relationship FLASH_ACTION (CURRENT_LUM, L_OBJ) is written: FLASH_ACTION(CURRENT_LUM,L_OBJ) = (L_OBJ-CURRENT_LUM)/L_SUR_F Or :
- L_OBJ est la luminosité à obtenir, et - L_OBJ is the brightness to obtain, and
- LUM_ACTUELLE est la luminosité avant utilisation du procédé. - CURRENT_LUM is the brightness before using the process.
Ce qui donne une valeur I_FLASH à appliquer sur le flash pour la prochaine prise d'image. Bien entendu, cet exemple est donné à titre indicatif seulement et n'est nullement limitatif. This gives an I_FLASH value to apply to the flash for the next image capture. Of course, this example is given for informational purposes only and is in no way limiting.
[0115] La phase d'acquisition 120 comprend ensuite une étape 130 d'acquisition d'une image de la scène, à la distance de focalisation, et avec l'au moins un paramètre d'ajustement de luminosité déterminé à l'étape 128, par exemple : [0115] The acquisition phase 120 then comprises a step 130 of acquiring an image of the scene, at the focusing distance, and with at least one brightness adjustment parameter determined in step 128, for example:
- en déclenchant le flash, éventuellement avec une intensité moyenne correspondant à la valeur calculée lors de l'étape 1282, et/ou- by triggering the flash, possibly with an average intensity corresponding to the value calculated during step 1282, and/or
- avec un temps d'exposition du capteur calculé à l'étape 128s, et/ou - avec une ouverture du diaphragme calculée à l'étape 1284. - with a sensor exposure time calculated in step 128s, and/or - with a diaphragm opening calculated in step 1284.
[0116] Lors d'une étape 132, l'image acquise à l'étape 130 avec ajustement de luminosité est mémorisée, dans une pile d'images. Optionnellement, l'image préliminaire acquise à l'étape 124 peut également être mémorisée. [0116] In a step 132, the image acquired in step 130 with brightness adjustment is stored in an image stack. Optionally, the preliminary image acquired in step 124 may also be stored.
[0117] La phase d'acquisition 120 est réitérée pour chaque distance de focalisation pour laquelle une image de la scène doit être acquise. [0117] The acquisition phase 120 is repeated for each focusing distance for which an image of the scene must be acquired.
[0118] Lorsque la phase d'acquisition 120 est réalisée pour plusieurs, et en particulier toutes les, distances de focalisation, une pile d'images de la scène est obtenue, avec une luminosité harmonisée. La luminosité de la scène sur toutes les images de la pile d'images satisfait l'au moins une valeur seuil. Ainsi, la scène est imagée dans la pile d'images avec une luminosité améliorée et la pile d'images ne comprend pas d'image sur laquelle la scène est sous éclairée ou la scène est suréclairée. [0118] When the acquisition phase 120 is carried out for several, and in particular all, focusing distances, a stack of images of the scene is obtained, with harmonized brightness. The brightness of the scene on all the images of the image stack satisfies the at least one threshold value. Thus, the scene is imaged in the image stack with improved brightness and the image stack does not include an image on which the scene is underlit or the scene is overlit.
[0119] La FIGURE 2 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un procédé selon la présente invention. [0119] FIGURE 2 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
[0120] Le procédé 200 de la FIGURE 2 peut être utilisé pour obtenir, avec un appareil, une pile d'images de la scène, comprenant des images acquises à des distances de focalisation différents, dont les luminosités sont améliorées et particulier harmonisées. [0120] The method 200 of FIGURE 2 may be used to obtain, with an apparatus, a stack of images of the scene, including acquired images at different focusing distances, the brightness of which is improved and particularly harmonized.
[0121] Le procédé 200 de la FIGURE 2 comprend toutes les étapes du procédé 100 de la FIGURE 1, exceptée les différences indiquées ci-dessous. [0121] The method 200 of FIGURE 2 includes all of the steps of the method 100 of FIGURE 1, except for the differences indicated below.
[0122] Le procédé 200 ne comprend pas l'étape 124 d'acquisition d'une image préliminaire à la distance de focalisation, ni l'étape 125 de calcul de la valeur de luminosité de la scène à ladite distance de focalisation. [0122] The method 200 does not include the step 124 of acquiring a preliminary image at the focusing distance, nor the step 125 of calculating the brightness value of the scene at said focusing distance.
[0123] A la place, le procédé 200 comprend une étape 202 calculant la luminosité de la scène pour toutes les distances de focalisation auxquelles on souhaite prendre une image de la scène. Cette étape 202 prend en entrée une image exploratoire de la scène, par exemple la première image exploratoire ou la deuxième image exploratoire, ou encore une autre image exploratoire acquise lors de ladite étape 202. Dans la suite, sans perte de généralité, on considère que l'étape 202 prend en entrée la deuxième image exploratoire. [0123] Instead, the method 200 comprises a step 202 calculating the brightness of the scene for all the focusing distances at which it is desired to take an image of the scene. This step 202 takes as input an exploratory image of the scene, for example the first exploratory image or the second exploratory image, or another exploratory image acquired during said step 202. In the following, without loss of generality, it is considered that step 202 takes as input the second exploratory image.
[0124] Dans la deuxième image exploratoire, pour chaque distance de focalisation, les zones de l'image correspondant à la profondeur de champ associée à ladite distance de focalisation sont identifiées. La valeur de la luminosité est calculée pour la distance de focalisation, à partir de la luminosité de chacun des pixels appartenant auxdites zones, par exemple comme étant une moyenne des luminosités des pixels appartenant audites zones. [0124] In the second exploratory image, for each focusing distance, the areas of the image corresponding to the depth of field associated with said focusing distance are identified. The brightness value is calculated for the focusing distance, from the brightness of each of the pixels belonging to said areas, for example as being an average of the brightnesses of the pixels belonging to said areas.
[0125] Une zone de l'image exploratoire se trouvant à une profondeur de champ associée à une distance de focalisation donnée peut être identifiée suivant toute technique connue. Suivant un exemple de réalisation non limitatif, il est possible d'utiliser les fonctions de transfert optiques, PSF, (pour « Point Spread Function ») de l'objectif optique du module caméra. L'image exploratoire est tout d'abord déconvoluée avec la PSF correspondant à la distance de focalisation avec laquelle ladite image exploratoire est acquise, puis convoluée avec la PSF spécifique à la distance de focalisation donnée pour identifier la ou les zones de l'image se trouvant à la profondeur de champ associée à la distance de focalisation souhaitée : cette ou ces zones sont nettes dans l'image obtenue après convolution avec la PSF spécifique à la distance de focalisation donnée. [0126] Ainsi, l'étape 202 fournit une valeur de luminosité pour chaque distance de focalisation pour laquelle on souhaite imager la scène. Ces valeurs de luminosité calculées sont mémorisées, chacune avec la distance de focalisation correspondante. [0125] An area of the exploratory image located at a depth of field associated with a given focusing distance can be identified using any known technique. According to a non-limiting exemplary embodiment, it is possible to use the optical transfer functions, PSF, (for "Point Spread Function") of the optical lens of the camera module. The exploratory image is first deconvolved with the PSF corresponding to the focusing distance with which said exploratory image is acquired, then convolved with the PSF specific to the given focusing distance to identify the area(s) of the image located at the depth of field associated with the desired focusing distance: this or these areas are sharp in the image obtained after convolution with the PSF specific to the given focusing distance. [0126] Thus, step 202 provides a brightness value for each focusing distance for which the scene is to be imaged. These calculated brightness values are stored, each with the corresponding focusing distance.
[0127] Dans le procédé 200, l'étape 126 compare la valeur de luminosité calculée à l'étape 202 pour la distance de focalisation à l'au moins une valeur seuil. Si la valeur de luminosité n'est pas satisfaisante les étapes 128-132 sont réalisées. Si la valeur de luminosité est satisfaisante, alors une image de la scène est acquise à ladite distance de focalisation, sans ajustement de la luminosité, lors d'une étape 204. Cette image est mémorisée lors de l'étape 132 dans la pile d'images. [0127] In method 200, step 126 compares the brightness value calculated in step 202 for the focusing distance to the at least one threshold value. If the brightness value is not satisfactory, steps 128-132 are performed. If the brightness value is satisfactory, then an image of the scene is acquired at said focusing distance, without adjustment of the brightness, during a step 204. This image is stored during step 132 in the image stack.
[0128] La phase d'acquisition 120 est réitérée pour toutes les distances de focalisations souhaitées en vue de constituer une pile d'images de la scène comprenant des images acquises à différentes distances de focalisation. [0128] The acquisition phase 120 is repeated for all the desired focusing distances in order to constitute a stack of images of the scene comprising images acquired at different focusing distances.
[0129] Dans le procédé 200, lorsque la valeur de la luminosité n'est pas satisfaisante à l'étape 126, optionnellement, une image de la scène peut être acquise avec la luminosité non satisfaisante, c'est-à-dire sans ajustement de la luminosité, en plus de l'image acquise à l'étape 130 avec une luminosité ajustée. Cette image peut être mémorisée, en plus de l'image à luminosité ajustée. Cette image peut par exemple être utilisée pour traiter l'image acquise à l'étape 130 avec la luminosité ajustée. Alternativement, ou en plus, cette image peut être conservée pour d'autres raisons. [0129] In the method 200, when the brightness value is not satisfactory in step 126, optionally, an image of the scene may be acquired with the unsatisfactory brightness, i.e. without brightness adjustment, in addition to the image acquired in step 130 with adjusted brightness. This image may be stored, in addition to the image with adjusted brightness. This image may for example be used to process the image acquired in step 130 with adjusted brightness. Alternatively, or in addition, this image may be retained for other reasons.
[0130] Dans les procédés 100 et 200, optionnellement, la carte de profondeurs de la scène est déterminée à partir de la première image exploratoire. Alternativement, la carte de profondeurs de la scène peut être déterminée avec au moins un capteur mesurant les profondeurs des objets se trouvant dans la scène, par exemple un capteur de type LIDAR, caméra temps de vol, etc. [0130] In methods 100 and 200, optionally, the depth map of the scene is determined from the first exploratory image. Alternatively, the depth map of the scene can be determined with at least one sensor measuring the depths of the objects located in the scene, for example a LIDAR type sensor, time-of-flight camera, etc.
[0131] Dans les procédés 100 et 200, optionnellement, la luminosité de la scène, et en particulier la luminosité moyenne de la scène ou la luminosité de la scène à une distance de focalisation, est déterminée à partir d'image(s) de la scène. Alternativement, la luminosité moyenne de la scène, respectivement la luminosité de la scène pour une distance de focalisation donnée, peut être déterminée avec au moins un capteur mesurant ladite luminosité, par exemple un capteur de lumière équipant l'appareil, ou le capteur d'image du module caméra sans acquisition d'une image de la scène, etc. [0131] In methods 100 and 200, optionally, the brightness of the scene, and in particular the average brightness of the scene or the brightness of the scene at a focusing distance, is determined from image(s) of the scene. Alternatively, the average brightness of the scene, respectively the brightness of the scene for a given focusing distance, can be determined with at least one sensor measuring said brightness, for example a light sensor equipping the device, or the image sensor of the camera module without acquiring an image of the scene, etc.
[0132] La FIGURE 3 est une représentation schématique d'un exemple de réalisation non limitatif d'un dispositif selon la présente invention. [0132] FIGURE 3 is a schematic representation of a non-limiting exemplary embodiment of a device according to the present invention.
[0001] Le dispositif 300 de la FIGURE 3 peut être utilisé pour obtenir une pile d'images de la scène, comprenant des images acquises à des distances de focalisation différents, dont les luminosités sont améliorées et en particulier harmonisées. [0001] The device 300 of FIGURE 3 can be used to obtain a stack of images of the scene, comprising images acquired at different focusing distances, the brightnesses of which are improved and in particular harmonized.
[0002] Le dispositif 300 de la FIGURE 3 peut être utilisé pour mettre en œuvre un procédé selon l'invention, et en particulier l'un quelconque des procédés 100 ou 200 des FIGURES 1 et 2. [0002] The device 300 of FIGURE 3 can be used to implement a method according to the invention, and in particular any one of the methods 100 or 200 of FIGURES 1 and 2.
[0003] Le dispositif 300 comprend une unité de calcul 302 mettant en œuvre les étapes du procédé selon l'invention. [0003] The device 300 comprises a calculation unit 302 implementing the steps of the method according to the invention.
[0004] L'unité de calcul 302 comprend un module 304, optionnel, pour déterminer une carte de profondeurs de la scène par analyse d'une image exploratoire de la scène. Ce module 304 est par exemple configuré/programmé pour, réaliser l'étape 102 des procédés 100 ou 200. Alternativement, le module 304 peut être remplacé par un capteur, tel qu'un lidar ou une caméra temps de vol, éventuellement associé à un module de traitement, pour la détermination de la carte de profondeurs. [0004] The calculation unit 302 comprises an optional module 304 for determining a depth map of the scene by analyzing an exploratory image of the scene. This module 304 is for example configured/programmed to carry out step 102 of the methods 100 or 200. Alternatively, the module 304 can be replaced by a sensor, such as a lidar or a time-of-flight camera, possibly associated with a processing module, for determining the depth map.
[0005] L'unité de calcul 302 comprend en outre un module 306, optionnel, de détermination d'au moins une valeur seuil de luminosité, par analyse d'une deuxième image exploratoire de la scène. Ce module 306 est par exemple configuré/programmé pour réaliser l'étape 110 des procédés 100 et 200. Alternativement, le module 306 peut être remplacé par un capteur, tel qu'un capteur optique, éventuellement associé à un module de traitement, pour la détermination de l'au moins une valeur seuil de luminosité. Suivant encore une autre alternative, le module 306 peut être couplé au capteur d'image utilisé pour l'acquisition d'images de la scène, en vue de déterminer l'au moins une valeur seuil de luminosité à partir de la luminosité captée par ledit capteur d'image sans acquisition d'une image. [0005] The calculation unit 302 further comprises an optional module 306 for determining at least one brightness threshold value, by analyzing a second exploratory image of the scene. This module 306 is for example configured/programmed to carry out step 110 of the methods 100 and 200. Alternatively, the module 306 can be replaced by a sensor, such as an optical sensor, possibly associated with a processing module, for determining the at least one brightness threshold value. According to yet another alternative, the module 306 can be coupled to the image sensor used for acquiring images of the scene, in order to determine the at least a brightness threshold value from the brightness captured by said image sensor without acquiring an image.
[0006] L'unité de calcul 302 comprend en outre un module 308, optionnel, pour déterminer la luminosité des parties de la scène se trouvant à une profondeur de champ associée à une distance de focalisation donnée, autrement dit une valeur de luminosité associée à une distance de focalisation. Ce module 308 est en particulier configuré/programmé pour réaliser l'étape 126 du procédé 100, ou l'étape 202 du procédé 200 de la FIGURE 2. [0006] The calculation unit 302 further comprises an optional module 308 for determining the brightness of the parts of the scene located at a depth of field associated with a given focusing distance, in other words a brightness value associated with a focusing distance. This module 308 is in particular configured/programmed to carry out step 126 of the method 100, or step 202 of the method 200 of FIGURE 2.
[0007] L'unité de calcul 302 comprend un module 310 d'ajustement de la luminosité de la scène pour l'acquisition d'une image de la scène à une distance de focalisation donnée. Ce module 310 peut par exemple être configuré pour mettre en œuvre l'étape 128 des procédés 100 et 200. [0007] The calculation unit 302 comprises a module 310 for adjusting the brightness of the scene for acquiring an image of the scene at a given focusing distance. This module 310 may for example be configured to implement step 128 of the methods 100 and 200.
[0008] L'unité de calcul 302 comprend en outre un module 312 réalisant l'ajustement du module d'imagerie à une distance de focalisation, par exemple en ajustant la distance entre le capteur d'image et l'objectif. Ce module 312 peut par exemple être configuré pour mettre en œuvre l'étape 122 des procédés 100 et 200. Ce module 312 peut faire partie du dispositif 300. Alternativement, ce module 312 peut exister dans l'appareil utilisé pour imager la scène. Dans ce cas, le dispositif 300 peut utiliser un tel module existant dans l'appareil. [0008] The computing unit 302 further comprises a module 312 performing the adjustment of the imaging module to a focusing distance, for example by adjusting the distance between the image sensor and the lens. This module 312 may for example be configured to implement step 122 of the methods 100 and 200. This module 312 may be part of the device 300. Alternatively, this module 312 may exist in the apparatus used to image the scene. In this case, the device 300 may use such a module existing in the apparatus.
[0009] L'unité de calcul 302 comprend en outre un module 314 commandant le déclenchement de l'acquisition d'une image de la scène, cette image pouvant être une image exploratoire, une image préliminaire, une image définitive à une distance de focalisation donnée, etc. Ce module 314 peut par exemple être configuré pour déclencher l'acquisition d'image(s) lors d'au moins une des étapes 104, 112, 124, 130, 204 des procédés 100 et 200. Ce module 314 peut faire partie du dispositif 300. Alternativement, ce module 314 peut exister dans l'appareil utilisé pour imager la scène. Dans ce cas, le dispositif 300 peut utiliser un tel module existant dans l'appareil. [0009] The calculation unit 302 further comprises a module 314 controlling the triggering of the acquisition of an image of the scene, this image being able to be an exploratory image, a preliminary image, a definitive image at a given focusing distance, etc. This module 314 can for example be configured to trigger the acquisition of image(s) during at least one of the steps 104, 112, 124, 130, 204 of the methods 100 and 200. This module 314 can be part of the device 300. Alternatively, this module 314 can exist in the apparatus used to image the scene. In this case, the device 300 can use such a module existing in the apparatus.
[0010] Au moins un des modules 304-314 peut être un module indépendant des autres. [0011] Au moins deux des modules 304-314 peuvent intégrés au sein d'un même module. [0010] At least one of the modules 304-314 may be a module independent of the others. [0011] At least two of the modules 304-314 can be integrated within the same module.
[0012] Au moins un de modules 304-314 peut être un module matériel, tel qu'un processeur, une puce électronique, etc. [0012] At least one of modules 304-314 may be a hardware module, such as a processor, a microchip, etc.
[0013] Au moins un des modules 304-314 peut être un module logiciel, tel qu'un programme d'ordinateur. [0013] At least one of the modules 304-314 may be a software module, such as a computer program.
[0014] Au moins un des modules 304-314 peut être une combinaison d'au moins un module logiciel et d'au moins un module matériel. [0014] At least one of the modules 304-314 may be a combination of at least one software module and at least one hardware module.
[0015] En particulier, au moins un des modules 304-314 peut être intégré dans une puce électronique, ou encore dans une application installée dans un appareil utilisateur. [0015] In particular, at least one of the modules 304-314 can be integrated into an electronic chip, or even into an application installed in a user device.
[0016] En particulier, l'unité de calcul 302 peut être, ou peut être intégrée, dans une puce électronique, ou encore dans une application installée dans un appareil utilisateur. [0016] In particular, the calculation unit 302 may be, or may be integrated, in an electronic chip, or even in an application installed in a user device.
[0017] Le dispositif 300 peut en outre comprendre, de manière optionnelle, un moyen de mémorisation 316 d'images, pour mémoriser les images acquises. Ce module 314 peut par exemple être configuré pour mémoriser une image, ou des images, lors de l'étape 132 des procédés 100 et 200. Ce moyen de mémorisation 316 est optionnel car un tel moyen de mémorisation peut déjà exister dans l'appareil utilisé pour imager la scène. Dans ce cas, le dispositif selon l'invention peut utiliser un tel module existant dans l'appareil. [0017] The device 300 may further comprise, optionally, an image storage means 316, for storing the acquired images. This module 314 may for example be configured to store an image, or images, during step 132 of the methods 100 and 200. This storage means 316 is optional because such a storage means may already exist in the apparatus used to image the scene. In this case, the device according to the invention may use such a module existing in the apparatus.
[0018] Le dispositif 300 comprend en outre au moins un moyen d'acquisition d'image 318, tel qu'un module caméra, comprenant un objectif optique et un capteur d'image, pour acquérir une image ou une pile d'images de la scène. Un tel moyen d'acquisition d'image 318 peut faire partie du dispositif 300. Alternativement, un tel moyen d'acquisition d'image 318 peut exister dans l'appareil utilisé pour imager la scène. Dans ce cas, le dispositif 300 peut utiliser un tel moyen d'acquisition d'image 318 équipant l'appareil ou coopérer avec ledit moyen d'acquisition d'image équipant l'appareil. Suivant encore une autre alternative, le dispositif 300 peut être relié à un moyen d'acquisition d'image externe, ou à un appareil externe disposant d'un moyen d'acquisition d'image 318 ou lui-même relié à un moyen d'acquisition d'image 318. [0019] De manière optionnelle, le dispositif 300 peut en outre comprendre au moins un moyen pour éclairer la scène, et en particulier un flash 320. Un tel moyen 320 pour éclairer la scène est optionnel car le dispositif 300 peut ne pas comprendre un tel moyen d'acquisition d'image 318. Par exemple, le dispositif 300 peut être intégré dans un appareil qui dispose déjà d'un tel moyen. [0018] The device 300 further comprises at least one image acquisition means 318, such as a camera module, comprising an optical lens and an image sensor, for acquiring an image or a stack of images of the scene. Such an image acquisition means 318 may be part of the device 300. Alternatively, such an image acquisition means 318 may exist in the apparatus used to image the scene. In this case, the device 300 may use such an image acquisition means 318 equipping the apparatus or cooperate with said image acquisition means equipping the apparatus. According to yet another alternative, the device 300 may be connected to an external image acquisition means, or to an external apparatus having an image acquisition means 318 or itself connected to an image acquisition means 318. [0019] Optionally, the device 300 may further comprise at least one means for illuminating the scene, and in particular a flash 320. Such a means 320 for illuminating the scene is optional because the device 300 may not comprise such an image acquisition means 318. For example, the device 300 may be integrated into an apparatus which already has such a means.
[0020] Le dispositif 300 peut en outre comprendre, de manière optionnelle, - un mécanisme (non représenté) pour ajuster l'intensité du flash, et/ou [0020] The device 300 may further comprise, optionally, - a mechanism (not shown) for adjusting the intensity of the flash, and/or
- un mécanisme (non représenté) pour ajuster le temps d'exposition du capteur d'image, et/ou - a mechanism (not shown) for adjusting the exposure time of the image sensor, and/or
- un mécanisme (non représenté) pour ajuster l'ouverture d'un diaphragme (non représenté) positionné entre le capteur d'image et la scène. - a mechanism (not shown) for adjusting the aperture of a diaphragm (not shown) positioned between the image sensor and the scene.
Ce ou ces mécanismes peuvent partie du dispositif 300, ou peuvent être intégrés dans un appareil comprenant le dispositif 300. This or these mechanisms may be part of the device 300, or may be integrated into an apparatus comprising the device 300.
[0021] La FIGURE 4 est une représentation schématique d'un exemple de réalisation non limitatif d'un appareil selon la présente invention. [0021] FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the present invention.
[0022] L'appareil 400 de la FIGURE 4 comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 100 et 200. [0022] The apparatus 400 of FIGURE 4 comprises means configured to implement the invention, and in particular any one of the methods 100 and 200.
[0023] L'appareil 400 de la FIGURE 4 peut comprendre un dispositif selon l'invention, et en particulier le dispositif 300 de la FIGURE 3. [0023] The apparatus 400 of FIGURE 4 may comprise a device according to the invention, and in particular the device 300 of FIGURE 3.
[0024] Dans l'exemple représenté sur la FIGURE 4, l'appareil 400 est un smartphone, ou une tablette, comprenant le dispositif 300 de la FIGURE 3. En particulier, l'appareil 400 de la FIGURE 4 comprend un module caméra 318 et au moins un flash 320 pour éclairer la scène. [0024] In the example shown in FIGURE 4, the device 400 is a smartphone, or a tablet, comprising the device 300 of FIGURE 3. In particular, the device 400 of FIGURE 4 comprises a camera module 318 and at least one flash 320 for illuminating the scene.
[0025] Optionnellement, l'appareil 400 peut en outre comprendre : [0025] Optionally, the apparatus 400 may further comprise:
- un mécanisme (non représenté) pour ajuster l'intensité du flash 320, et/ou - a mechanism (not shown) for adjusting the intensity of the flash 320, and/or
- un mécanisme (non représenté) pour ajuster le temps d'exposition du capteur d'image du module caméra 318, et/ou - un mécanisme (non représenté) pour ajuster l'ouverture d'un diaphragme (non représenté) du module caméra 318, positionné entre le capteur d'image et la scène. - a mechanism (not shown) for adjusting the exposure time of the image sensor of the camera module 318, and/or - a mechanism (not shown) for adjusting the aperture of a diaphragm (not shown) of the camera module 318, positioned between the image sensor and the scene.
[0026] De plus, l'appareil 400 comprend un écran d'affichage 402 équipé d'une surface de détection 404, par exemple capacitive. [0026] In addition, the apparatus 400 comprises a display screen 402 equipped with a detection surface 404, for example capacitive.
[0027] Bien entendu, l'appareil 400 peut comprendre d'autres organes que ceux indiqués ci-dessus. [0027] Of course, the apparatus 400 may comprise other members than those indicated above.
[0028] La FIGURE 5 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un appareil selon la présente invention. [0028] FIGURE 5 is a schematic representation of another non-limiting exemplary embodiment of an apparatus according to the present invention.
[0029] L'appareil 500 de la FIGURE 5 comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 100 et 200. [0029] The apparatus 500 of FIGURE 5 comprises means configured to implement the invention, and in particular any one of the methods 100 and 200.
[0030] L'appareil 500 de la FIGURE 5 peut comprendre un dispositif selon l'invention, et en particulier le dispositif 300 de la FIGURE 3. [0030] The apparatus 500 of FIGURE 5 may comprise a device according to the invention, and in particular the device 300 of FIGURE 3.
[0031] Dans l'exemple représenté sur la FIGURE 5, l'appareil 500 est un casque de réalité virtuelle, VR, ou un casque de réalité augmentée, comprenant le dispositif 300 de la FIGURE 3. Le casque 500 de la FIGURE 5 comprend en particulier un module caméra 318 et au moins un flash 320 pour éclairer la scène. [0031] In the example shown in FIGURE 5, the device 500 is a virtual reality, VR, headset, or an augmented reality headset, comprising the device 300 of FIGURE 3. The headset 500 of FIGURE 5 comprises in particular a camera module 318 and at least one flash 320 for illuminating the scene.
[0032] Optionnellement, le casque 500 peut en outre comprendre : [0032] Optionally, the helmet 500 may further comprise:
- un mécanisme (non représenté) pour ajuster l'intensité du flash 320, et/ou - a mechanism (not shown) for adjusting the intensity of the flash 320, and/or
- un mécanisme (non représenté) pour ajuster le temps d'exposition du capteur d'image du module caméra 318, et/ou - a mechanism (not shown) for adjusting the exposure time of the image sensor of the camera module 318, and/or
- un mécanisme (non représenté) pour ajuster l'ouverture d'un diaphragme (non représenté) du module caméra 318, positionné entre le capteur d'image et la scène. - a mechanism (not shown) for adjusting the aperture of a diaphragm (not shown) of the camera module 318, positioned between the image sensor and the scene.
[0033] De plus, le casque 500 comprend un écran d'affichage 502 dans/sur une visière dudit casque 500. [0033] Additionally, the helmet 500 includes a display screen 502 in/on a visor of said helmet 500.
[0034] Bien entendu, le casque 500 peut comprendre d'autres organes que ceux indiqués ci-dessus. [0035] La FIGURE 6 est une représentation schématique d'un exemple de réalisation non limitatif d'un appareil selon la présente invention. [0034] Of course, the helmet 500 may include other members than those indicated above. [0035] FIGURE 6 is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the present invention.
[0036] L'appareil 600 de la FIGURE 6 comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 100 ou 200. [0036] The apparatus 600 of FIGURE 6 comprises means configured to implement the invention, and in particular any one of the methods 100 or 200.
[0037] L'appareil 600 de la FIGURE 6 peut comprendre un dispositif selon l'invention, et en particulier le dispositif 300 de la FIGURE 3. [0037] The apparatus 600 of FIGURE 6 may comprise a device according to the invention, and in particular the device 300 of FIGURE 3.
[0038] Dans l'exemple représenté sur la FIGURE 6, l'appareil est un appareil d'imagerie médicale, tel qu'un endoscope, un appareil d'échographie, etc. En particulier, l'appareil d'imagerie médicale 600 comprend un module caméra 318 et au moins un flash 320 pour éclairer la scène. [0038] In the example shown in FIGURE 6, the apparatus is a medical imaging apparatus, such as an endoscope, an ultrasound apparatus, etc. In particular, the medical imaging apparatus 600 comprises a camera module 318 and at least one flash 320 for illuminating the scene.
[0039] Optionnellement, l'appareil d'imagerie médicale 600 peut en outre comprendre : [0039] Optionally, the medical imaging device 600 may further comprise:
- un mécanisme (non représenté) pour ajuster l'intensité du flash 320, et/ou - a mechanism (not shown) for adjusting the intensity of the flash 320, and/or
- un mécanisme (non représenté) pour ajuster le temps d'exposition du capteur d'image du module caméra 318, et/ou - a mechanism (not shown) for adjusting the exposure time of the image sensor of the camera module 318, and/or
- un mécanisme (non représenté) pour ajuster l'ouverture d'un diaphragme (non représenté) du module caméra 318, positionné entre le capteur d'image et la scène. - a mechanism (not shown) for adjusting the aperture of a diaphragm (not shown) of the camera module 318, positioned between the image sensor and the scene.
[0040] De plus, l'appareil d'imagerie médicale 600 comprend un écran d'affichage 602 équipé d'une surface de détection 604, par exemple capacitive. [0040] In addition, the medical imaging device 600 comprises a display screen 602 equipped with a detection surface 604, for example capacitive.
[0041] Bien entendu, l'appareil d'imagerie médicale 600 peut comprendre d'autres organes qui que ceux indiqués ci-dessus. [0041] Of course, the medical imaging device 600 may include other organs than those indicated above.
[0042] La FIGURE 7 est une représentation schématique d'un exemple de réalisation non limitatif d'un véhicule selon la présente invention. [0042] FIGURE 7 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the present invention.
[0043] Le véhicule 700 de la FIGURE 7 comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 100 et 200 des FIGURES 1 et 2. [0044] Le véhicule 700 de la FIGURE 7 peut comprendre un dispositif selon l'invention, et en particulier le dispositif 300 de la FIGURE 3. [0043] The vehicle 700 of FIGURE 7 comprises means configured to implement the invention, and in particular any one of the methods 100 and 200 of FIGURES 1 and 2. [0044] The vehicle 700 of FIGURE 7 may comprise a device according to the invention, and in particular the device 300 of FIGURE 3.
[0045] Dans l'exemple représenté sur la FIGURE 7, le véhicule 700 est un véhicule terrestre, en particulier une voiture, comprenant le dispositif 300 de la FIGURE 3. En particulier, le véhicule 700 comprend un module caméra 318 et au moins un flash 320 pour éclairer la scène. [0045] In the example shown in FIGURE 7, the vehicle 700 is a land vehicle, in particular a car, comprising the device 300 of FIGURE 3. In particular, the vehicle 700 comprises a camera module 318 and at least one flash 320 for illuminating the scene.
[0046] Optionnellement, le véhicule 700 peut en outre comprendre : [0046] Optionally, the vehicle 700 may further comprise:
- un mécanisme (non représenté) pour ajuster l'intensité du flash 320, et/ou - a mechanism (not shown) for adjusting the intensity of the flash 320, and/or
- un mécanisme (non représenté) pour ajuster le temps d'exposition du capteur d'image du module caméra 318, et/ou - a mechanism (not shown) for adjusting the exposure time of the image sensor of the camera module 318, and/or
- un mécanisme (non représenté) pour ajuster l'ouverture d'un diaphragme (non représenté) du module caméra 318, positionné entre le capteur d'image et la scène. - a mechanism (not shown) for adjusting the aperture of a diaphragm (not shown) of the camera module 318, positioned between the image sensor and the scene.
[0047] De plus, le véhicule 700 comprend un écran d'affichage 702 équipé d'une surface de détection 704, par exemple capacitive, agencé dans l'habitacle du véhicule 700. [0047] In addition, the vehicle 700 comprises a display screen 702 equipped with a detection surface 704, for example capacitive, arranged in the passenger compartment of the vehicle 700.
[0048] Bien entendu, le véhicule 700 peut comprendre d'autres organes qui que ceux indiqués ci-dessus. [0048] Of course, the vehicle 700 may include other members than those indicated above.
[0133] Bien entendu l'invention n'est pas limitée aux exemples qui viennent d'être décrits. [0133] Of course, the invention is not limited to the examples which have just been described.
Claims
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/FR2024/050075 WO2025153777A1 (en) | 2024-01-19 | 2024-01-19 | Method and device for acquiring a stack of images of a scene with improved luminosity |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/FR2024/050075 WO2025153777A1 (en) | 2024-01-19 | 2024-01-19 | Method and device for acquiring a stack of images of a scene with improved luminosity |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025153777A1 true WO2025153777A1 (en) | 2025-07-24 |
Family
ID=90468748
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/FR2024/050075 Pending WO2025153777A1 (en) | 2024-01-19 | 2024-01-19 | Method and device for acquiring a stack of images of a scene with improved luminosity |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025153777A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110002678A1 (en) * | 2009-07-03 | 2011-01-06 | Fujifilm Corporation | Photographing control device and method, as well as program |
| US9704250B1 (en) * | 2014-10-30 | 2017-07-11 | Amazon Technologies, Inc. | Image optimization techniques using depth planes |
| US20200036914A1 (en) * | 2018-07-30 | 2020-01-30 | Lumileds Llc | Use of ir pre-flash for rgb camera's automatic algorithms |
| US20200322530A1 (en) * | 2019-04-05 | 2020-10-08 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling camera using external electronic device |
| EP3912336B1 (en) * | 2019-09-30 | 2023-10-11 | Google LLC | Automatic generation of all-in-focus images with a mobile camera |
-
2024
- 2024-01-19 WO PCT/FR2024/050075 patent/WO2025153777A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110002678A1 (en) * | 2009-07-03 | 2011-01-06 | Fujifilm Corporation | Photographing control device and method, as well as program |
| US9704250B1 (en) * | 2014-10-30 | 2017-07-11 | Amazon Technologies, Inc. | Image optimization techniques using depth planes |
| US20200036914A1 (en) * | 2018-07-30 | 2020-01-30 | Lumileds Llc | Use of ir pre-flash for rgb camera's automatic algorithms |
| US20200322530A1 (en) * | 2019-04-05 | 2020-10-08 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling camera using external electronic device |
| EP3912336B1 (en) * | 2019-09-30 | 2023-10-11 | Google LLC | Automatic generation of all-in-focus images with a mobile camera |
Non-Patent Citations (1)
| Title |
|---|
| ANONYMOUS: "Autobracketing - Wikipedia", 13 October 2021 (2021-10-13), XP055947380, Retrieved from the Internet <URL:https://en.wikipedia.org/w/index.php?title=Autobracketing&oldid=1049644029> [retrieved on 20220729] * |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CA2834883C (en) | Method of controlling an action, such as a sharpness modification, using a colour digital image | |
| EP3973693B1 (en) | Image capture device for multiple captures and surveillance system for an associated driver | |
| EP3657784B1 (en) | Method for estimating a fault of an image capturing system and associated systems | |
| EP2465255A1 (en) | Image-capture system and method with two operating modes | |
| WO2020126179A1 (en) | Image capture device and associated system for monitoring a driver | |
| FR2996034A1 (en) | Method for generating high dynamic range image representing scene in e.g. digital still camera, involves generating composite images by superposition of obtained images, and generating high dynamic range image using composite images | |
| JP2017208642A (en) | Imaging device using compression sensing, imaging method, and imaging program | |
| WO2019166720A1 (en) | Dynamic detection of stray light in a digital image | |
| FR3057095B1 (en) | METHOD FOR CONSTRUCTING A DEPTH MAP OF A SCENE AND / OR A COMPLETELY FOCUSED IMAGE | |
| WO2025153777A1 (en) | Method and device for acquiring a stack of images of a scene with improved luminosity | |
| EP3170205B1 (en) | Device for detecting movement | |
| FR2966257A1 (en) | METHOD AND APPARATUS FOR CONSTRUCTING A RELIEVE IMAGE FROM TWO-DIMENSIONAL IMAGES | |
| WO2025253055A1 (en) | Method and device for determining a depth map of a scene | |
| WO2025253054A1 (en) | Method and device for determining a depth map of a scene from images of said scene | |
| WO2025158111A1 (en) | Method and device for acquiring a stack of images of a scene with continuous sharpness | |
| WO2025012530A1 (en) | Method for obtaining a stack of images, and computer program product implementing such a method | |
| WO2025257479A1 (en) | Method and device for determining a depth map of a scene from a stack of images of the scene | |
| WO2025158112A1 (en) | Method and device for acquiring a stack of images of a scene with adjusted sharpness amplitude | |
| EP4411666A1 (en) | System for acquiring a color image and an infrared image of a scene | |
| WO2025012531A1 (en) | Method for acquiring a stack of images of a scene | |
| FR3028611A1 (en) | DEVICE AND METHOD FOR DETERMINING POINT POSITIONS IN A THREE DIMENSIONAL ENVIRONMENT, DEVICE FOR DETECTING OBSTACLES, AND VEHICLE EQUIPPED WITH SUCH A DEVICE | |
| WO2025012529A1 (en) | Method for obtaining a stack of images of a scene, computer program, device, apparatus and vehicle implementing such a method | |
| WO2025062072A1 (en) | Method and system for efficiently characterizing a lens | |
| WO2025238312A1 (en) | Method for demosaicing a raw image, and computer program, device and system implementing such a method | |
| WO2025012523A1 (en) | Method for selectively blurring an image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24713996 Country of ref document: EP Kind code of ref document: A1 |