[go: up one dir, main page]

EP4071578B1 - Procédé de commande de source de lumière de machine de visualisation, et machine de visualisation - Google Patents

Procédé de commande de source de lumière de machine de visualisation, et machine de visualisation

Info

Publication number
EP4071578B1
EP4071578B1 EP20895368.7A EP20895368A EP4071578B1 EP 4071578 B1 EP4071578 B1 EP 4071578B1 EP 20895368 A EP20895368 A EP 20895368A EP 4071578 B1 EP4071578 B1 EP 4071578B1
Authority
EP
European Patent Office
Prior art keywords
light source
zone
light sources
activating
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP20895368.7A
Other languages
German (de)
English (en)
Other versions
EP4071578A4 (fr
EP4071578A1 (fr
Inventor
Jianhua Zhu
Bin Guo
Anqiang DU
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Ezviz Software Co Ltd
Original Assignee
Hangzhou Ezviz Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Ezviz Software Co Ltd filed Critical Hangzhou Ezviz Software Co Ltd
Publication of EP4071578A1 publication Critical patent/EP4071578A1/fr
Publication of EP4071578A4 publication Critical patent/EP4071578A4/fr
Application granted granted Critical
Publication of EP4071578B1 publication Critical patent/EP4071578B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • G05D3/12Control of position or direction using feedback
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D25/00Control of light, e.g. intensity, colour or phase
    • G05D25/02Control of light, e.g. intensity, colour or phase characterised by the use of electric means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/242Means based on the reflection of waves generated by the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/40Control within particular dimensions
    • G05D1/43Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/617Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
    • G05D1/622Obstacle avoidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals
    • G05D2111/14Non-visible signals, e.g. IR or UV signals

Definitions

  • the present disclosure relates to the technical field of vision machines, in particular to a control method for light sources of a vision machine, and a vision machine.
  • Vision machines have been widely used with the development of machine vision technology.
  • the machine vision technology is applied to mobile robots.
  • vision machines mainly adopt TOF (Time of Flight) cameras and structured light cameras.
  • the working principle of the TOF camera and the structured light camera is as follows: an infrared light source is used to illuminate the surrounding environment, and a light signal captured by a camera lens is imaged on an image sensor to obtain the spatial information of an object in a world coordinate system.
  • the TOF camera includes an illumination (light source) subsystem and an image acquisition subsystem, wherein the image acquisition subsystem includes a camera lens composed of one or more lenses, and an image sensor module for converting optical signals into electrical signals.
  • the camera lens captures the infrared light reflected from the surface of the object, and determines a distance between the object and the lens by calculating TOFs of the emitted light and the received light.
  • Fig. 1 it is a schematic diagram of the positional relationship between the infrared light source and the lens. For the convenience of calibration, and for the integrity and compactness of the design, as shown in a front view in Fig.
  • the infrared light source for illumination is generally arranged around the camera lens; as shown in a side view in Fig. 1 , an axis of the infrared light source is basically parallel to an optical axis of the lens, where the axis of the infrared light source is a main emission direction of the infrared light source.
  • the lens image sensor
  • the TOF camera may only obtain the data about a side of the object facing the lens.
  • Fig. 2b when the axis of the infrared light source is parallel to the optical axis of the lens, a large amount of light emitted by the infrared light source will illuminate the ground, or the light emitted by the infrared light source will be reflected to the ground by the surface of the object (thick solid line in Fig. 2b ).
  • Document CN 107367737 A relates to a multi-line rotary scanning detection method which is used for measuring the distance between a multi-line rotary scanning detection device and a detected object.
  • the multi-line rotary scanning detection method comprises the steps that an emitting light source emits infrared detection light, and the detection azimuth of the multi-line rotary scanning detection device is recorded; a photoelectric sensor receives the infrared detection light reflected by the detected object; a signal processing unit calculates the distance between the multi-line rotary scanning detection device and the detected object based on a time of flight method; and the detection device continuously rotates and records azimuth and distance information.
  • An LED is adopted to act as the light source to emit a light beam with a small divergence angle, thereby avoiding mutual interference caused by using multiple laser light sources in the prior art.
  • the sensor adopts an array sensor, thereby performing scanning on multiple positions in the horizontal and vertical directions, and acquiring multi-line scanning three-dimensional point cloud distance data in the 360-degree field of view.
  • the emitting light source and the receiving device are simple in structural design in the operating process.
  • Document US 20180050634 A1 relates to an autonomous mobile robot including a body, a drive supporting the body above a floor surface, a light-propagating plate positioned on the body and having a periphery defining a continuous loop, light sources each being positioned to direct light through a portion of the plate to a portion of the continuous loop, and a controller to selectively operate the light sources to provide a visual indicator of a status or service condition of the autonomous mobile robot.
  • the drive is configured to maneuver the mobile robot about the floor surface.
  • the embodiment of the present disclosure provides a control method for light sources of a vision machine and a vision machine, to improve the range of the viewing angle of the vision machine.
  • the distance between the left and right light sources and the center of the front mirror surface may be different from or the same as the distance between the upper and lower light sources and the center of the front mirror surface.
  • the distance between the left and right light sources and the center of the front mirror surface is a first distance
  • the distance between the upper light source and the center of the front mirror surface is a second distance
  • the distance between the lower light source and the center of the front mirror surface is a third distance.
  • the distances may be: the first distance ⁇ the second distance ⁇ the third distance, in this way, not only a large FOV of the light source of the vision machine may be obtained by using the left and right light sources, but also a higher object may be illuminated by the upper light source.
  • the light source on the right side of the body of the mobile robot is activated; whether the height of the object is lower than the optical axis of the lens is determined, and if the height of the object is lower than the optical axis of the lens, the upper light source is activated to illuminate the upper surface of the object, so that the vision machine may acquire the image of the upper surface of the object.
  • the vision machine may deactivate the right light source when activating the upper light source, to reduce power consumption.
  • the lower light source is activated; whether the height of the object is lower than the optical axis of the lens is determined, and if the height of the object is lower than the optical axis of the lens, the upper light source is activated to illuminate the upper surface of the object, so that the vision machine may acquire the image of the upper surface of the object.
  • the vision machine may deactivate the lower light source when activating the upper light source, to reduce power consumption.
  • Another implementation is to determine which is smaller, the sensitive distance of the object located on the left side or the sensitive distance of the object located on the right side, and to select the light source on the side with a smaller sensitive distance to activate; to determine whether the height of the object on the side with the smaller sensitive distance is lower than the optical axis of the lens, and if the height of the object on the side with the small sensitive distance is lower than the optical axis of the lens, to activate the upper light source.
  • the vision machine may deactivate the light source on the side with the smaller sensitive distance when activating the upper light source, to reduce power consumption.
  • Fig. 11a is a schematic diagram of n light sources distributed around the lens.
  • the head-on view of the traveling direction of the mobile robot is taken as the main view, and n light sources are distributed around the lens.
  • n is a natural number greater than or equal to 3 in the present embodiment.
  • n light sources are evenly distributed on a circumference having a first radius that is larger than the radius of the lens, and taking the center of the front mirror surface as a circle center.
  • a polygon formed by sequentially connecting the light sources takes a vertical straight line passing through the center of the front mirror surface as a symmetry axis.
  • Fig. 11b is a schematic diagram of a layout of the light sources when n is 3
  • Fig. 11c is a schematic diagram of another layout of the light sources when n is 3
  • Fig. 11d is a schematic diagram of a layout of the light sources when n is 4.
  • Figs. 12a to 12b are flow charts of controlling of the light sources in embodiment three.
  • the method includes the following steps.
  • Step 1201 activating the left and the right light sources, or activating the left and the right light sources alternately in a time-division manner at a high frequency; and sustaining a current activation mode to a first time threshold, so that the mobile robot may preliminarily determine an overall situation of the object in the field of view in the traveling direction.
  • Step 1202 selectively activating the light source according to a position and a height of the object preliminarily sensed.
  • n light sources are firstly divided into m zones according to the illumination position area of the field of view.
  • n light sources distributed around the lens are divided into m zones of light sources by using m rays starting from the center of the front mirror surface, where m is a natural number greater than 1.
  • the number of light sources included in each zone may be the same or different, which may be determined according to the illumination requirements.
  • the light source in the zone corresponding to a space of the sensed object is then selectively activated according to the position and the height of the sensed object.
  • n light sources being divided into 4 zones of light sources is taken as an example.
  • a first ray starting from the center of the front mirror surface points to the left side of the vision machine in the horizontal direction of the front mirror surface
  • a second ray starting from the center of the front mirror surface points to the lower side of the vision machine in the vertical direction of the front mirror surface
  • a third ray starting from the center of the front mirror surface points to the right side of the vision machine in the horizontal direction of the front mirror surface
  • the third ray starting from the center of the front mirror surface points to the upper side of the vision machine in the vertical direction of the front mirror surface.
  • the second ray is perpendicular to the first ray
  • the third ray is perpendicular to the second ray
  • the fourth ray is perpendicular to the third ray.
  • the above 4 zones may include a first zone located between the fourth ray and the first ray, a second zone located between the first ray and the second ray, a third zone located between the second ray and the third ray, and a fourth zone located between the third ray and the fourth ray.
  • the light source in the first zone is used to illuminate an upper left side of the traveling direction (viewing angle field) of the mobile robot
  • the light source in the second zone is used to illuminate the lower left side of the traveling direction of the mobile robot
  • the light source in the third zone is used to illuminate the lower right side of the traveling direction of the mobile robot
  • the light source in the fourth zone is used to illuminate the upper right side of the traveling direction of the mobile robot.
  • step 1202 shown in Fig. 12a includes: activating the light source in the third zone if the object is located within a sensitive distance on the right side of the traveling direction of the mobile robot; determining whether the height of the object is lower than the optical axis of the lens, and if the height of the object is lower than the optical axis of the lens, activating the light source in the fourth zone to illuminate the upper surface of the object, so that the vision machine may acquire the image of the upper surface of the object.
  • the vision machine may deactivate the light source in the third zone to reduce the power consumption;
  • one implementation is to activate the light sources in the second zone and the third zone at the same time, or to activate the light sources in the second zone and the third zone alternately in a time-division manner at a high frequency; to determine whether there is an object whose height is lower than the optical axis of the lens, and if there is an object whose height is lower than the optical axis of the lens, to activate the light sources in the first zone and the fourth zone to illuminate the upper surface of the object that is lower than the optical axis of the lens, so that the vision machine may acquire the image of the upper surface of the object.
  • the vision machine may deactivate the light sources in the second zone and the third zone to reduce the power consumption.
  • Another implementation is to determine whether the sensitive distance of the object on the left is smaller than that of the object on the right; if the sensitive distance of the object on the left is smaller than that of the object on the right, to activate the light source in the second zone, and to determine whether the height of the object on the side is lower than the optical axis of the lens; if the height of the object on this side is lower than the optical axis of the lens, to activate the light source in the first zone; if the height of the object on this side is higher than or equal to the optical axis of the lens, not to activate the first zone; if the sensitive distance of the object on the left side is greater than or equal to the sensitive distance of the object on the right side, to activate the light source in the third zone, and to determine whether the height of the object on the side is lower than the optical axis of the lens; if the height of the object on this side is lower than the optical axis of the lens, to activate the light source in the fourth zone; if the height of the object on this side is higher than
  • the first ray points to the left side of the vision machine at 45 degrees from the horizontal direction of the front mirror surface
  • the second ray points to the left side of the vision machine at -45 degrees from the horizontal direction of the front mirror surface
  • the third ray points to the right side of the vision machine at -45 degrees from the horizontal direction of the front mirror surface
  • the fourth ray points to the right side of the vision machine at 45 degrees from the horizontal direction of the front mirror surface.
  • the second ray is perpendicular to the first ray
  • the third ray is perpendicular to the second ray
  • the fourth ray is perpendicular to the third ray.
  • the above 4 zones may include a first zone located between the fourth ray and the first ray, a fourth zone located between the first ray and the second ray, a second zone located between the second ray and the third ray, and a third zone located between the third ray and the fourth ray.
  • the light source in the first zone is used to illuminate the upper side of the traveling direction of the mobile robot
  • the light source in the second zone is used to illuminate the lower side of the traveling direction of the mobile robot
  • the light source in the third zone is used to illuminate the right side of the traveling direction of the mobile robot
  • the light source in the fourth zone is used to illuminate the left side of the traveling direction of the mobile robot.
  • step 1202 shown in Fig. 12b includes: activating the light source in the third zone if the object is located within a sensitive distance on the right side of the traveling direction of the mobile robot; determining whether the height of the object is lower than the optical axis of the lens, and if the height of the object is lower than the optical axis of the lens, activating the light source in the first zone to illuminate the upper surface of the object, so that the vision machine may acquire the image of the upper surface of the object.
  • the vision machine may deactivate the light source in the third zone to reduce the power consumption;
  • the first ray is at 0 degree or 45 degrees from the horizontal direction of the front mirror surface, so as to evenly distinguish the space of the field of view.
  • the direction of the first ray is not limited to this, but may be designed according to external environment in practical application.
  • various rays are perpendicular to each other, so that the number of light sources in each zone is the same. It should be understood that in practical application, the included angles between various rays may not be limited to this, and the included angles between various rays may be different, so that the number of light sources in each zone differs according to the requirements for the illumination of the light source, thereby the light of different brightness can be obtained.
  • the duration of activation of the light source used to illuminate the upper surface of the object may be set as required.
  • the duration of activation of the light source is set to a second time threshold, that is, the vision machine deactivates the light source after the duration of activation of the light source reaches the second time threshold. While the light source is deactivated, the vision machine again activates the light source that was on before this light source is activated.
  • the light sources are arranged in the whole range around the lens, by arranging more light sources for illumination, the flexibility of illumination and the adaptability to illumination requirements are improved, and the FOV of the light source is improved from multiple perspectives, which is beneficial for the improvement of image acquisition quality.
  • the single light source and a lens sensor are usually used as one system to obtain a calibration result of the system, therefore, in a vision machine where multiple light sources are used, it is necessary to calibrate the image frame data generated during illumination by different light sources.
  • the calibration method for the vision machine with multiple light sources may be as follows: in order to avoid the mutual influence between light sources, activating different light sources one by one, and illuminating a target having a standard pattern (for example, a standard plate having the standard pattern).
  • the vision machine acquires the image of the standard pattern illuminated by the currently activated light source, thus completing the calibration of the measured data and the actual real value.
  • the correspondence relationship between the information corresponding to the image frame data currently acquired and the light sources is recorded, the information corresponding to the image frame data currently acquired is taken as the calibration result under the illumination of the light source and saved.
  • the calibration result includes the calibration relationship between the measured data (that is, the image frame data currently acquired) and the actual real value.
  • Step 1401 activating a light source and recording information of the light source currently activated.
  • the information of the light source may include the serial number of the light source, and current image frame data acquired, etc.
  • the left and right light sources may be activated at the same time, or the left or right light sources may be activated alternately in a time-division manner at a high frequency, or the left light source or the right light source may be activated, and the information of the light source currently activated may be recorded.
  • the current image frame data is the distance between the object and the lens.
  • the calibration results of light source 1 include: ⁇ 10 seconds, 2 meters ⁇ , ⁇ 5 seconds, 1 meter ⁇ . If the light source currently activated is light source 1, before calibrating the current image frame data, the time difference acquired is 10 seconds and the distance is 1.5 meters, based on the above calibration results, a calibrated distance of the current image frame data is 2 meters.
  • illumination results of the upper light source may be filtered based on extraction results of the lower light source, to retain the part of the extraction result above the pixels of the lower light source.
  • the extraction results of the lower light source are the results obtained by extracting obstacles in image frame data under the illumination of the lower light source
  • the extraction results of the lower light source include the sides of obstacles
  • the illumination results of the upper light source are the image frame data including the obstacles acquired under the illumination of upper light source.
  • the illumination results under the illumination of the upper light source include the sides and upper surfaces of the obstacles. Filtering illumination results of the upper light source based on extraction results of the lower light source may retain the upper surface of the lower obstacle. As shown in Fig. 16e , it shows an image of an obstacle extracted based on Fig. 16d .
  • the left and right light sources may be light sources that adopt a first type of structured light, and the upper and lower light sources illuminate the objects using a second type of structured light.
  • different zones adopt different types of structured light (i.e., structured light having different patterns).
  • the light sources in the second and third zones adopt the first type of structured light
  • the light sources in the first and fourth zones adopt the second type of structured light.
  • the light sources in the first and the second zones adopt the first type of structured light
  • the light sources in the third and the fourth zones adopt the second type of structured light.
  • the method for controlling the movement of the mobile robot by arranging a plurality of light sources, the field of view of the vision machine is enlarged; by combining with the spatial information of the sensed object, the plurality of light sources may be controlled flexibly, and corresponding light illumination can be provided based on environmental requirements, which reduces the interference signal caused by reflection of a single light source.
  • the light illumination is provided to obtain the image of the upper surface of the sensed object, thereby obtaining the depth information of the sensed object, expanding the sensing range of the vision machine, improving the sensing ability, enriching the application of the vision machine, thus avoiding obstacles more effectively.
  • the embodiment of the present disclosure further provides a vision machine, which includes a light source subsystem and an image acquisition subsystem, wherein the light source subsystem includes n light sources distributed on the periphery of the front mirror surface of the vision machine; and n is a natural number greater than or equal to 2.
  • the processor in the light source subsystem and/or the image acquisition subsystem is configured to execute the steps of the control method for light sources of the vision machine described in any one of embodiments one to four.
  • the embodiment of the present disclosure further provides a computer-readable storage medium, in which a computer program is stored, and when the computer program is executed by a processor, the steps of implementing the control method for light sources of the visual machine according to any one of embodiments one to four are implemented.
  • the embodiment of the present disclosure further provides a computer program that, when runs on a computer, causes the computer to execute the steps of the control method for light sources of the vision machine according to any one of embodiments one to four.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Claims (14)

  1. Procédé de commande pour des sources lumineuses d'une machine de vision, sachant que le procédé de commande comprend :
    l'activation d'au moins une première source lumineuse parmi n sources lumineuses pour détecter des informations spatiales d'un objet dans un champ de vision ; et
    l'activation sélective des n sources lumineuses selon les informations spatiales d'un objet détecté ;
    sachant que les n sources lumineuses sont distribuées sur une périphérie d'une surface miroir frontale d'une lentille de la machine de vision, et n est un nombre naturel supérieur ou égal à 2,
    caractérisé en ce que la périphérie est une circonférence ayant un premier rayon, et prenant un centre de la surface miroir frontale comme centre de cercle, le premier rayon est au moins plus grand qu'un rayon de la surface miroir frontale ; sachant que
    l'activation sélective (801) des n sources lumineuses selon les informations spatiales d'un objet détecté comprend :
    l'activation sélective d'une source lumineuse parmi les n sources lumineuses, dont le champ de vision correspond à un espace de l'objet détecté, selon une position et une hauteur de l'objet détecté ; et
    le fait de déterminer (802) si la hauteur de l'objet détecté est inférieure à un axe optique de la lentille lorsque l'objet détecté est situé à l'intérieur d'une distance sensible de la machine de vision, et si la hauteur de l'objet détecté est inférieure à l'axe optique de la lentille, l'activation d'au moins une deuxième source lumineuse parmi les n sources lumineuses pour éclairer une surface supérieure de l'objet détecté.
  2. Le procédé de commande selon la revendication 1, sachant que n est 2, la deuxième source lumineuse est une source lumineuse supérieure située d'un côté supérieur de la lentille, la première source lumineuse est une source lumineuse inférieure située d'un côté inférieur de la lentille, et de la lumière émise de la source lumineuse supérieure éclaire selon un angle de dépression par rapport à l'axe optique de la lentille ; et sachant que
    l'activation sélective d'une source lumineuse parmi les n sources lumineuses, dont le champ de vision correspond à un espace de l'objet détecté, selon une position et une hauteur de l'objet détecté comprend en outre la désactivation de la source lumineuse inférieure lorsque la source lumineuse supérieure est activée ;
    de préférence, sachant que la source lumineuse supérieure et la source lumineuse inférieure sont sur la même ligne droite que le centre de la surface miroir frontale, une distance entre la source lumineuse supérieure et le centre de la surface miroir frontale est plus grande que celle entre la source lumineuse inférieure et le centre de la surface miroir frontale, et de la lumière émise de la source lumineuse inférieure éclaire selon un angle d'élévation par rapport à l'axe optique de la lentille, ou la source lumineuse inférieure est pourvue d'un homogénéisateur qui permet à la lumière émise d'être émise selon un angle d'élévation par rapport à l'axe optique de la lentille.
  3. Le procédé de commande selon la revendication 1, sachant que n est 2, la deuxième source lumineuse est une source lumineuse gauche située d'un côté gauche de la lentille, et la première source lumineuse est une source lumineuse droite située d'un côté droit de la lentille ; et sachant que
    l'activation sélective d'une source lumineuse parmi les n sources lumineuses, dont le champ de vision correspond à un espace de l'objet détecté, selon une position et une hauteur de l'objet détecté comprend :
    si l'objet détecté est situé d'un côté gauche d'une direction de déplacement de la machine de vision, l'activation de la source lumineuse gauche de la machine de vision ;
    si l'objet détecté est situé d'un côté droit de la direction de déplacement de la machine de vision, l'activation de la source lumineuse droite de la machine de vision ; et
    si l'objet détecté est situé au milieu de la direction de déplacement de la machine de vision, ou s'il y a en même temps des objets détectés d'un côté gauche et d'un côté droit de la machine de vision, l'activation de la source lumineuse gauche et de la source lumineuse droite en même temps, ou l'activation de la source lumineuse gauche et de la source lumineuse droite en alternance selon un mode de division temporelle à une certaine fréquence (602) ;
    de préférence, sachant que la source lumineuse gauche et la source lumineuse droite sont sur la même ligne droite que le centre de la surface miroir frontale et distribuées symétriquement des deux côtés de la lentille.
  4. Le procédé de commande selon la revendication 1, sachant que l'activation d'au moins une première source lumineuse des n sources lumineuses comprend : l'activation de toutes les sources lumineuses parmi les n sources lumineuses, ou l'activation de chaque source lumineuse parmi les n sources lumineuses en alternance selon un mode de division temporelle à une certaine fréquence (1001).
  5. Le procédé de commande selon la revendication 1, sachant que les n sources lumineuses sont distribuées de manière égale sur la circonférence, et un polygone formé par les n sources lumineuses prend une ligne droite verticale passant par le centre de la surface miroir frontale comme axe de symétrie, sachant que n est un nombre naturel supérieur ou égal à 3 ;
    sachant que des angles d'éclairage des n sources lumineuses et une distance entre chaque source lumineuse et le centre de la surface miroir frontale, lors de la conception, sont déterminés selon une hauteur sensible et la distance sensible de l'objet à détecter, en combinaison avec un cône d'éclairage de la source lumineuse et/ou la transmittance de lumière de la lentille, sachant que la hauteur sensible est une hauteur de l'objet à détecter, et la distance sensible est une distance verticale allant de l'objet à détecter à une ligne tangente d'un bord extérieur frontal d'une projection d'un corps de robot mobile sur une surface d'appui ; sachant que
    l'activation sélective d'une source lumineuse parmi les n sources lumineuses, dont le champ de vision correspond à un espace de l'objet détecté, selon une position et une hauteur de l'objet détecté comprend :
    la division des n sources lumineuses en m zones de sources lumineuses selon des aires de position d'éclairage du champ de vision, sachant que m est un nombre naturel supérieur ou égal à 1 ;
    l'activation sélective de la source lumineuse dans la zone correspondant à l'espace de l'objet détecté selon la position et la hauteur de l'objet détecté ; et
    sachant que le procédé de commande comprend en outre :
    le calibrage respectif d'images sous l'éclairage de chacune des sources lumineuses pour obtenir des résultats de calibrage de chacune des sources lumineuses, et le calibrage de données de trame d'image actuelles acquises sous l'éclairage de chacune des sources lumineuses moyennant le résultat de calibrage ;
    de préférence, sachant que la division des n sources lumineuses en m zones de sources lumineuses selon des aires de position d'éclairage du champ de vision comprend :
    la division des n sources lumineuses distribuées sur la circonférence en m zones de sources lumineuses moyennant m rayons partant du centre de la surface miroir frontale.
  6. Le procédé de commande selon la revendication 5, sachant que m est 4, un premier rayon pointe vers un côté gauche de la machine de vision dans une direction horizontale de la surface miroir frontale, un deuxième rayon est perpendiculaire au premier rayon, un troisième rayon est perpendiculaire au deuxième rayon, un quatrième rayon est perpendiculaire au troisième rayon, et les m zones comprennent :
    une première zone située entre le quatrième rayon et le premier rayon,
    une deuxième zone située entre le premier rayon et le deuxième rayon,
    une troisième zone située entre le deuxième rayon et le troisième rayon, et
    une quatrième zone située entre le troisième rayon et le quatrième rayon ; sachant que
    la source lumineuse dans la première zone est utilisée pour éclairer un côté gauche supérieur d'une direction de déplacement de la machine de vision, la source lumineuse dans la deuxième zone est utilisée pour éclairer un côté gauche inférieur de la direction de déplacement de la machine de vision, la source lumineuse dans la troisième zone est utilisée pour éclairer un côté droit inférieur de la direction de déplacement de la machine de vision, et la source lumineuse dans la quatrième zone est utilisée pour éclairer un côté droit supérieur de la direction de déplacement de la machine de vision ; et sachant que
    l'activation sélective de la source lumineuse dans la zone correspondant à l'espace de l'objet détecté selon la position et la hauteur de l'objet détecté comprend :
    si l'objet détecté est situé d'un côté droit de la direction de déplacement de la machine de vision, l'activation de la source lumineuse dans la troisième zone ; le fait de déterminer si la hauteur de l'objet détecté est inférieure à l'axe optique de la lentille, et si c'est le cas, l'activation de la source lumineuse dans la quatrième zone pour éclairer la surface supérieure de l'objet détecté ;
    si l'objet détecté est situé d'un côté gauche de la direction de déplacement de la machine de vision, l'activation de la source lumineuse dans la deuxième zone ; le fait de déterminer si la hauteur de l'objet détecté est inférieure à l'axe optique de la lentille, et si c'est le cas, l'activation de la source lumineuse dans la première zone pour éclairer la surface supérieure de l'objet détecté ;
    si l'objet détecté est situé au milieu de la direction de déplacement de la machine de vision, l'activation des sources lumineuses dans la deuxième zone et la troisième zone ; le fait de déterminer si la hauteur de l'objet détecté est inférieure à l'axe optique de la lentille, et si c'est le cas, l'activation des sources lumineuses dans la première zone et la quatrième zone pour éclairer la surface supérieure de l'objet détecté ;
    s'il y a en même temps des objets du côté gauche et du côté droit de la direction de déplacement de la machine de vision, l'activation des sources lumineuses dans la deuxième zone et la troisième zone en même temps, ou l'activation des sources lumineuses dans la deuxième zone et la troisième zone en alternance selon un mode de division temporelle à une certaine fréquence ; le fait de déterminer s'il y a un objet détecté dont la hauteur est inférieure à l'axe optique de la lentille, et si c'est le cas, l'activation des sources lumineuses dans la première zone et la quatrième zone pour éclairer la surface supérieure de l'objet détecté inférieure à l'axe optique de la lentille ; ou,
    s'il y a en même temps des objets du côté gauche et du côté droit de la direction de déplacement de la machine de vision, le fait de déterminer si la distance sensible de l'objet du côté gauche est plus petite que celle de l'objet du côté droit, et si la distance sensible de l'objet du côté gauche est plus petite que celle de l'objet du côté droit, l'activation de la source lumineuse dans la deuxième zone, le fait de déterminer si la hauteur de l'objet détecté du côté gauche est inférieure à l'axe optique de la lentille, et l'activation de la source lumineuse dans la première zone pour éclairer la surface supérieure de l'objet détecté, si la hauteur de l'objet détecté du côté gauche est inférieure à l'axe optique de la lentille (1202) ;
    si la distance sensible de l'objet du côté gauche est supérieure ou égale à la distance sensible de l'objet du côté droit, l'activation de la source lumineuse dans la troisième zone, le fait de déterminer si la hauteur de l'objet détecté du côté droit est inférieure à l'axe optique de la lentille, et si la hauteur de l'objet détecté du côté droit est inférieure à l'axe optique de la lentille, l'activation de la source lumineuse dans la quatrième zone pour éclairer la surface supérieure de l'objet détecté.
  7. Le procédé de commande selon la revendication 5, sachant que m est 4, le premier rayon pointe vers le côté gauche de la direction de déplacement de la machine de vision à 45 degrés par rapport à la direction horizontale de la surface miroir frontale, le deuxième rayon est perpendiculaire au premier rayon, le troisième rayon est perpendiculaire au deuxième rayon, et le quatrième rayon est perpendiculaire au troisième rayon, et les m zones comprennent :
    une première zone située entre le quatrième rayon et le premier rayon,
    une quatrième zone située entre le premier rayon et le deuxième rayon,
    une deuxième zone située entre le deuxième rayon et le troisième rayon, et
    une troisième zone située entre le troisième rayon et le quatrième rayon ; sachant que
    la source lumineuse dans la première zone est utilisée pour éclairer un côté supérieur de la direction de déplacement de la machine de vision, la source lumineuse dans la deuxième zone est utilisée pour éclairer un côté inférieur de la direction de déplacement de la machine de vision, la source lumineuse dans la troisième zone est utilisée pour éclairer le côté droit de la direction de déplacement de la machine de vision, et la source lumineuse dans la quatrième zone est utilisée pour éclairer le côté gauche de la direction de déplacement de la machine de vision ; et sachant que
    l'activation sélective de la source lumineuse dans la zone correspondant à l'espace de l'objet détecté selon la position et la hauteur de l'objet détecté comprend :
    si l'objet détecté est situé du côté droit de la direction de déplacement de la machine de vision, l'activation de la source lumineuse dans la troisième zone ; le fait de déterminer si la hauteur de l'objet détecté est inférieure à l'axe optique de la lentille, et si c'est le cas, l'activation de la source lumineuse dans la première zone pour éclairer la surface supérieure de l'objet détecté ;
    si l'objet détecté est situé du côté gauche de la direction de déplacement de la machine de vision, l'activation de la source lumineuse dans la quatrième zone ; le fait de déterminer si la hauteur de l'objet détecté est inférieure à l'axe optique de la lentille, et si c'est le cas, l'activation de la source lumineuse dans la première zone pour éclairer la surface supérieure de l'objet détecté ;
    si l'objet détecté est situé au milieu de la direction de déplacement de la machine de vision, l'activation de la source lumineuse dans la deuxième zone ; le fait de déterminer si la hauteur de l'objet détecté est inférieure à l'axe optique de la lentille, et si c'est le cas, l'activation de la source lumineuse dans la première zone pour éclairer la surface supérieure de l'objet détecté ;
    s'il y a en même temps des objets du côté gauche et du côté droit de la direction de déplacement de la machine de vision, l'activation des sources lumineuses dans la quatrième zone et la troisième zone en même temps, ou l'activation des sources lumineuses dans la quatrième zone et la troisième zone en alternance selon un mode de division temporelle à une certaine fréquence ; le fait de déterminer s'il y a un objet détecté dont la hauteur est inférieure à l'axe optique de la lentille, et si c'est le cas, l'activation de la source lumineuse dans la première zone pour éclairer la surface supérieure de l'objet détecté ; ou,
    s'il y a en même temps des objets du côté gauche et du côté droit de la direction de déplacement de la machine de vision, le fait de déterminer si la distance sensible de l'objet du côté gauche est plus petite que celle de l'objet du côté droit, si la distance sensible de l'objet du côté gauche est plus petite que celle de l'objet du côté droit, l'activation de la source lumineuse dans la quatrième zone, et si la distance sensible de l'objet du côté gauche est supérieure ou égale à celle de l'objet du côté droit, l'activation de la source lumineuse dans la troisième zone ; le fait de déterminer si la hauteur de l'objet détecté du côté où la source lumineuse est activée est inférieure à l'axe optique de la lentille, et si c'est le cas, l'activation de la source lumineuse dans la première zone.
  8. Le procédé de commande selon la revendication 6 ou 7, sachant que l'activation sélective de la source lumineuse dans la zone correspondant à l'espace de l'objet détecté selon la position et la hauteur de l'objet détecté comprend en outre la désactivation de la source lumineuse actuellement activée lors de l'activation de la source lumineuse pour éclairer la surface supérieure de l'objet détecté.
  9. Le procédé de commande selon la revendication 1 ou 6 ou 7, sachant que le fait de déterminer si la hauteur de l'objet détecté est inférieure à l'axe optique de la lentille comprend le fait de déterminer si un système de coordonnées de pixels d'image contient, au-dessus d'une moitié d'axe y, des informations de luminosité, et si c'est le cas, le fait de déterminer que la hauteur de l'objet détecté est supérieure à l'axe optique de la lentille, sinon, le fait de déterminer que la hauteur de l'objet est inférieure à l'axe optique de la lentille ;
    de préférence, sachant que les n sources lumineuses sont des sources lumineuses de lumière structurée ayant différents motifs, la première source lumineuse est une source lumineuse de lumière structurée ayant un premier motif, et la deuxième source lumineuse est une source lumineuse de lumière structurée ayant un deuxième motif.
  10. Le procédé de commande selon la revendication 5, sachant que le calibrage respectif d'images sous l'éclairage de chacune des sources lumineuses pour obtenir des résultats de calibrage de chacune des sources lumineuses comprend :
    l'activation respective de chacune des sources lumineuses pour éclairer une cible ayant un motif standard, l'acquisition d'une image du motif standard sous l'éclairage de la source lumineuse activée, l'enregistrement d'une relation de correspondance entre des données de trame d'image actuellement acquises et la source lumineuse activée, la prise de données de trame d'image enregistrées comme le résultat de calibrage qui est sous l'éclairage de la source lumineuse activée, et la sauvegarde du résultat de calibrage ;
    sachant que le calibrage de données de trame d'image actuelles acquises sous l'éclairage de chacune des sources lumineuses moyennant le résultat de calibrage comprend :
    l'activation de la source lumineuse, l'enregistrement d'informations de la source lumineuse actuellement activée et la collecte des données de trame d'image actuelles (1401),
    la recherche du résultat de calibrage correspondant à la source lumineuse actuellement activée selon les informations de la source lumineuse actuellement activée ; et
    le calibrage des données de trame d'image actuelles moyennant un résultat de calibrage trouvé (1402).
  11. Machine de vision, caractérisée en ce que la machine de vision comprend un sous-système de sources lumineuses, sachant que le sous-système de sources lumineuses comprend n sources lumineuses distribuées sur une périphérie d'une surface miroir frontale de la machine de vision ; n est un nombre naturel supérieur ou égal à 2 ; et
    un processeur dans la machine de vision est configuré pour exécuter des étapes du procédé de commande pour des sources lumineuses selon l'une quelconque des revendications 1 à 10.
  12. Procédé de commande d'un mouvement d'un robot mobile, caractérisé en ce que le robot mobile comprend une machine de vision selon la revendication 11, et la machine de vision comprend n sources lumineuses distribuées sur une périphérie d'une surface miroir frontale de la machine de vision ; n est un nombre naturel supérieur ou égal à 2 ; sachant que le procédé comprend :
    l'activation des n sources lumineuses, et la désactivation des n sources lumineuses lorsque la durée d'activation des n sources lumineuses atteint une durée prédéfinie, et l'acquisition d'une première image dans une direction de déplacement du robot mobile pendant l'activation des n sources lumineuses ;
    l'analyse de la première image pour obtenir une position initiale d'un objet dans la direction de déplacement du robot mobile ;
    l'activation d'une source lumineuse cible correspondant à la position initiale parmi les n sources lumineuses, et l'acquisition d'une deuxième image dans la direction de déplacement du robot mobile pendant l'activation de la source lumineuse cible ;
    l'analyse de la deuxième image pour obtenir une position cible de l'objet ; et
    la commande d'un corps du robot mobile pour qu'il se déplace pour éviter l'objet selon la position cible.
  13. Support de stockage lisible par ordinateur, caractérisé en ce qu'un programme informatique est stocké dans le support de stockage lisible par ordinateur, et lorsque le programme informatique est exécuté par un processeur, les étapes du procédé de commande pour des sources lumineuses selon l'une quelconque des revendications 1 à 10 sont implémentées.
  14. Programme informatique, caractérisé en ce que le programme informatique, lorsqu'il est exécuté sur un ordinateur, amène l'ordinateur à exécuter les étapes du procédé de commande pour des sources lumineuses selon l'une quelconque des revendications 1 à 10.
EP20895368.7A 2019-12-06 2020-12-02 Procédé de commande de source de lumière de machine de visualisation, et machine de visualisation Active EP4071578B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911240379.2A CN112925351B (zh) 2019-12-06 2019-12-06 一种视觉机器光源控制方法、装置
PCT/CN2020/133465 WO2021110070A1 (fr) 2019-12-06 2020-12-02 Procédé de commande de source de lumière de machine de visualisation, et machine de visualisation

Publications (3)

Publication Number Publication Date
EP4071578A1 EP4071578A1 (fr) 2022-10-12
EP4071578A4 EP4071578A4 (fr) 2023-01-18
EP4071578B1 true EP4071578B1 (fr) 2025-10-01

Family

ID=76161399

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20895368.7A Active EP4071578B1 (fr) 2019-12-06 2020-12-02 Procédé de commande de source de lumière de machine de visualisation, et machine de visualisation

Country Status (4)

Country Link
US (1) US20230009071A1 (fr)
EP (1) EP4071578B1 (fr)
CN (1) CN112925351B (fr)
WO (1) WO2021110070A1 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10921494B2 (en) * 2018-01-25 2021-02-16 Tdk Taiwan Corp. Liquid optical module
CN116208844B (zh) * 2023-03-01 2025-11-11 之江实验室 一种基于时序变化光场的轻量级动态人脸采集装置

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7270274B2 (en) * 1999-10-04 2007-09-18 Hand Held Products, Inc. Imaging module comprising support post for optical reader
EP1731941B1 (fr) * 2004-03-31 2013-05-01 Olympus Corporation Dispositif d'observation et dispositif d'observation a lumiere fluorescente
JP2005304560A (ja) * 2004-04-16 2005-11-04 Funai Electric Co Ltd 自走式掃除機
JP4899534B2 (ja) * 2006-02-28 2012-03-21 ソニー株式会社 監視カメラ
GB0615956D0 (en) * 2006-08-11 2006-09-20 Univ Heriot Watt Optical imaging of physical objects
US8848927B2 (en) * 2007-01-12 2014-09-30 Nikon Corporation Recorder that creates stereophonic sound
GB2474602A (en) * 2008-06-12 2011-04-20 Spandan Choudury A non-virtual-3d-video/photo generator rendering relative physical proportions of image in display medium and hence also of the display medium itself
CN101504280B (zh) * 2009-03-02 2010-08-25 华中科技大学 一种部件轴向对心检测装置的成像系统
CN101852396A (zh) * 2009-03-30 2010-10-06 聚晶光电股份有限公司 光源控制装置和灯光装置
JP5469527B2 (ja) * 2010-05-10 2014-04-16 パナソニック株式会社 撮像装置
KR101487778B1 (ko) * 2010-05-11 2015-01-29 삼성전자 주식회사 센싱 시스템 및 이를 갖춘 이동 로봇
CN101982966B (zh) * 2010-10-29 2012-05-23 天津大学 影像测量仪光轴与物面垂直度的调节方法
CN102205321A (zh) * 2011-01-21 2011-10-05 安徽捷迅光电技术有限公司 多光源色选机
KR101228338B1 (ko) * 2011-04-06 2013-01-31 삼성테크윈 주식회사 Cctv 카메라 및 그의 감시 방법
US20150253428A1 (en) * 2013-03-15 2015-09-10 Leap Motion, Inc. Determining positional information for an object in space
CN102780845A (zh) * 2012-06-14 2012-11-14 清华大学 一种光源交替频闪同步摄像方法及视觉检测系统
CN102997866A (zh) * 2012-11-29 2013-03-27 清华大学 一种物体表面三维轮廓重建方法及成像装置
CN104395694B (zh) * 2013-04-26 2017-08-11 松下电器(美国)知识产权公司 具有多个光源的运动传感器装置
KR20150033238A (ko) * 2013-09-24 2015-04-01 주식회사 정우식품 김치 포장 상태 검사장치
CN103672500B (zh) * 2013-09-27 2015-11-18 北京中钞钞券设计制版有限公司 一种用于检测的光学成像光源
CN203587931U (zh) * 2013-10-11 2014-05-07 杭州银本光电有限公司 一种智能交通卡口红绿灯减光用的组合镜片
GB2529848B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile robot
CN104297162A (zh) * 2014-09-17 2015-01-21 宁波高新区晓圆科技有限公司 一种多波长多方位视觉检测方法
US20160135765A1 (en) * 2014-11-19 2016-05-19 Phenix Medical Llc Active water phantom for three-dimensional ion beam therapy quality assurance
KR102326479B1 (ko) * 2015-04-16 2021-11-16 삼성전자주식회사 청소 로봇 및 그 제어 방법
CN104932507B (zh) * 2015-06-09 2017-11-07 北京联合大学 一种夜间巡逻机器人自动循迹方法
CN105589285B (zh) * 2016-02-19 2018-04-17 苏州佳世达光电有限公司 投影机
CN105913410A (zh) * 2016-03-03 2016-08-31 华北电力大学(保定) 一种基于机器视觉的远距离运动物体高度测量的装置与方法
CN107367737A (zh) * 2016-05-13 2017-11-21 北醒(北京)光子科技有限公司 一种多线旋转扫描探测方法
TWI653964B (zh) * 2016-05-17 2019-03-21 Lg電子股份有限公司 行動機器人及其控制方法
TWI689387B (zh) * 2016-05-17 2020-04-01 南韓商Lg電子股份有限公司 行動機器人
TWI639021B (zh) * 2016-05-17 2018-10-21 南韓商Lg電子股份有限公司 行動機器人及其控制方法
JP7044062B2 (ja) * 2016-07-04 2022-03-30 日本電気株式会社 対象物認識システム、対象物認識装置、対象物認識方法、及びプログラム
US10272828B2 (en) * 2016-08-16 2019-04-30 Irobot Corporation Light indicator system for an autonomous mobile robot
CN107800948B (zh) * 2016-09-05 2020-10-13 中兴通讯股份有限公司 一种摄像云台控制方法及装置、摄像系统
US10033988B2 (en) * 2016-10-31 2018-07-24 Verizon Patent And Licensing Inc. Methods and systems for capturing depth data using frequency-segregated structured light
CN106382920A (zh) * 2016-11-25 2017-02-08 深圳悉罗机器人有限公司 多功能视觉传感器、移动机器人及移动机器人的控制方法
KR102000067B1 (ko) * 2017-01-16 2019-09-17 엘지전자 주식회사 이동 로봇
US20190018106A1 (en) * 2017-07-11 2019-01-17 4Sense, Inc. Light-Source Array for a Time-of-Flight Sensor and Method of Operation of Same
EP3688407B1 (fr) * 2017-09-27 2024-07-31 AMS Sensors Singapore Pte. Ltd. Systèmes de projection de lumière
CN109822598A (zh) * 2017-11-23 2019-05-31 智棋科技股份有限公司 机器人系统及控制机器人的方法
ES2956287T3 (es) * 2018-03-30 2023-12-18 Amgen Inc Inspección de contenedores de fármacos mediante cámaras
GB2574417B (en) * 2018-06-05 2021-03-03 Dyson Technology Ltd A vision system for a mobile robot
KR102242714B1 (ko) * 2018-08-03 2021-04-22 엘지전자 주식회사 이동 로봇 및 그 제어방법, 이동 로봇 시스템
TWI697138B (zh) * 2018-08-24 2020-06-21 三得電子股份有限公司 Led投射裝置及其控制偏斜光場角度之方法
CN208691387U (zh) * 2018-08-28 2019-04-02 杭州萤石软件有限公司 一种全彩网络摄像机
CN109141273B (zh) * 2018-10-30 2020-07-28 北京理工大学 一种基于dmd的高速运动目标形变测量系统及方法
CN209044170U (zh) * 2018-10-30 2019-06-28 深圳市华周测控技术有限公司 用于远心镜头同轴照明点光源
KR102549130B1 (ko) * 2018-11-26 2023-07-03 제트카베 그룹 게엠베하 적응형 후진 라이트를 갖는 차량 비전 시스템
US10674052B1 (en) * 2018-12-12 2020-06-02 Valeo North America, Inc. Common cover lens for camera and illuminators
CN110246114A (zh) * 2019-03-27 2019-09-17 舒轶 解决brdf高度非线性问题的光度立体视觉数据驱动全局优化算法
FR3096854B1 (fr) * 2019-06-03 2021-11-12 Genetec Inc Système de commande du zoom d'un ensemble de cameras et procedé de commande d’un ensemble de caméras

Also Published As

Publication number Publication date
CN112925351B (zh) 2022-08-02
EP4071578A4 (fr) 2023-01-18
WO2021110070A1 (fr) 2021-06-10
US20230009071A1 (en) 2023-01-12
CN112925351A (zh) 2021-06-08
EP4071578A1 (fr) 2022-10-12

Similar Documents

Publication Publication Date Title
US10838067B2 (en) Object detection system
JP4644540B2 (ja) 撮像装置
TWI585436B (zh) 深度資訊量測方法及裝置
US10262242B2 (en) Image scanning system and image scanning method
US10482322B2 (en) Monitor apparatus for monitoring spatial region set by dividing monitor region
JP2015535337A (ja) 角度スキャン速度の動的調整を伴うレーザスキャナ
KR101565900B1 (ko) 카메라 및 레이저 센서의 캘리브레이션 장치 및 캘리브레이션 방법
CN107678041B (zh) 用于检测对象的系统和方法
JPH02143309A (ja) 操縦方法及び装置
KR20200071960A (ko) 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치
WO2022050279A1 (fr) Dispositif de mesure tridimensionnelle
US12025719B2 (en) Determining imperfections in an imaging camera for determining the orientation of objects in space
US20110074738A1 (en) Touch Detection Sensing Apparatus
JP7348414B2 (ja) ライダー計測においてブルーミングを認識するための方法及び装置
US20240077586A1 (en) Method for generating intensity information having extended expression range by reflecting geometric characteristic of object, and lidar apparatus performing same method
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
EP4071578B1 (fr) Procédé de commande de source de lumière de machine de visualisation, et machine de visualisation
CN116829986A (zh) 混合深度成像系统
US20180232892A1 (en) Object detection systems and methods
JPS62194413A (ja) 三次元座標計測装置
TW202009444A (zh) 三維掃描系統
CN108008403A (zh) 红外激光测距装置及方法、无人机及避障方法
JP7256659B2 (ja) 路面計測装置、路面計測方法、及び路面計測システム
US11580656B1 (en) Systems and methods for detecting and correcting data density during point cloud generation
CN117897743A (zh) 用于将符号分配给对象的系统和方法

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20220609

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

A4 Supplementary search report drawn up and despatched

Effective date: 20221215

RIC1 Information provided on ipc code assigned before grant

Ipc: A47L 5/22 20060101ALI20221209BHEP

Ipc: G05D 1/02 20200101ALI20221209BHEP

Ipc: G05D 3/12 20060101AFI20221209BHEP

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
REG Reference to a national code

Ref country code: DE

Ref legal event code: R079

Ipc: G01S0017894000

Ref country code: DE

Ref legal event code: R079

Ref document number: 602020059928

Country of ref document: DE

Free format text: PREVIOUS MAIN CLASS: G05D0003120000

Ipc: G01S0017894000

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

RIC1 Information provided on ipc code assigned before grant

Ipc: G01S 17/894 20200101AFI20250625BHEP

Ipc: G01S 7/481 20060101ALI20250625BHEP

Ipc: A47L 5/22 20060101ALI20250625BHEP

INTG Intention to grant announced

Effective date: 20250710

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Ref country code: CH

Ref legal event code: F10

Free format text: ST27 STATUS EVENT CODE: U-0-0-F10-F00 (AS PROVIDED BY THE NATIONAL OFFICE)

Effective date: 20251001

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 602020059928

Country of ref document: DE

P01 Opt-out of the competence of the unified patent court (upc) registered

Free format text: CASE NUMBER: UPC_APP_0010481_4071578/2025

Effective date: 20251021