WO2020254445A1 - Stereo camera system - Google Patents
Stereo camera system Download PDFInfo
- Publication number
- WO2020254445A1 WO2020254445A1 PCT/EP2020/066826 EP2020066826W WO2020254445A1 WO 2020254445 A1 WO2020254445 A1 WO 2020254445A1 EP 2020066826 W EP2020066826 W EP 2020066826W WO 2020254445 A1 WO2020254445 A1 WO 2020254445A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sensor
- stereo camera
- camera system
- area
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Definitions
- the present invention relates to a stereo camera system for measuring dreidimensiona len surface topologies. With this, depth information of objects moving on a conveyor in front of the stereo camera system can be recorded.
- the stereo camera system can be part of a production monitoring device.
- Production monitoring devices with a conveyor device and a camera for optically scanning the products conveyed on the conveyor device are known and are used, for example, in package sorting systems or production systems.
- a measuring device such as. B. a light curtain
- the camera has an adjustable lens that is set to a previously detected height of an object to be scanned in order to correctly scan its surface.
- the camera can have a zoom lens whose focal length is variable, so that it can be adjusted accordingly for scanning objects of different heights. It is also possible to use a lens with a fixed focal length, the focus of which is tracked so that different heights are sharply imaged on the sensor.
- zoom lenses With zoom lenses, several lenses are moved relative to one another.
- the zoom lens has a movable mechanism within the lens that moves several lenses towards one another.
- the scale With a zoom lens, the scale can be kept constant over the adjustment path.
- a lens with a fixed focal length If a lens with a fixed focal length is used, the entire lens must be shifted along the optical axis so that the focus area is at the desired height.
- the image scale increases when the optical length is reduced.
- Both a zoom lens and a fixed focal length lens have mechanical parts that need to be moved. These movements are subject to wear. In industrial applications, usage cycles of several million are required. These usually far exceed the life of these moving parts.
- a thin, straight strip of light is thrown onto the object to be measured and an area camera then records this strip of light.
- the surface of the object can be calculated back using the distortion that the object generates on the light strip.
- a camera system records the object from two different viewing directions and can determine the topological surface information of the object due to the offset of corresponding image points.
- the disadvantage of this method is the restriction to one focal plane.
- Such stereo camera systems have two camera modules with which the same object area can be scanned from two different viewing directions.
- the camera modules are provided with a lens in order to image the object area on a sensor of the respective camera module.
- An optical axis of the lens is an axis of symmetry of the lens, which runs approximately transversely to the surfaces of one or more lenses contained in the lens.
- the main plane of the objective on the object side is considered to be the objective plane.
- a sensor plane is the plane in which the light-sensitive sensor surface lies.
- An object plane is the plane that is sharply imaged from the lens onto the sensor surface.
- the lens plane, the object plane and the sensor plane are usually arranged parallel to one another.
- the parallel alignment of the object plane to the lens plane and to the sensor plane is referred to below as the parallelism arrangement.
- a base angle ⁇ which is the angle from the viewing directions, is decisive for the resolution of a three-dimensional surface topology with a stereo camera system the two camera modules of the stereo camera system is stretched over the object area.
- the base angle a is essentially determined by the size of a base B, which is the distance between the two sensor surfaces of the two camera modules S1, S2. This means that the larger the base B, the larger the base angle ⁇ and the correspondingly better the height resolution of the stereo camera system (FIG. 8).
- the following is based on the assumption that the distance between the sensor plane SP (sensor plane), the objective plane LP (lens plane) and the object plane OP (object plane) remains constant, so that the base B alone determines the base angle a.
- Lenses have an opening angle y which indicates the maximum angle of incidence of the incident light to the optical axis, within which an object can be imaged essentially without distortion (FIG. 8).
- the maximum opening angle of the lens can vary.
- the beam path is referred to as the beam through the lens, which includes all beams within the opening angle and which extend between the sensor surface and the object.
- the base cannot be selected to be arbitrarily large, since if the base is too large, the sections in the object area limited by the angle of incidence only overlap slightly or not at all, and thus the sharply mapped section of the object area small or nonexistent.
- the imaging performance which can be characterized, among other things, by a color error and a modulation transfer function (MTF), is worse in the edge area of the overlap area than in the center of the overlap area.
- the color error describes the loss of color reproduction.
- the MTF describes a loss of detail in contrast.
- Scheimpflug camera With such a Scheimpflug camera, the parallelism arrangement is canceled by tilting the lens plane LP relative to the sensor plane, so that a large base is possible without the object area being restricted by the limited angle of incidence.
- Scheimpflug camera the so-called Scheimpflug condition is met, according to which the lens plane, the sensor plane and the object plane intersect in a common cutting axis.
- a Scheimpflug angle ⁇ is spanned by the object plane OP and the sensor plane SP (FIG. 9). If the Scheimpflug condition is met, the object area is sharply mapped onto the sensor by the lens.
- a cutting axis is sometimes described at an infinite distance from the stereo camera system.
- the Scheimpflug condition would correspond to the parallelism arrangement.
- the Scheimpflug condition is not met if these planes or axes intersect at infinity. They must therefore intersect at a finite point so that the Scheimpflug condition is fulfilled.
- One or more mirrors can be provided in the beam path, whereby the beam path is folded and the actual lens plane, the sensor plane and the object plane do not intersect in a common cutting axis.
- the Scheimpflug condition is also met with such an arrangement if the objective plane, the sensor plane and the object plane intersect in a common sectional axis with an unfolded beam path without the respective mirrors but with an identical arrangement of the respective objective, sensor and object.
- stereo camera systems with Scheimpflug condition on the other hand, a wider base angle can be selected than with stereo camera systems without Scheimpflug condition with the same objectives and image quality.
- a large base tilting the lenses can reduce the angle of incidence and thus optimize it.
- Lenses with a small opening angle y are therefore also suitable. Due to the smaller opening angle, the condition is that the image quality, especially the MTF, is more constant over the overlap area than with stereo camera systems without Scheimpflug condition. A linear distortion along the overlap area is accepted as this can be corrected by rectification.
- the larger the base selected the more the sensor plane and lens plane have to be tilted relative to the object plane in order to reduce the angle of incidence.
- Another problem with stereo camera systems without Scheimpflug condition is back reflection.
- the lens not only images the object on the sensor, but also the sensor on the object.
- This image of the lens can be imaged back onto the sensor by reflection on a reflective surface of the object.
- the sensor thus records its own mirror image. By tilting it, for example by Scheimpflug, a broad base angle can be selected, whereby such back reflection is avoided. Even if the reflection continues, the image of the reflection can also represent a neutral background, for example. The effects of reflection are thus reduced.
- WO 2014/017977 A1 discloses a method and a device for determining the coplanarity in integrated circuit housings. To determine planarity, two sensors, each with two beam paths, are arranged in such a way that they follow the Scheimpflug principle.
- WO 02/040 970 A1 discloses a measuring system with a camera with an objective and a separate sensor.
- the measuring system has a first camera with a lens and a separate sensor, which are mounted so that their planes intersect in an object plane according to the Scheimpflug principle.
- a second camera is arranged perpendicular to the object plane.
- the camera systems are area cameras.
- WO 02/040 970 A1 an optical method and a device for the inspection of large planar objects emerge.
- two area cameras record a wafer, which are arranged under Scheimpflug condition.
- a two-dimensional image of the object area is recorded with an area sensor.
- one edge of the area sensor is arranged parallel to the base.
- the main axes of the recorded two-dimensional image thus also extend either parallel to the base and transversely to the base.
- the direction parallel to the base is hereinafter referred to as the base direction and the direction transverse to the base is hereinafter referred to as the transverse direction.
- the image is compressed both in the transverse direction and in the base direction.
- This compression is caused by the fact that the individual points of a flat object are spaced differently from the sensor surface. The further two points are away from the sensor surface, the smaller the distance between the points is shown. The compression becomes stronger the larger the base is.
- a transverse compression occurs in the transverse direction and a base compression occurs in the base direction.
- a square object area with the smallest possible base and a central arrangement of the camera systems is mapped almost distortion-free.
- the image of the square forms the shape of a trapezoid or keystone.
- the distance between the corners that are further away from one another is shown smaller than the distance between the corners that are closer to the objective.
- the keystone effect causes a loss of resolution.
- the resolving power is the minimum distance that two point objects must have so that they can be perceived as separate objects. As a result of the compression, two points that are further away from the sensor surface are mapped closer together. From a certain distance from the lens, these points can no longer be perceived as separate.
- the resolving power parallel to the base is hereinafter referred to as the basic resolving power and the resolving power across the base is hereinafter referred to as the transverse resolving power.
- the keystone effect increases the computational effort. In order to use the images for an evaluation of the three-dimensional surface topology, both the base and the transverse compression must be calculated from the image data by rectification.
- Rectification is a process for eliminating geometric distortions in image data that can arise, for example, from central perspective recordings.
- the individual pixels are shifted in such a way that when the pixels of the two sensors overlap, the same position on the object is displayed.
- the distortion is corrected so that the calculated disparity is linearly dependent on the height profile of the object.
- each point of an image of a camera module is assigned a point of an image of the second camera module.
- a rectangular sensor detects a trapezoid TI of the object surface when the sensor is inclined relative to the object due to the keystone effect (FIG. 10).
- the other area sensor detects a second trapezoid T2 of the object area.
- the disadvantage here is that part of the information recorded is lost from the non-overlapping areas. Only the overlap area can be used to evaluate the three-dimensional surface topology.
- the opening angle of the lens must be large enough that the overlap area is completely covered. This is the case when a diagonal D of the hexagonal overlap area is captured by the lens.
- DE 10 2015 11 11 20 A1 discloses a method for scanning surfaces with a stereo camera with at least two camera modules.
- the camera modules are arranged in such a way that they each capture an image of a common area of a surface to be scanned.
- the camera modules can have a line camera with several different sensor lines. A separate line image is recorded with each sensor line.
- the individual line images are superimposed by means of a geometric mapping.
- Stereo camera systems with line sensors and a parallelism arrangement have the same problems as stereo camera systems with area sensors and a parallelism arrangement.
- the base cannot be chosen to be arbitrarily large, since if the base is too large, the sections in the object area limited by the angle of incidence only overlap slightly or not at all and the sharply mapped section of the object area is therefore small or no longer present .
- stereo camera systems are conceivable that meet neither the Scheimpflug condition nor the parallelism arrangement.
- the object plane OP and the sensor plane SP could be parallel to one another, while the objective plane LP is tilted to the other two planes in such a way that the object area is not restricted by the limited angle of incidence.
- An imaging plane which corresponds to the plane on which the objective images the object planes in focus, is arranged at an angle to the object plane or the object axis.
- the object area is imaged sharply on the camera sensor only in the intersection area of the imaging plane and the sensor plane (FIG. 11).
- the greater the tilt of the objective axis relative to the object axis the narrower is a focus area in which the object is sharply imaged.
- the greater the depth of field TS the wider the focus area. With a narrow focus area, sufficient information is only available from a small section of the object for an evaluation of the three-dimensional surface topology.
- stereo camera systems without Scheimpflug condition mean stereo camera systems which have the parallelism arrangement.
- a system is known from "Line cameras for inspecting the sealing surfaces of an O-ring groove", Photonik 5/2012, in which three line cameras are operated in parallel in order to image one side of a groove each. The side walls of the groove are plowed by line cameras with shear -Condition shown.
- US Pat. No. 7,724,362 B1 a system for macro wafer inspection with an oblique incidence emerges. The wafers are captured by a line camera that is directed at an angle to the wafer, the beam path fulfilling the Scheimpflug condition.
- DE 10 2013 103 897 A1 discloses a camera module for scanning an object line by line.
- the camera module comprises a cellular sensor and a lens for imaging the object on the sensor.
- the camera module has several line sensors.
- the line sensors are arranged at different distances from the lens, whereby image lines with different distances from the lens are formed on the respective line sensors.
- the invention is based on the object of creating a stereo camera system with which a good spatial resolution is effected over a large scanning area in a simple manner.
- Another object of the invention is to create a stereo camera system which allows reliable scanning of spatial objects.
- Another object of the invention is to create a stereo camera system with which a large image area can be captured in a simple manner.
- An additional object of the invention is to provide a stereo camera system that is compact.
- Another object of the invention is to create a stereo camera system that images various object planes well.
- the objective is arranged in such a way that an object area is located on two independent beam paths is mapped onto a sensor area.
- the stereo camera system is characterized in that the Scheimpflug condition is fulfilled along at least one of the beam paths.
- a stereo camera system taking into account the Scheimpflug condition, can have a larger base than a stereo camera system with a parallel arrangement without the images being recorded by the lens.
- the larger base increases the resolution of the three-dimensional surface topology.
- Such a stereo camera system can be used to scan an object area line by line transversely to the line direction, the stereo camera system being moved relative to the object.
- the direction parallel to the line sensors is referred to as the line direction and the direction transverse to the line sensors is referred to as the scanning direction.
- the distance between two points that lie in the scanning direction is recorded with the same resolution regardless of the keystone effect and the position along the line direction.
- the image is not compressed along the scanning direction. This increases the resolution along the scanning direction.
- Both line sensors can cover the same area with the entire sensor line. No information is lost.
- the overlap area of line sensors is called the overlap line in the following.
- the opening angle of the lenses only needs to encompass the overlapping line.
- the overlap line is smaller than the diagonal of the overlap area of two area sensors, which, as described above, forms a hexagonal shape.
- the opening angle required for a stereo camera system with Scheimpflug condition and area sensors is greater than with a stereo camera system with Scheimpflug condition and line sensors. In the case of a stereo camera system with Schei mpflug condition and line sensors, this results in less distortion than with a stereo camera system with Scheimpflug condition and area sensors.
- the base can be selected to be large, without distortions occurring as a result of stereo camera systems without Scheimpflug conditions.
- a large base allows precise height resolution.
- the Scheimpflug condition allows small opening angles of the lenses with good image quality.
- the Scheimpflug condition causes unwanted distortions in both directions in area sensors due to the keystone effect.
- the required opening angle of the lenses is smaller for line sensors than for area sensors, since the projected width of the line sensor is smaller than the projected diagonal of the area sensors.
- all image points of the sensor can be used.
- the Scheimpflug condition is preferably fulfilled along all beam paths.
- the beam paths can have different arrangements of the sensor areas and lenses. Because all beam paths meet the Scheimpflug condition, a larger base can be selected than with stereo camera systems in which only one beam path fulfills the Schei mpflug condition.
- the beam paths are preferably arranged mirror-symmetrically. Adjustment of the camera system is simplified by the mirror-symmetrical arrangement. Asymmetries are easily noticed during the adjustment and can be corrected. The evaluation of the image data is also simplified because each sensor is equidistant from the object area. The recorded pixels are thus also offset by the same distance.
- One or more of the beam paths are preferably steered with at least one mirror. This allows the beam paths to be folded by mirrors. The image of the measuring object is reflected once or several times by mirrors, which means that the length of the beam path is retained. However, the volume that is taken up by the arrangement of the optical lenses is in some cases considerably reduced. In particular, a large base for the stereo camera system can be selected and the two sensor halves still remain sealed together. This means that more compact designs are possible than with structures without a beam path folding.
- the beam paths are preferably projected onto a separate part of a single sensor. These parts each form a sensor area of one of the at least two camera modules.
- the sensor can be divided into several sensor areas, each of which is assigned a beam path. For example, in a stereo camera system with two beam paths, the sensor is divided into two areas. If the stereo camera system has three beam paths, the sensor is divided into three parts. This also increases the system stability. In addition, it enables a compact design with simple adjustment.
- the camera can be designed in such a way that the beam paths are each projected onto a separate sensor and that a mirror is provided for each beam path and the beam path is configured in a Scheimpflug arrangement.
- This design enables a compact form with a larger sensor area than with a single sensor. This increases the resolution.
- Another alternative is characterized in that the beam paths are each projected onto a separate sensor and that two mirrors are provided for each beam path and the beam path is configured in a Scheimpflug arrangement. This construction enables a compact shape.
- the cell-shaped sensor areas are preferably arranged next to one another on a line, each of which is represented by a line sensor. Adjustment can be simplified by this line arrangement, since the cell-shaped sensor areas can be attached to a common carrier. For example, if the carrier tilts, the sensor areas do not have to be realigned to one another. In the case of stereoscopic methods, it is useful if the offset takes place in only one direction. This means that the sensors are arranged parallel or perpendicular to a sensor axis. This is supported by the line arrangement.
- the cell-shaped sensor areas can be arranged parallel to one another.
- the two beam paths are only offset in one direction.
- the cell-shaped sensor areas prefferably be lines of pixels of an area sensor.
- An existing stereo line camera system can be easily retrofitted.
- a common objective can be provided for all beam paths. In this way, particularly compact stereo line camera systems can be implemented. By reducing the number of lenses, costs can also be kept low.
- the beam paths can have different distances between the object plane and the sensor plane. In this case, it can be expedient to compensate for the optical path due to the different distances by means of one or more glass elements which is / are arranged in the respective shorter beam paths.
- the speed of the light inside the glass element is slowed down by the glass element. This means that the light needs a longer time to reach the sensor. This has the same effect as an optical path extension. Different distances can thus be compensated.
- a stereo line camera system for measuring three-dimensional surface topologies comprises at least one color sensor, the color sensor having several pixels that are sensitive to different colors, and at least one hyperchromatic lens is provided for imaging the object on the sensor.
- the color sensor is arranged in relation to the lens in such a way that different focal planes are mapped onto the image points of the same color.
- each color line of the sensor is thus assigned to a different focal plane. This can be used to measure three-dimensional surface topologies.
- Each different height of the object area has a different focal plane. This means that each of the heights is sharply mapped on the sensor in a specific color range. The resolution of the height corresponds to that of the color resolution. This procedure is referred to below as hyperchromatic depth determination. It is particularly suitable for perceiving small differences in height.
- the hyperchromatic depth determination is preferably used together with the stereoscopic method with the Scheimpflug condition. With the hyperchromatic depth determination, fine height differences are recorded, whereas with the stereoscopic method height differences are detected over a larger area.
- the color lines are preferably tilted in relation to the lens.
- the tilting takes place around an axis that is parallel to the individual color lines.
- the Scheimpflug condition is retained along a line. This tilting changes the distance between a color line and the lens, which also shifts the focal plane. In this way, the maximum difference in height that can be measured by the hyperchromatic depth determination can be varied effectively.
- the color channels of the color sensor are preferably evaluated separately. This allows the different focus levels to be calculated separately.
- a stereo line camera for measuring three-dimensional surface topologies comprises at least two area sensors, the area sensors being designed in such a way that they have several parallel rows of pixels arranged next to one another, and at least two lenses for imaging the object on one each of the area sensors.
- the stereo line camera is characterized by the fact that an object area with two independent beam paths is imaged simultaneously on one of the sensors, so that a cell-shaped object area is imaged on the image point lines of an area sensor, with the beam paths in the line plane that the cell-shaped Object area intersects, the Scheimpflug condition is met, and that the area sensor is tilted around an axis in such a way that the area is not parallel to an object area to be scanned, so that the individual lines of the area sensor map different levels of the cell-shaped object area.
- each line of image points has a different distance from the lens.
- the Scheimpflug condition is retained along a line. Each line thus has its own focus level.
- Each different height of the object area is thus sharply imaged on a different pixel line.
- the resolution of the height corresponds to the line resolution.
- the maximum difference in height which can be measured by determining the inclination, can be varied by changing the tilt.
- the resolution of the altitude can be improved by combining the inclination-based depth determination with the stereoscopic method with Scheimpflug condition.
- the height is now recorded using two different methods, which reduces a measurement error.
- the sensors are preferably color sensors and the lens is a hyperchromatic lens.
- the individual focus planes that arise from the tilting of the surface sensor can be subdivided again, resulting in a finer resolution of the focus planes.
- the image data are preferably rectified in-line.
- the image data of the images of the stereo image pair are matched line by line, with both an offset and a different distortion being corrected by the two lenses.
- the position information is adapted to the respective distortion, so that the image data are displayed without distortion and can be further calculated. Since a further conversion step of the position information is not necessary, the speed of the calculations increases.
- Line sensors with charge-coupled device (CCD) sensors have shift registers in which detected brightness values are stored. These shift registers are read out serially. In general, when reading out the shift register of the individual lines, uniform position information is assigned to the respective image points.
- the pixel lines of sensors are preferably synchronized in such a way that they record line-synchronously and have a simultaneous image start. This significantly reduces the effort involved in rectifying.
- a recorded image point of a camera module is assigned the same point on the object at the same time as a second recorded image point of the second camera module. This has the advantage that, during the stereo calculation, each line of a sensor area is automatically assigned the appropriate line of the second sensor area. This means that the stereo calculation is only necessary in one dimension.
- the surface topology detection device has at least one stereo camera system, as explained above, in order to detect three-dimensional surface topologies of a measurement object.
- the surface topology detection device comprises a transport device for transporting the measurement object or the camera system, a synchronization device in order to synchronize the speed of the transport with the cell-shaped scans of the three-dimensional surface topology, and an evaluation device in order to evaluate the measurements of the three-dimensional surface topology.
- a transport device can for example be a conveyor belt.
- the synchronization device outputs a signal to the stereo camera system and / or to the evaluation unit in order to synchronize the speed of the transport with the measurement of the three-dimensional surface topology. If the signal goes to the stereo camera system, the signal can trigger a measurement. If the signal reaches the evaluation unit, the speed of the transport device can be determined. With a known image generation frequency, it can be determined how far one image line is from the next.
- the synchronization device can, for example, be an incremental encoder that is triggered by the transport device. If the transport device is a conveyor belt, the wheel position can be determined by the synchronization device, for example by a wheel that is coupled to the conveyor belt. A signal is then issued for certain wheel positions. Alternatively, the synchronization device could have a camera unit which detects markings on the conveyor belt and uses them to output a signal. The synchronization device can also be designed as a module of the evaluation unit. If the image generation frequency and the speed of the transport device are known, the distance between two recorded image lines can be determined by calculation.
- the evaluation unit is a module on a computing unit and calculates the three-dimensional surface topology from the recorded image data.
- Figure 1 shows a first embodiment of a camera with two lenses and two
- Figure 2a shows a second embodiment of a camera with two lenses
- Figure 2b shows a modification of the second embodiment of a camera with two
- FIG. 2c shows a further modification of the second exemplary embodiment of a camera with two color filters, two lenses, four mirrors and two sensors,
- Figure 3 shows a third embodiment of a camera with two lenses
- FIG. 4 shows a hyperchromatic objective, with different focal planes falling on different colored lines
- Figure 5 shows a fourth embodiment of a camera with three lenses
- Figure 6 shows a modification of the fourth embodiment of a camera with a
- Lens four mirrors, a glass element and a color line sensor
- FIG. 7 shows a surface topology detection device which uses a stereo camera according to the invention, in a block diagram
- FIG. 8 shows a schematic arrangement of sensors and lenses of two camera modules of a stereo camera which does not correspond to the invention
- FIG. 9 shows a schematic arrangement of sensors and lenses of two camera modules of a stereo camera, and FIG FIG. 10 projected sensor areas on an object plane, and
- FIG. 11 shows a surface topology detection device which uses a stereo camera according to the invention, in a block diagram.
- a stereo camera system 25 comprises two camera modules 1 a and 1 b (FIG. 1).
- Each camera module 1 is formed from an objective 2 and a line sensor 3.
- the line sensors 3 each detect with a sensor area 13 an image imaged thereon by the objective 2.
- the two camera modules 1 are arranged such that they scan a common object area 6 from two different viewing directions.
- a camera axis 5 runs through a center point of the sensor area 13 and a center point of the lens 2.
- the two camera axes 5 thus run in the viewing direction of the sensor areas 13 to the object area 6.
- the two camera axes 5 lie in an optical plane.
- the two line sensors 3 or their sensor areas 13 also lie in this optical plane. This optical plane is congruent with the plane of the drawing in FIG.
- the base B is the distance between the centers of the two sensor areas 13.
- the camera axes 5 intersect in an object axis 10 and limit the base angle a.
- the camera system uses line sensors 3, only a sensor axis 8, an objective axis 9 and an object axis 10 are relevant for further consideration, which are the straight lines in the optical plane and at the same time in the sensor plane defined above, the objective plane or the Object level.
- the line sensor 3 records an image of the object region 6, which is imaged onto the line sensor 3 by the objective 2.
- the line sensor 3 is a CCD sensor and comprises a shift register and a one-dimensional array of photo detectors, each photo detector serving to record a pixel.
- the sensor axis 8 is congruent with the sensor line.
- the lenses 2 of the camera modules 1 are arranged in relation to the respective line sensor 3 in such a way that the object area 6 is imaged sharply in the plane of the line sensor 3.
- the objective 2 can be formed from a single lens or from several lenses.
- An optical axis of the objective 2 is an axis of symmetry of the objective 2, which runs perpendicular to the objective axis 9 in the optical plane.
- the object area 6 lies on the object axis 10 and is imaged sharply on the sensor areas 13.
- the sensor axis 8, the objective axis 9 and the object axis 10 intersect at a common point which, however, is not at infinity.
- the Scheimpflug condition is thus fulfilled.
- FIG. 2a A second exemplary embodiment (FIG. 2a) is explained below, the same elements as in the first exemplary embodiment being provided with the same reference numerals. The explanations given above apply to the same elements, unless otherwise stated below.
- a stereo camera system 25 again comprises two camera modules la and lb.
- Each camera module 1 comprises an objective 2, two mirrors 11, 12 and a line sensor area 13.
- the camera axis 5 is deflected by the two mirrors 11, 12.
- the line sensor area 13 of each camera module 1 a and 1 b lies in a line behind one another and together forms a line sensor 3.
- the mirrors 11, 12 are arranged between the objective 2 and the line sensor area 13 in such a way that the object area 6 falls on the line sensor area 13.
- the sensor axis 8 is mirrored on the mirror 11.
- the sensor axis 8 ′ (not shown) is the mirrored sensor axis 8.
- the sensor axis 8 ′ is in turn mirrored on the mirror 12.
- the sensor axis 8 ′′ (not shown) is the mirrored sensor axis 8 ′ or the double mirrored sensor axis 8.
- a base B of the stereo camera system 25 is given by the distance between the centers of the projections of the two line sensors 3, the projection of a line sensor The place is where the line sensor 3 would be if the image of the lens area 6 would not be mirrored.
- the sensor axis 8 ′′, the objective axis 9 and the object axis 10 intersect at a common point which, however, is not at infinity.
- the Scheimpflug condition is thus fulfilled.
- the second exemplary embodiment differs from the first exemplary embodiment in that two mirrors 11, 12 per camera module 1 a, 1 b deflect the foci of the object region 10 in such a way that they lie on a common axis, the respective sensor axis 8.
- two mirrors 11, 12 per camera module 1 a, 1 b deflect the foci of the object region 10 in such a way that they lie on a common axis, the respective sensor axis 8.
- both beam paths can be projected onto a line sensor 3, which is divided into two line sensor areas 13 un.
- the sensor axis 8 is parallel to the object axis 10. However, it is also conceivable that these two axes are not parallel. Both camera modules are then not constructed with mirror symmetry.
- the stereo camera system 25 has a distance between the two lines of sensor areas 13 (FIG. 2b).
- Each line sensor 3 now includes a line sensor area 13.
- This exemplary embodiment has certain similarities to the hyperscope, which however is not subject to the Scheimpflug conditions.
- a further possibility of this embodiment is that the two optical axes intersect, so that the first image of the object area 6 is projected onto the opposite line sensor 3b or line sensor area 13b. Without the Scheimpflug condition, this arrangement is known as a pseudoscope.
- the stereo camera system 25 has a structure according to the second embodiment (Fig. 2c), but the sensor area 13 are not arranged along the sensor axis 8 in a line next to each other, but perpendicular to the sensor axis 8 parallel to each other. As will be explained in more detail below, these sensor areas 13 can each be formed by the different color lines of a line sensor 3. Both beam paths are arranged offset from one another perpendicular to the line color sensor 3 in such a way that the two different beam paths hit line color sensor 3 slightly offset. The two mirrors 11 are arranged next to one another. . A color filter 26 is then positioned along each beam path.
- the image of a camera module la hits the line color sensor 3 as a red image, for example, and the image of the other camera module lb hits the line color sensor 3 as a green image, for example.
- a line color sensor 3 can simultaneously record two or even several images of the object area 6 .
- the surface of the object should not be in the color of one of the color filters 26, since otherwise the image information on the surface will be filtered out.
- the beam path with the color filter of a first color thus hits the sensor line that detects the first color.
- the beam path with the color filter of the second color hits the sensor line that detects the second color.
- White or grayscale have the same intensity values for each color in the color spectrum. If the light passes through the respective color filter 26, the integrated intensity of the light is reduced across all colors, regardless of the color of the color filter. If the color channels of the line sensor 3 are evaluated as gray levels, the resulting images of the two beam paths differ in their gray level intensity only due to the different viewing angles to the object and not due to the different color of the beam path.
- the color filters 26 are arranged in front of the objective 2a and 2b (FIG. 2c). However, they can also be arranged between mirror 12 and objective 2a, 2b or between mirror 11 and 12 or between line color sensor 3 and mirror 11.
- different polarizing filters can be used along the beam path, provided that the line sensor 3 can record images of the object region 6 with correspondingly differently polarized images.
- Each beam path of the stereo camera system 25 thus has a different polarization when it hits the line sensor 3. If the phase and the intensity of the images are recorded, this method can also be used in holography. The surface of the object must not change the polarization, since otherwise the polarizing filter will filter out image information that is necessary to calculate the height information.
- FIG. 3 A third exemplary embodiment (FIG. 3) is described below, the same elements as in the first and second exemplary embodiments with the same reference numerals are provided. The explanations given above apply to the same elements, unless otherwise stated below.
- a stereo camera system 25 again comprises two camera modules la and lb.
- Each camera module 1 comprises an objective 2, a mirror 11 and a line sensor 3.
- the camera axis 5 is deflected by the mirror 11.
- the mirror 11 is arranged between the lens 2 and the line sensor 3 in such a way that the object area 6 falls on the line sensor 3.
- the sensor axis 8 is mirrored on the mirror 11.
- the sensor axis 8 '(not shown) is the mirrored sensor axis 8.
- the two sensor axes 8 of the two camera modules 1 are not necessarily parallel to one another in this exemplary embodiment.
- a base B of the stereo camera system 25 is given by the distance between the centers of the projections of the two line sensors 3, the projection of a line sensor being the location where the line sensor 3 would be if the image of the lens area 6 were not mirrored.
- the sensor axis 8 ', the objective axis 9 and the object axis 10 intersect at a common point which, however, is not at infinity.
- the Scheimpflug condition is thus fulfilled.
- the two line sensor areas 13 are no longer in a line one behind the other. Furthermore, by means of the mirrors 11, the sensors 3 can be arranged perpendicularly or almost perpendicularly to the object area 6, as a result of which a very compact design can be selected.
- FIG. 5 A fourth exemplary embodiment (FIG. 5) is explained below, the same elements as in the first exemplary embodiment being provided with the same reference symbols. The explanations given above apply to the same elements, unless otherwise stated below.
- a stereo camera system 25 comprises three camera modules la, lb and lc.
- the stereo camera system 25 a three-line sensor 15.
- the three-line sensor 15 comprises three parallel sensor areas 13 arranged next to one another.
- the sensor axes 8 are arranged perpendicular to the optical plane.
- Each camera module 1 a and 1 c includes an objective 2, two mirrors 11, 12 and one of the three line sensor areas 13.
- the camera module lb includes an objective 2 and one of the three line sensor areas 13.
- the camera modules 1 scan a common object area 6 from three different viewing directions .
- the sensor axis 8 is mirrored on the mirror 11.
- the sensor axis 8 '(not shown) is the mirrored sensor axis 8.
- the sensor axis 8' is in turn mirrored on the mirror 12.
- Sensor axis 8 ′′ (not shown) is the mirrored sensor axis 8 ', or the double mirrored sensor axis 8.
- a base B is given by the distance between the center points of projections of the two line sensors 3, the projection of a line sensor being the location where the line sensor 3 would be if the image of the lens area 6 were not mirrored.
- the sensor axis 8 or 8 ′′, the objective axis 9 and the object axis 10 intersect at a common point which, however, is not at infinity.
- the Scheimpflug condition is thus fulfilled.
- the stereo camera system 25 comprises only a single lens 2, which encloses all three camera modules la, lb and lc.
- the middle camera module 1b has a glass element 19 (FIG. 6).
- the fourth exemplary embodiment differs from the preceding exemplary embodiments in that the line sensor areas 13 are arranged parallel to one another and not in a line one behind the other.
- the objective of each camera module 1 is a hyperchromatic objective 14, the focus of which is particularly dependent on the respective wavelength (see FIG. 4).
- the Three-line sensor 15 is a three-line color sensor 15, which has a red 16a, green 16b and blue line 16c. Due to the hyperchromatic objective 14, the respective red, green and blue lines (16a, 16b, 16c) of the three-line color sensor 15 each have a different focal plane 17a, 17b and 17c. As a result, each color line 16a, 16b and 16c measures a different height measuring area 18a, 18b and 18c. The resolution of the fleas corresponds to that of the color resolution.
- the color lines 16 are preferably tilted in relation to the objective 14.
- the tilting takes place around an axis which is parallel to the individual color lines 16.
- the Scheimpflug condition is retained along a color line 16. This tilting changes the distance of a color line 16 to the lens 14, whereby the focal plane 17 is shifted ver.
- the camera modules 1 have an area sensor instead of a line sensor 3.
- the area sensor is a two-dimensional array of photodetectors, each photodetector corresponding to one pixel.
- the area sensor is viewed as a series of parallel Zeilensenso Ren 3.
- the area sensor is tilted about a tilt axis.
- the tilt axis is parallel to the individual line sensors 3.
- the individual lines and their associated sensor axes 8, or 8 'or 8 "are arranged in such a way that they intersect the objective axis 9 and the object axis 10 at one point and thus the Fulfill the Scheimpflug condition.
- the amount of the angle between the normal of the area sensor and the optical axis is less than 90 °.
- Each line of the area sensor has a different flea measuring area 18.
- the adjacent flea measuring areas lead to an expansion of the flea area.
- the same camera structure can therefore be used for objects with different fleas.
- Each flea of the object is assigned at least one corresponding line of the area sensor with the associated flea measurement area.
- the above-mentioned exemplary embodiments each include two or three camera modules 1.
- any number, but at least two camera modules can be provided for stereoscopic determination of surface topologies. The higher the number of camera modules, the smaller the statistical error. However, the costs also increase.
- the number of base lengths results from the triangle number. For example, with two camera modules 1, only one base is possible, with three camera modules 1 there are three, with four there are six options and with five there are ten different base lengths.
- a surface topology detection device 20 is explained below (FIG. 7).
- the surface topology detection device comprises a stereo camera system 25, as it was carried out in one of the above exemplary embodiments according to one of FIGS. 1 to 6, for measuring three-dimensional surface topologies of a measurement object 4, a transport device 21 for transporting the measurement object 4, a synchronization device 22, to synchronize the speed of the transport with the measurement of the three-dimensional surface topology, and an evaluation device 23 to evaluate the measurements of the three-dimensional surface topology.
- the transport device 21 is a conveyor belt.
- the synchronization device 22 is an incremental encoder 22.
- the incremental encoder is coupled to the conveyor belt 21 so that it rotates when the conveyor belt moves forward.
- a clock signal is output when rotating through a predetermined angle of rotation.
- the conveyor belt thus covers a predetermined distance between two successive clock signals.
- These clock signals are transmitted to an evaluation device 23.
- the evaluation device 23 is also connected to the chamber modules 1 in such a way as to receive the image signals recorded by the sensors 3 arranged in the chamber modules.
- the evaluation device 23 is designed in such a way that it controls the point in time at which the respective camera modules scan the measurement object 4. In this way, the evaluation device 23 can scan the measurement object 4 with the movement of the conveyor belt in accordance with the clock signal received from the incremental encoder 22. of the measurement object 4.
- This synchronization is preferably formed in such a way that the measurement object is scanned in the direction of movement 7 with the same local distance. Several consecutive one-dimensional scans can be can be combined to form a two-dimensional image in the evaluation device 23. Thus, three-dimensional information is obtained from a surface topology.
- the captured images can be corrected.
- a displacement error can be eliminated that arises from the fact that the measurement object 7 is moved relative to the camera and the individual pixels of the line camera are successively switched to be sensitive.
- the image has a certain oblique position to the direction of movement 7.
- the images can be rectified.
- the rectification eliminates geometric distortions in the image data. These can arise from the Scheimpflug arrangement, among other things.
- the correction of the rectification can also be carried out directly in-line during the image registration.
- the data is corrected immediately after an image line has been recorded.
- the image signals are preprocessed in an FPGA (Field Programmable Gate Array) on the camera. If the parameters of the directory of the two camera modules are known, e.g. from a calibration of the system, the same correction model can be applied in the FPGA as conventionally on a PC. A further correction in the arithmetic unit is therefore not necessary, whereby the processing speed is increased.
- FPGA Field Programmable Gate Array
- the images corrected in this way are used for a depth reconstruction of the recorded surface of the measurement object 4.
- a typical method for depth reconstruction is stereo triangulation.
- Each point in the first image is assigned a second point in the second image. The distance between the two points depends on the actual spatial depth of the point, more precisely the distance of the sensor 3 to the object area 6 and the base B of the stereo camera system 25.
- Each point of the first image is assigned a depth information.
- blocks i.e. a group of pixels, e.g. a 3x3 matrix to be assigned to. This process is called block matching.
- an image line containing depth information is calculated. If several image lines of a measurement object 4 are recorded, the lines can len are combined with the depth information in order to generate a three-dimensional surface topography of the measurement object. The distances between the individual lines can be calculated using information from the synchronization device 22.
- the image data of all camera modules 1 are generated on the same line sensor 3.
- the resulting digital double image is divided in the evaluation device 23.
- the resulting two images are corrected as described above and used for the depth construction.
- a three-line color sensor 15 is used to record the measurement object, a separate image is generated for each color. As described above, the independent images are corrected separately for each color and used for the depth construction profile of the target surface can be calculated.
- Each point of an image is assigned a point in the other two color area images, but of the same camera module 1. The position of the point does not differ between the three images. For this, the image sharpness of the point is different depending on the depth of the real point on the measurement object 4 and the color. If a point is deep, it is shown in focus in the blue image, in the case of medium depth in the green and in the case of low depth in the red image.
- a sharpness detection can e.g. can be carried out by comparing the contrast of the images in a specific pixel region. If a point is sharper, the contrast is higher.
- a gray-scale image can also be calculated from a composite RGB image, which is then analyzed.
- a surface sensor is used to record the measurement object, an independent image is generated for each line. As described above, the independent images are corrected separately for each line and used for the depth construction. The sharpness of a real point on the measurement object 4 is then determined in each independent image. In this way the line can be determined which recorded the point most sharply. Since the position of the line and the focal length are known, the distance to the point can be become true. If all points are connected to one another, a height profile of the measurement object 4 is created.
- the sensors mentioned above can, as mentioned above, be CCD sensors, but other types of sensors, such as, for example, complementary metal-oxide-semiconductor (CMOS) sensors, are also conceivable.
- CMOS complementary metal-oxide-semiconductor
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
Stereokamerasvstem Stereo camera system
Die vorliegende Erfindung betrifft ein Stereokamerasystem zur Messung von dreidimensiona len Oberflächentopologien. Hiermit können Tiefeninformationen von Objekten, die sich auf einer Fördereinrichtung vor dem Stereokamerasystem entlang bewegen, erfasst werden. Das Stereokamerasystem kann Bestandteil einer Produktionsüberwachungsvorrichtung sein. The present invention relates to a stereo camera system for measuring dreidimensiona len surface topologies. With this, depth information of objects moving on a conveyor in front of the stereo camera system can be recorded. The stereo camera system can be part of a production monitoring device.
Produktionsüberwachungsvorrichtungen mit einer Fördereinrichtung und einer Kamera, um die auf der Fördereinrichtung beförderten Produkte optisch abzutasten, sind bekannt und werden beispielsweise in Paketsortieranlagen oder Produktionsanlagen verwendet. Production monitoring devices with a conveyor device and a camera for optically scanning the products conveyed on the conveyor device are known and are used, for example, in package sorting systems or production systems.
Üblicherweise wird über eine Messeinrichtung, wie z. B. einem Lichtvorhang, die Höhe des abzutastenden Produktes bzw. Objektes ermittelt. Die Kamera weist ein verstellbares Objek tiv auf, das auf eine vorher erfasste Höhe eines abzutastenden Objektes eingestellt wird, um deren Oberfläche korrekt abzutasten. Die Kamera kann ein Zoomobjektiv aufweisen, dessen Brennweite veränderlich ist, sodass es zum Abtasten unterschiedlich hoher Objekte entspre chend eingestellt werden kann. Es ist auch möglich, ein Objektiv mit einer festen Brennweite zu verwenden, deren Fokus nachgeführt wird, sodass unterschiedliche Höhen scharf auf dem Sensor abgebildet werden. Usually, a measuring device, such as. B. a light curtain, the height of the product or object to be scanned is determined. The camera has an adjustable lens that is set to a previously detected height of an object to be scanned in order to correctly scan its surface. The camera can have a zoom lens whose focal length is variable, so that it can be adjusted accordingly for scanning objects of different heights. It is also possible to use a lens with a fixed focal length, the focus of which is tracked so that different heights are sharply imaged on the sensor.
Bei Zoomobjektiven werden mehrere Linsen relativ zueinander verschoben. Das Zoomobjek tiv weist eine bewegliche Mechanik innerhalb des Objektivs auf, das mehrere Linsen zuei nander verschiebt. Mit einem Zoomobjektiv kann der Maßstab über den Verstellweg konstant gehalten werden. With zoom lenses, several lenses are moved relative to one another. The zoom lens has a movable mechanism within the lens that moves several lenses towards one another. With a zoom lens, the scale can be kept constant over the adjustment path.
Wird ein Objektiv mit fester Brennweite verwendet, so ist das gesamte Objektiv längs zur optischen Achse zu verschieben, sodass der Schärfebereich auf der gewünschten Höhe liegt. Der Abbildungsmaßstab erhöht sich bei Verringerung der optischen Länge. Sowohl bei einem Zoomobjektiv als auch bei einem Objektiv mit fester Brennweite gibt es mechanische Teile, die bewegt werden müssen. Diese Bewegungen unterliegen einem Ver schleiß. Bei industriellen Anwendungen werden Benutzungszyklen von mehreren Millionen gefordert. Diese übersteigen normalerweise die Lebensdauer dieser beweglichen Teile bei weitem. If a lens with a fixed focal length is used, the entire lens must be shifted along the optical axis so that the focus area is at the desired height. The image scale increases when the optical length is reduced. Both a zoom lens and a fixed focal length lens have mechanical parts that need to be moved. These movements are subject to wear. In industrial applications, usage cycles of several million are required. These usually far exceed the life of these moving parts.
Sollen in der Produktüberwachungsvorrichtung neben den optischen auch Höheninformatio nen ausgewertet werden, so haben sich verschiedene Methoden etabliert. If height information is to be evaluated in the product monitoring device in addition to the optical information, various methods have become established.
Eine Möglichkeit bietet das sogenannte Lichtschnittverfahren. Dabei wird ein dünner gerader Lichtstreifen auf das zu vermessende Objekt geworfen und eine Flächenkamera nimmt die sen Lichtstreifen dann auf. Anhand der Verzerrung, die das Objekt auf dem Lichtstreifen er zeugt, kann die Oberfläche des Objektes zurückberechnet werden. One possibility is the so-called light section method. A thin, straight strip of light is thrown onto the object to be measured and an area camera then records this strip of light. The surface of the object can be calculated back using the distortion that the object generates on the light strip.
Eine weitere Möglichkeit bietet die Stereoskopie. Ein Kamerasystem nimmt dabei das Objekt aus zwei verschiedenen Blickrichtungen auf und kann aufgrund des Versatzes korrespondie render Bildpunkte die topologischen Oberflächeninformationen des Objektes bestimmen. Nachteilig an diesem Verfahren ist jedoch die Beschränkung auf eine Fokusebene. Another option is stereoscopy. A camera system records the object from two different viewing directions and can determine the topological surface information of the object due to the offset of corresponding image points. However, the disadvantage of this method is the restriction to one focal plane.
Solche Stereokamerasysteme weisen zwei Kameramodule auf, mit welchen aus zwei unter schiedlichen Blickrichtungen derselbe Objektbereich abgetastet werden kann. Die Kame ramodule sind mit einem Objektiv versehen, um den Objektbereich auf einem Sensor des jeweiligen Kameramoduls abzubilden. Eine optische Achse des Objektivs ist eine Symmetrie achse des Objektivs, welche etwa quer zu den Oberflächen einer oder mehrerer im Objektiv enthaltener Linsen verläuft. Als Objektivebene gilt die objektseitige Hauptebene des Objek tivs. Eine Sensorebene ist die Ebene, in welcher die lichtempfindliche Sensorfläche liegt. Eine Objektebene ist die Ebene, die scharf vom Objektiv auf die Sensorfläche abgebildet wird. Such stereo camera systems have two camera modules with which the same object area can be scanned from two different viewing directions. The camera modules are provided with a lens in order to image the object area on a sensor of the respective camera module. An optical axis of the lens is an axis of symmetry of the lens, which runs approximately transversely to the surfaces of one or more lenses contained in the lens. The main plane of the objective on the object side is considered to be the objective plane. A sensor plane is the plane in which the light-sensitive sensor surface lies. An object plane is the plane that is sharply imaged from the lens onto the sensor surface.
Bei herkömmlichen Stereokamerasystemen sind meistens die Objektivebene, die Objektebe ne und die Sensorebene zueinander parallel angeordnet. Die parallele Ausrichtung der Ob jektebene zur Objektivebene sowie zur Sensorebene wird im Folgenden als Parallelitäts- Anordnung bezeichnet. In conventional stereo camera systems, the lens plane, the object plane and the sensor plane are usually arranged parallel to one another. The parallel alignment of the object plane to the lens plane and to the sensor plane is referred to below as the parallelism arrangement.
Entscheidend für die Auflösung einer dreidimensionalen Oberflächentopologie mit einem Ste reokamerasystem ist ein Basis-Winkel a, welcher der Winkel ist, der von den Blickrichtungen der beiden Kameramodule des Stereokamerasystems auf den Objektbereich aufgespannt wird. Der Basis-Winkel a wird im Wesentlichen durch die Größe einer Basis B, welche der Abstand zwischen den beiden Sensorflächen der beiden Kameramodule Sl, S2 ist, einge stellt. Dies bedeutet, je größer die Basis B ist, desto größer ist der Basis-Winkel a und dem entsprechend besser ist die Höhenauflösung des Stereokamerasystems (Fig. 8). A base angle α, which is the angle from the viewing directions, is decisive for the resolution of a three-dimensional surface topology with a stereo camera system the two camera modules of the stereo camera system is stretched over the object area. The base angle a is essentially determined by the size of a base B, which is the distance between the two sensor surfaces of the two camera modules S1, S2. This means that the larger the base B, the larger the base angle α and the correspondingly better the height resolution of the stereo camera system (FIG. 8).
Im Folgenden wird, sofern nicht anders angegeben, von einem gleichbleibenden Abstand der Sensorebene SP (sensor plane), Objektivebene LP (lens plane) und Objektebene OP (object plane) zueinander ausgegangen, so dass allein die Basis B den Basis-Winkel a bestimmt. Unless otherwise stated, the following is based on the assumption that the distance between the sensor plane SP (sensor plane), the objective plane LP (lens plane) and the object plane OP (object plane) remains constant, so that the base B alone determines the base angle a.
Objektive weisen einen Öffnungswinkel y auf, welcher den maximalen Einfallswinkel des ein fallenden Lichts zur optischen Achse angibt, innerhalb dem ein Objekt im Wesentlichen ver zerrungsfrei abgebildet werden kann (Fig. 8). Je nach Ausführung des Objektivs kann der maximale Öffnungswinkel des Objektivs variieren. Im Folgenden wird als Strahlengang das Strahlenbündel durch das Objektiv bezeichnet, welcher alle Strahlen innerhalb des Öff nungswinkels umfasst und sich zwischen der Sensorfläche und dem Objekt erstrecken. Lenses have an opening angle y which indicates the maximum angle of incidence of the incident light to the optical axis, within which an object can be imaged essentially without distortion (FIG. 8). Depending on the design of the lens, the maximum opening angle of the lens can vary. In the following, the beam path is referred to as the beam through the lens, which includes all beams within the opening angle and which extend between the sensor surface and the object.
Bei einem Stereokamerasystem mit der oben erläuterten Parallelitäts-Anordnung kann die Basis jedoch nicht beliebig groß gewählt werden, da bei einer zu großen Basis sich die durch den Einfallswinkel begrenzten Abschnitte im Objektbereich nur noch geringfügig oder gar nicht überlappen und somit der scharf abbildbare Abschnitt des Objektbereichs klein oder gar nicht mehr vorhanden ist. In the case of a stereo camera system with the parallelism arrangement explained above, however, the base cannot be selected to be arbitrarily large, since if the base is too large, the sections in the object area limited by the angle of incidence only overlap slightly or not at all, and thus the sharply mapped section of the object area small or nonexistent.
Nur ein Überlappbereich, also der Bereich des Objektes, der von beiden Sensoren zugleich erfasst wird, kann für eine Auswertung der dreidimensionalen Oberflächentopologie genutzt werden. Die Randbereiche dieses Überlappbereiches werden unter einem großen Öffnungs winkel des Objektivs y abgebildet. Die Verzeichnung ist somit in den Randbereichen des Überlappbereichs am größten. Des Weiteren wird die Abbildungsleistung, welche unter ande rem durch einen Farbfehler und eine Modulationsübertragungsfunktion (MTF) charakterisiert werden kann, im Randbereich des Überlappbereichs schlechter als im Zentrum der Über lappbereichs. Der Farbfehler beschreibt die Verlust der Farbabbildung. Die MTF beschreibt einen Detailkontrastverlust. Only an overlapping area, i.e. the area of the object that is detected by both sensors at the same time, can be used for an evaluation of the three-dimensional surface topology. The edge areas of this overlap area are imaged at a large opening angle of the objective y. The distortion is therefore greatest in the edge areas of the overlap area. Furthermore, the imaging performance, which can be characterized, among other things, by a color error and a modulation transfer function (MTF), is worse in the edge area of the overlap area than in the center of the overlap area. The color error describes the loss of color reproduction. The MTF describes a loss of detail in contrast.
In„Scheimpflug Stereocamera for particle image velocimetry in liquid flows", Ajay K. Prasad und Kirk Jensen, APPLIED OPTICS 34, 30 (1995), wird eine Stereovideokamera mit Schei- mpflug-Bedingung und einem Flächensensor beschrieben. Das System wird genutzt, um die Geschwindigkeitsverteilung von kleinen Teilchen in Flüssigkeiten zu bestimmen. In "Scheimpflug Stereocamera for particle image velocimetry in liquid flows", Ajay K. Prasad and Kirk Jensen, APPLIED OPTICS 34, 30 (1995), a stereo video camera with a mpflug condition and an area sensor. The system is used to determine the velocity distribution of small particles in liquids.
Bei einer solchen Scheimpflug-Kamera wird die Parallelitäts-Anordnung aufgehoben, indem die Objektivebene LP gegenüber der Sensorebene gekippt wird, so dass eine große Basis möglich ist, ohne dass der Objektbereich durch den limitieren Einfallswinkel beschränkt wird. Bei einer Scheimpflug-Kamera ist die sogenannte Scheimpflug-Bedingung erfüllt, gemäß der sich die Objektivebene, die Sensorebene und die Objektebene in einer gemeinsamen Schnit tachse schneiden. Ein Scheimpflug-Winkel ß wird durch die Objektebene OP und die Sensor ebene SP aufgespannt (Fig. 9). Ist die Scheimpflug-Bedingung erfüllt wird der Objektbereich durch das Objektiv scharf auf den Sensor abgebildet. In der Literatur wird manchmal eine Schnittachse in unendlicher Entfernung zum Stereokamerasystem beschrieben. In diesem Sonderfall entspräche die Scheimpflug-Bedingung der Parallelitäts-Anordnung. Für die fol gende Betrachtung gilt jedoch, dass die Scheimpflug-Bedingung nicht erfüllt ist, wenn sich diese Ebenen bzw. Achsen im Unendlichen schneiden. Sie müssen sich somit in einem endli chen Punkt schneiden, damit die Scheimpflug-Bedingung erfüllt ist. Ein oder mehrere Spiegel können im Strahlengang vorgesehen sind, wodurch der Strahlengang gefaltet wird und die tatsächliche Objektivebene, die Sensorebene und die Objektebene sich nicht in einer ge meinsamen Schnittachse schneiden. Die Scheimpflugbedingung ist bei einer solchen Anord nung auch dann erfüllt, wenn bei einem entfalteten Strahlengang ohne die jeweiligen Spiegel aber mit einer gleichwirkenden Anordnung des jeweiligen Objektivs, Sensors und Objektes die Objektivebene, die Sensorebene und die Objektebene sich in einer gemeinsamen Schnit tachse schneiden. With such a Scheimpflug camera, the parallelism arrangement is canceled by tilting the lens plane LP relative to the sensor plane, so that a large base is possible without the object area being restricted by the limited angle of incidence. In a Scheimpflug camera, the so-called Scheimpflug condition is met, according to which the lens plane, the sensor plane and the object plane intersect in a common cutting axis. A Scheimpflug angle β is spanned by the object plane OP and the sensor plane SP (FIG. 9). If the Scheimpflug condition is met, the object area is sharply mapped onto the sensor by the lens. In the literature, a cutting axis is sometimes described at an infinite distance from the stereo camera system. In this special case, the Scheimpflug condition would correspond to the parallelism arrangement. For the following consideration, however, the Scheimpflug condition is not met if these planes or axes intersect at infinity. They must therefore intersect at a finite point so that the Scheimpflug condition is fulfilled. One or more mirrors can be provided in the beam path, whereby the beam path is folded and the actual lens plane, the sensor plane and the object plane do not intersect in a common cutting axis. The Scheimpflug condition is also met with such an arrangement if the objective plane, the sensor plane and the object plane intersect in a common sectional axis with an unfolded beam path without the respective mirrors but with an identical arrangement of the respective objective, sensor and object.
Bei Stereokamerasystemen mit Scheimpflug-Bedingung hingegen kann ein breiterer Basis- Winkel gewählt werden als bei Stereokamerasystemen ohne Scheimpflug-Bedingung bei gleichbleibenden Objektiven und Bildqualität. Bei einer großen Basis kann durch die Schräg stellung der Objektive der Einfallswinkel verkleinert und damit optimiert werden. Somit sind auch Objektive mit einem kleinen Öffnungswinkel y geeignet. Bedingung ist durch den klei neren Öffnungswinkel die Bildqualität, insbesondere die MTF, über den Überlappungsbereich hinweg konstanter als bei Stereokamerasystemen ohne Scheimpflug-Bedingung. Eine lineare Verzeichnung entlang des Überlappungsbereiches hinweg wird in Kauf genommen, da dieser durch eine Rektifizierung korrigiert werden kann. Je größer die Basis gewählt wird, desto stärker müssen Sensorebene und Objektivebene bezogen auf die Objektebene verkippt wer den, um den Einfallswinkel zu verkleinern. Ein weiteres Problem bei Stereokamerasystemen ohne Scheimpflug-Bedingung ist die Rück- reflexion. Durch die parallele Anordnung bei einem schmalen Basis-Winkel bildet das Objek tiv nicht nur das Objekt auf dem Sensor, sondern auch den Sensor auf dem Objekt ab. Diese Abbildung des Objektivs kann durch Reflexion an einer sich spiegelnden Oberfläche des Ob jektes wieder zurück auf den Sensor abgebildet werden. Der Sensor nimmt somit sein eige nes Spiegelbild auf. Durch eine Verkippung, z.B. durch Scheimpflug, kann eine ein breiter Basis-Winkel gewählt werden, wodurch solche Rückreflexion vermieden wird. Auch wenn die Reflexion weiter bestehen bleibt, kann die Abbildung der Reflexion z.B. auch einen neutralen Hintergrund darstellen. Die Auswirkungen der Reflexion werden somit vermindert. With stereo camera systems with Scheimpflug condition, on the other hand, a wider base angle can be selected than with stereo camera systems without Scheimpflug condition with the same objectives and image quality. With a large base, tilting the lenses can reduce the angle of incidence and thus optimize it. Lenses with a small opening angle y are therefore also suitable. Due to the smaller opening angle, the condition is that the image quality, especially the MTF, is more constant over the overlap area than with stereo camera systems without Scheimpflug condition. A linear distortion along the overlap area is accepted as this can be corrected by rectification. The larger the base selected, the more the sensor plane and lens plane have to be tilted relative to the object plane in order to reduce the angle of incidence. Another problem with stereo camera systems without Scheimpflug condition is back reflection. Due to the parallel arrangement with a narrow base angle, the lens not only images the object on the sensor, but also the sensor on the object. This image of the lens can be imaged back onto the sensor by reflection on a reflective surface of the object. The sensor thus records its own mirror image. By tilting it, for example by Scheimpflug, a broad base angle can be selected, whereby such back reflection is avoided. Even if the reflection continues, the image of the reflection can also represent a neutral background, for example. The effects of reflection are thus reduced.
Weitere Messsysteme mit einer Stereokamera bei welchen die Scheimpflugbedingung erfüllt ist, gehen aus der WO 2014/017977 Al, der US 6,671,397 Bl und der WO 02/040 970 Al hervor. Further measuring systems with a stereo camera in which the Scheimpflug condition is fulfilled emerge from WO 2014/017977 A1, US Pat. No. 6,671,397 B1 and WO 02/040 970 A1.
Die WO 2014/017977 Al offenbart ein Verfahren und eine Vorrichtung zur Bestimmung der Koplanarität in integrierten Schaltungsgehäusen. Um Planarität zu bestimmen, werden zwei Sensoren mit jeweils zwei Strahlengängen derart angeordnet, dass sie dem Scheimpflug- Prinzip folgen. WO 2014/017977 A1 discloses a method and a device for determining the coplanarity in integrated circuit housings. To determine planarity, two sensors, each with two beam paths, are arranged in such a way that they follow the Scheimpflug principle.
In der WO 02/040 970 Al ist ein Messsystem mit einer Kamera mit einem Objektiv und ei nem separaten Sensor offenbart. Das Messsystem weist eine erste Kamera mit einem Objek tiv und einem separaten Sensor auf, die so montiert sind, dass sich ihre Ebenen nach dem Scheimpflug-Prinzip in einer Objektebene schneiden. Eine zweite Kamera ist senkrecht zur Objektebene angeordnet. Die Kamerasysteme sind Flächenkameras. WO 02/040 970 A1 discloses a measuring system with a camera with an objective and a separate sensor. The measuring system has a first camera with a lens and a separate sensor, which are mounted so that their planes intersect in an object plane according to the Scheimpflug principle. A second camera is arranged perpendicular to the object plane. The camera systems are area cameras.
Aus der WO 02/040 970 Al geht ein optisches Verfahren und ein Gerät zur Inspektion von großflächigen planaren Objekten hervor. Hierbei nehmen in einem Ausführungsbeispiel zwei Flächenkameras einen Wafer auf, die unter Scheimpflug-Bedingung angeordnet sind. From WO 02/040 970 A1 an optical method and a device for the inspection of large planar objects emerge. In one embodiment, two area cameras record a wafer, which are arranged under Scheimpflug condition.
Oben werden die Vorteile von Stereokamerasystemen mit Scheimpflug-Bedingung erläutert. Jedoch treten bei Stereokamerasystemen mit Scheimpflug-Bedingung Effekte auf, die bei der Verwendung von Flächensensoren die Qualität der Stereoskopie negativ beeinflussen. Dies geht auf den sogenannten Keystone-Effekt zurück, der die Verzerrung der projizierten Sen sorfläche beschreibt. Mit einem Flächensensor wird vom Objektbereich ein zweidimensionales Bild aufgenommen. Bei herkömmlichen Stereokamerasystemen ist eine Kante des Flächensensors parallel zur Basis angeordnet. Somit erstrecken sich auch die Flauptachsen des aufgenommenen zweidi mensionalen Bildes entweder parallel zur Basis und quer zur Basis. Die Richtung parallel zur Basis wird im Folgenden als Basisrichtung und die Richtung quer zur Basis wird im Folgenden als Querrichtung bezeichnet. The advantages of stereo camera systems with Scheimpflug condition are explained above. However, with stereo camera systems with Scheimpflug condition, effects occur which negatively influence the quality of the stereoscopy when using area sensors. This is due to the so-called keystone effect, which describes the distortion of the projected sensor surface. A two-dimensional image of the object area is recorded with an area sensor. In conventional stereo camera systems, one edge of the area sensor is arranged parallel to the base. The main axes of the recorded two-dimensional image thus also extend either parallel to the base and transversely to the base. The direction parallel to the base is hereinafter referred to as the base direction and the direction transverse to the base is hereinafter referred to as the transverse direction.
Bei der Abbildung des Objektbereichs durch ein Stereokamerasystemen findet eine Stau chung der Abbildung sowohl in Querrichtung als auch in Basisrichtung statt. Diese Stauchung wird dadurch verursacht, dass die einzelnen Punkte eines ebenflächigen Objektes unter schiedlich weit von der Sensorfläche beabstandet sind. Je weiter zwei Punkte von der Sen sorfläche entfernt sind, desto kleiner wird der Abstand der Punkte abgebildet. Die Stauchung wird stärker je größer die Basis ist. In Querrichtung tritt eine Querstauchung und in Basis richtung eine Basisstauchung auf. When the object area is imaged by a stereo camera system, the image is compressed both in the transverse direction and in the base direction. This compression is caused by the fact that the individual points of a flat object are spaced differently from the sensor surface. The further two points are away from the sensor surface, the smaller the distance between the points is shown. The compression becomes stronger the larger the base is. A transverse compression occurs in the transverse direction and a base compression occurs in the base direction.
Zum Beispiel wird ein quadratischer Objektbereich bei möglichst kleiner Basis und zentraler Anordnung der Kamerasysteme nahezu verzerrungsfrei abgebildet. Bei einer großen Basis bildet die Abbildung des Quadrates jedoch die Form eines Trapezes oder Schlüsselsteins (engl. Keystone). Der Abstand der weiter entfernt liegenden Ecken zueinander wird kleiner abgebildet als der Abstand der näher zum Objektiv liegenden Ecken zueinander. For example, a square object area with the smallest possible base and a central arrangement of the camera systems is mapped almost distortion-free. With a large base, however, the image of the square forms the shape of a trapezoid or keystone. The distance between the corners that are further away from one another is shown smaller than the distance between the corners that are closer to the objective.
Der Effekt tritt bei Stereokamerasystemen sowohl mit als auch ohne Scheimpflug-Bedingung auf. Bei denen ohne Scheimpflug-Bedingung ist durch die Beschränktheit der Basis dieser Effekt ebenfalls beschränkt. Da Stereokamerasysteme mit Scheimpflug-Bedingung eine be sonders große Basis aufweisen können, tritt hier der Effekt besonders stark hervor. The effect occurs with stereo camera systems both with and without Scheimpflug condition. In the case of those without Scheimpflug condition, this effect is also limited by the limitation of the basis. Since stereo camera systems with Scheimpflug condition can have a particularly large base, the effect is particularly pronounced here.
Der Keystone-Effekt sorgt für einen Verlust von Auflösungsvermögen. Das Auflösungsvermö gen ist der minimale Abstand, den zwei punktförmige Objekte haben müssen, damit sie als getrennte Objekte wahrgenommen werden können. Durch die Stauchung werden zwei Punk te, die weiter von der Sensorfläche entfernt sind, näher beieinander abgebildet. Diese Punkte können ab einer bestimmten Entfernung zum Objektiv nicht mehr als getrennt wahrgenom men werden. Das Auflösungsvermögen parallel zur Basis wird im Folgenden als Basis- Auflösungsvermögen und das Auflösungsvermögen quer zur Basis wird im Folgenden als Quer-Auflösungsvermögen bezeichnet. Des Weiteren erhöht der Keystone-Effekt den Rechenaufwand. Um die Abbildungen für eine Auswertung der dreidimensionalen Oberflächentopologie zu nutzen, müssen sowohl die Ba sis- als auch die Querstauchung durch Rektifizierung aus den Bilddaten heraus berechnet werden. Die Rektifizierung ist ein Verfahren zur Eliminierung von geometrischen Verzerrun gen in Bilddaten, die zum Beispiel durch zentral perspektivische Aufnahmen entstehen kön nen. Durch die Rektifizierung werden die einzelnen Bildpunkte derart verschoben, dass bei einer Überlagerung der Bildpunkte der beiden Sensoren die gleiche Position am Objekt dar gestellt wird. Des Weiteren wird die Verzeichnung korrigiert, damit die berechnete Disparität linear abhängig zum Höhenprofil des Objektes ist. The keystone effect causes a loss of resolution. The resolving power is the minimum distance that two point objects must have so that they can be perceived as separate objects. As a result of the compression, two points that are further away from the sensor surface are mapped closer together. From a certain distance from the lens, these points can no longer be perceived as separate. The resolving power parallel to the base is hereinafter referred to as the basic resolving power and the resolving power across the base is hereinafter referred to as the transverse resolving power. Furthermore, the keystone effect increases the computational effort. In order to use the images for an evaluation of the three-dimensional surface topology, both the base and the transverse compression must be calculated from the image data by rectification. Rectification is a process for eliminating geometric distortions in image data that can arise, for example, from central perspective recordings. As a result of the rectification, the individual pixels are shifted in such a way that when the pixels of the two sensors overlap, the same position on the object is displayed. Furthermore, the distortion is corrected so that the calculated disparity is linearly dependent on the height profile of the object.
Bei der Stereoskopie wird jedem Punkt einer Abbildung eines Kameramoduls ein Punkt einer Abbildung des zweiten Kameramoduls zugeordnet. Ein rechteckiger Sensor erfasst bei einer Schrägstellung des Sensors gegenüber dem Objekt aufgrund des Keystone-Effekts ein Tra pez TI der Objektfläche (Fig. 10). Der andere Flächensensor erfasst ein zweites Trapez T2 der Objektfläche. Bei der Zuordnung der Punkte überlappen sich diese Trapeze, wobei je weils die lange Stirnseite mit der kurzen Stirnseite des anderen Trapezes zusammenfällt. Hierdurch ergibt sich ein sechseckförmiger Überlappungsbereich (schraffiert in Fig. 10). In stereoscopy, each point of an image of a camera module is assigned a point of an image of the second camera module. A rectangular sensor detects a trapezoid TI of the object surface when the sensor is inclined relative to the object due to the keystone effect (FIG. 10). The other area sensor detects a second trapezoid T2 of the object area. When assigning the points, these trapezoids overlap, the long front side coinciding with the short front side of the other trapezoid. This results in a hexagonal overlap area (hatched in FIG. 10).
Hierbei ist nachteilig, dass ein Teil der erfassten Information aus den nicht überlappenden Bereichen verloren geht. Nur der Überlappungsbereich kann zur Auswertung der dreidimen sionalen Oberflächentopologie genutzt werden. The disadvantage here is that part of the information recorded is lost from the non-overlapping areas. Only the overlap area can be used to evaluate the three-dimensional surface topology.
Des Weiteren muss der Öffnungswinkel des Objektivs so groß sein, dass der Überlappungs bereich vollständig erfasst wird. Dies ist gegeben, wenn eine Diagonale D des sechseckför migen Überlappungsbereichs vom Objektiv erfasst wird. Furthermore, the opening angle of the lens must be large enough that the overlap area is completely covered. This is the case when a diagonal D of the hexagonal overlap area is captured by the lens.
Aus der DE 10 2015 11 11 20 Al geht ein Verfahren zum Abtasten von Oberflächen mit einer Stereokamera mit zumindest zwei Kameramodulen hervor. Die Kameramodule sind derart angeordnet, dass sie von einem gemeinsamen Bereich einer abzutastenden Oberfläche je weils ein Bild erfassen. Die Kameramodule können eine Zeilenkamera mit mehreren unter schiedlichen Sensorzeilen aufweisen. Mit einer jeden Sensorzeile wird ein separates Zeilen bild erfasst. Die einzelnen Zeilenbilder werden mittels einer geometrischen Abbildung überla gert. Stereokamerasysteme mit Zeilensensoren und Parallelitäts-Anordnung weisen die gleiche Problematik auf wie Stereokamerasysteme mit Flächensensoren und Parallelitäts-Anordnung. Wie oben beschrieben, kann die Basis nicht beliebig groß gewählt werden, da bei einer zu großen Basis sich die durch den Einfallswinkel begrenzten Abschnitte im Objektbereich nur noch geringfügig oder gar nicht überlappen und somit der scharf abbildbare Abschnitt des Objektbereichs klein oder gar nicht mehr vorhanden ist. DE 10 2015 11 11 20 A1 discloses a method for scanning surfaces with a stereo camera with at least two camera modules. The camera modules are arranged in such a way that they each capture an image of a common area of a surface to be scanned. The camera modules can have a line camera with several different sensor lines. A separate line image is recorded with each sensor line. The individual line images are superimposed by means of a geometric mapping. Stereo camera systems with line sensors and a parallelism arrangement have the same problems as stereo camera systems with area sensors and a parallelism arrangement. As described above, the base cannot be chosen to be arbitrarily large, since if the base is too large, the sections in the object area limited by the angle of incidence only overlap slightly or not at all and the sharply mapped section of the object area is therefore small or no longer present .
Prinzipiell sind Stereokamerasysteme denkbar, die weder die Scheimpflug-Bedingung noch die Parallelitäts-Anordnung erfüllen. So könnte nur die Objektebene OP und die Sensorebene SP parallel zueinander sein, während die Objektivebene LP derart zu den anderen beiden Ebenen verkippt ist, dass der Objektbereich nicht durch den limitieren Einfallswinkel be schränkt wird. Eine Abbildungsebene, welche der Ebene entspricht, auf der das Objektiv die Objektebenen scharf abbildet, ist schräg zur Objektebene oder Objektachse angeordnet. Nur im Schnittbereich der Abbildungsebene und der Sensorebene wird der Objektbereich scharf auf dem Kamerasensor abgebildet (Fig. 11). Je stärker die Verkippung der Objektivachse relativ zur Objektachse ist, umso schmaler ist ein Fokusbereich, in dem das Objekt scharf abgebildet wird. Je größer die Tiefenschärfe TS ist, umso breiter ist der Fokusbereich. Bei einem schmalen Fokusbereich stehen nur von einem geringen Ausschnitt des Objektes aus reichend Informationen für eine Auswertung der dreidimensionalen Oberflächentopologie zur Verfügung. In principle, stereo camera systems are conceivable that meet neither the Scheimpflug condition nor the parallelism arrangement. Thus, only the object plane OP and the sensor plane SP could be parallel to one another, while the objective plane LP is tilted to the other two planes in such a way that the object area is not restricted by the limited angle of incidence. An imaging plane, which corresponds to the plane on which the objective images the object planes in focus, is arranged at an angle to the object plane or the object axis. The object area is imaged sharply on the camera sensor only in the intersection area of the imaging plane and the sensor plane (FIG. 11). The greater the tilt of the objective axis relative to the object axis, the narrower is a focus area in which the object is sharply imaged. The greater the depth of field TS, the wider the focus area. With a narrow focus area, sufficient information is only available from a small section of the object for an evaluation of the three-dimensional surface topology.
Für eine Abbildung der dreidimensionalen Oberflächentopologie ist eine scharfe Abbildung jedoch sehr wichtig. Ebenso ist es erstrebenswert, die vollständige Fläche eines Sensors zu nutzen. However, a sharp image is very important for an image of the three-dimensional surface topology. It is also desirable to use the entire surface of a sensor.
Im Folgenden sind mit Stereokamerasystemen ohne Scheimpflug-Bedingung Stereokame rasysteme gemeint, die die Parallelitäts-Anordnung aufweisen. In the following, stereo camera systems without Scheimpflug condition mean stereo camera systems which have the parallelism arrangement.
Aus„Zeilenkameras zur Inspektion der Dichtflächen einer O-Ring-Nut", Photonik 5/2012 ist ein System bekannt, bei dem drei Zeilenkameras parallel betrieben werden, um jeweils eine Seite einer Nut abzubilden. Die Seitenwände der Nut werden durch Zeilenkameras mit Sche impflug-Bedingung abgebildet. Aus der US 7,724,362 Bl geht ein System zur Makro-Wafer-Inspektion mit schrägem Einfall hervor. Die Wafer werden hierbei von einer Zeilenkamera erfasst, die schräg auf den Wafer gerichtet ist, wobei der Strahlengang die Scheimpflug-Bedingung erfüllt. A system is known from "Line cameras for inspecting the sealing surfaces of an O-ring groove", Photonik 5/2012, in which three line cameras are operated in parallel in order to image one side of a groove each. The side walls of the groove are plowed by line cameras with shear -Condition shown. From US Pat. No. 7,724,362 B1, a system for macro wafer inspection with an oblique incidence emerges. The wafers are captured by a line camera that is directed at an angle to the wafer, the beam path fulfilling the Scheimpflug condition.
Aus der DE 10 2013 103 897 Al geht ein Kameramodul zum zeilenweisen Abtasten eines Objekts hervor. Das Kameramodul umfasst ein zellenförmigen Sensor und ein Objektiv zum Abbilden des Objekts auf den Sensor. Das Kameramodul weist mehrere Zeilensensoren auf. Die Zeilensensoren sind mit unterschiedlichem Abstand zum Objektiv angeordnet, wodurch Bildlinien mit unterschiedlichem Abstand zum Objektiv auf die jeweiligen Zeilensensoren ab gebildet werden. DE 10 2013 103 897 A1 discloses a camera module for scanning an object line by line. The camera module comprises a cellular sensor and a lens for imaging the object on the sensor. The camera module has several line sensors. The line sensors are arranged at different distances from the lens, whereby image lines with different distances from the lens are formed on the respective line sensors.
Der Erfindung liegt die Aufgabe zugrunde, ein Stereokamerasystem zu schaffen, mit wel chem auf einfache Art und Weise eine gute räumliche Auflösung über einen großen Abtast bereich bewirkt wird. The invention is based on the object of creating a stereo camera system with which a good spatial resolution is effected over a large scanning area in a simple manner.
Eine weitere Aufgabe der Erfindung liegt darin, ein Stereokamerasystem zu schaffen, wel ches eine zuverlässige Abtastung von räumlichen Gegenständen erlaubt. Another object of the invention is to create a stereo camera system which allows reliable scanning of spatial objects.
Eine weitere Aufgabe der Erfindung liegt in der Schaffung eines Stereokamerasystems, mit welchem auf einfache Art und Weise ein großer Bildbereich erfasst werden kann. Another object of the invention is to create a stereo camera system with which a large image area can be captured in a simple manner.
Eine zusätzliche Aufgabe der Erfindung liegt darin, ein Stereokamerasystem zu schaffen, das kompakt gebaut ist. An additional object of the invention is to provide a stereo camera system that is compact.
Eine weitere Aufgabe der Erfindung liegt darin, ein Stereokamerasystem zu schaffen, das verschiedene Gegenstandsebenen gut abbildet. Another object of the invention is to create a stereo camera system that images various object planes well.
Eine oder mehrere Aufgaben werden durch die Gegenstände der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen und bevorzugte Ausführungsformen bilden den Gegen stand der Unteransprüche. One or more objects are achieved by the subjects of the independent claims. Advantageous developments and preferred embodiments form the subject matter of the subclaims.
Ein erfindungsgemäßes Stereokamerasystem zur Messung von dreidimensionalen Oberflä chentopologien eines Objektes weist zumindest zwei zellenförmige Sensorbereiche und zu mindest ein Objektiv zum Abbilden eines Objektes auf die Sensorbereiche auf. Das Objektiv ist derart angeordnet, dass ein Objektbereich auf zwei unabhängige Strahlengänge jeweils auf einem Sensorbereich abgebildet wird. Das Stereokamerasystem zeichnet sich dadurch aus, dass entlang zumindest einem der Strahlengänge die Scheimpflug-Bedingung erfüllt ist. A stereo camera system according to the invention for measuring three-dimensional surface topologies of an object has at least two cell-shaped sensor areas and at least one lens for imaging an object onto the sensor areas. The objective is arranged in such a way that an object area is located on two independent beam paths is mapped onto a sensor area. The stereo camera system is characterized in that the Scheimpflug condition is fulfilled along at least one of the beam paths.
Wie bereits erläutert, kann ein Stereokamerasystem mit Berücksichtigung der Scheimpflug- Bedingung eine größere Basis aufweisen als bei einem Stereokamerasystem mit Parallelitäts- Anordnung ohne dass die Abbildungen durch das Objektiv verzeichnet werden. Durch die größere Basis wird die Auflösung der dreidimensionalen Oberflächentopologie größer. As already explained, a stereo camera system, taking into account the Scheimpflug condition, can have a larger base than a stereo camera system with a parallel arrangement without the images being recorded by the lens. The larger base increases the resolution of the three-dimensional surface topology.
Ein solches Stereokamerasystem kann dazu eingesetzt werden, um einen Objektbereich quer zur Zeilenrichtung zeilenweise abzutasten, wobei das Stereokamerasystem relativ zum Ob jekt bewegt wird. Die Richtung parallel zu den Zeilensensoren wird als Zeilenrichtung und die Richtung quer zu den Zeilensensoren als Scanrichtung bezeichnet. Der Abstand zweier Punk te, die in Scanrichtung zueinander liegen, wird unabhängig des Keystone-Effekts und der Position entlang der Zeilenrichtung mit dem gleichen Auflösungsvermögen aufgenommen. Die Abbildung wird dadurch entlang der Scanrichtung nicht gestaucht. Dies erhöht das Auflö sungsvermögen entlang der Scanrichtung. Such a stereo camera system can be used to scan an object area line by line transversely to the line direction, the stereo camera system being moved relative to the object. The direction parallel to the line sensors is referred to as the line direction and the direction transverse to the line sensors is referred to as the scanning direction. The distance between two points that lie in the scanning direction is recorded with the same resolution regardless of the keystone effect and the position along the line direction. The image is not compressed along the scanning direction. This increases the resolution along the scanning direction.
Ebenfalls wird eine Trapezbildung unterbunden. Beide Zeilensensoren können mit der ge samten Sensorzeile den gleichen Bereich umfassen. Es gehen somit keine Informationen verloren. Der Überlappungsbereich von Zeilensensoren wird im Folgenden Überlappungszeile genannt. Trapezoidal formation is also prevented. Both line sensors can cover the same area with the entire sensor line. No information is lost. The overlap area of line sensors is called the overlap line in the following.
Bei einem Zeilensensor muss der Öffnungswinkel der Objektive lediglich die Überlappungs zeile umfassen. Die Überlappungszeile ist bei gleicher Sensorlänge kleiner als die Diagonale des Überlappungsbereichs zweier Flächensensoren, der, wie oben beschrieben, eine sechs eckige Form bildet. Dadurch ist der benötigte Öffnungswinkel bei einem Stereokamerasystem mit Scheimpflug-Bedingung und Flächensensoren größer als bei einem Stereokamerasystem mit Scheimpflug-Bedingung und Zeilensensoren. Bei einem Stereokamerasystem mit Schei mpflug-Bedingung und Zeilensensoren kommt es dadurch zu einer geringeren Verzeichnung als bei einem Stereokamerasystem mit Scheimpflug-Bedingung und Flächensensoren. In the case of a line sensor, the opening angle of the lenses only needs to encompass the overlapping line. With the same sensor length, the overlap line is smaller than the diagonal of the overlap area of two area sensors, which, as described above, forms a hexagonal shape. As a result, the opening angle required for a stereo camera system with Scheimpflug condition and area sensors is greater than with a stereo camera system with Scheimpflug condition and line sensors. In the case of a stereo camera system with Schei mpflug condition and line sensors, this results in less distortion than with a stereo camera system with Scheimpflug condition and area sensors.
Durch die Reduzierung der Stauchung verringert sich auch die benötigte Rektifizierung. Dies reduziert den Rechenaufwand und die Bilddaten stehen somit schneller zur Verfügung. Zusammenfassend kann festgehalten werden, dass durch die Verwendung von Stereokame rasystemen mit Scheimpflug-Bedingung die Basis groß gewählt werden kann, ohne dass hierdurch Verzeichnungen wie bei Stereokamerasystemen ohne Scheimpflug-Bedingungen auftreten. Eine große Basis erlaubt eine präzise Höhenauflösung. Die Scheimpflug-Bedingung erlaubt bei guter Bildqualität kleine Öffnungswinkel der Objektive. Die Scheimpflug- Bedingung sorgt jedoch bei Flächensensoren durch den Keystone-Effekt für unerwünschte Verzerrungen in beide Richtungen. Bei Verwendung von Zeilensensoren treten die Verzer rungen nur in einer Richtung auf, wodurch die Qualität des Bildes höher ist. Außerdem ist der benötigte Öffnungswinkel der Objektive bei Zeilensensoren geringer als bei Flächen sensoren, da die projizierte Breite des Zeilensensors kleiner ist, als die projizierte Diagonale der Flächensensoren. Zudem können im Gegensatz zu Flächensensoren alle Bildpunkte des Sensors genutzt werden. By reducing the compression, the required rectification is also reduced. This reduces the computational effort and the image data is thus available more quickly. In summary, it can be stated that by using stereo camera systems with Scheimpflug conditions, the base can be selected to be large, without distortions occurring as a result of stereo camera systems without Scheimpflug conditions. A large base allows precise height resolution. The Scheimpflug condition allows small opening angles of the lenses with good image quality. However, the Scheimpflug condition causes unwanted distortions in both directions in area sensors due to the keystone effect. When using line sensors, the distortion only occurs in one direction, which means that the quality of the image is higher. In addition, the required opening angle of the lenses is smaller for line sensors than for area sensors, since the projected width of the line sensor is smaller than the projected diagonal of the area sensors. In addition, in contrast to area sensors, all image points of the sensor can be used.
Daher kann mit einem Stereokamerasystem, das der Scheimpflug-Bedingung genügt und Zeilensensoren aufweist, mit vergleichsweise einfachen Mitteln Abbildungen erzeugt werden, die eine hohe Höhenauflösung ermöglichen. Therefore, with a stereo camera system that satisfies the Scheimpflug condition and has line sensors, images can be generated with comparatively simple means that enable a high height resolution.
Vorzugsweise ist entlang aller Strahlengänge die Scheimpflug-Bedingung erfüllt. Grundsätz lich können die Strahlengänge unterschiedliche Anordnungen der Sensorbereiche und Objek tive aufweisen. Dadurch, dass alle Strahlengänge die Scheimpflug-Bedingung erfüllen, kann eine größere Basis als bei Stereokamerasystemen, in der nur ein Strahlengang die Schei mpflug-Bedingung erfüllt, gewählt werden. The Scheimpflug condition is preferably fulfilled along all beam paths. In principle, the beam paths can have different arrangements of the sensor areas and lenses. Because all beam paths meet the Scheimpflug condition, a larger base can be selected than with stereo camera systems in which only one beam path fulfills the Schei mpflug condition.
Vorzugsweise sind die Strahlengänge spiegelsymmetrisch angeordnet. Durch die spiegel symmetrische Anordnung wird eine Justierung des Kamerasystems vereinfacht. Asymmetrien fallen bei der Justage leicht auf und können korrigiert werden. Auch die Auswertung der Bilddaten ist dadurch vereinfacht, da jeder Sensor gleichweit vom Objektbereich entfernt ist. Somit sind auch die aufgenommenen Bildpunkte gleichweit versetzt. The beam paths are preferably arranged mirror-symmetrically. Adjustment of the camera system is simplified by the mirror-symmetrical arrangement. Asymmetries are easily noticed during the adjustment and can be corrected. The evaluation of the image data is also simplified because each sensor is equidistant from the object area. The recorded pixels are thus also offset by the same distance.
Vorzugsweise werden ein oder mehrere der Strahlengänge mit zumindest einem Spiegel ge lenkt. Dadurch können die Strahlengänge durch Spiegel gefaltet werden. Das Bild des Mess objektes wird ein- oder mehrfach von Spiegeln reflektiert, wodurch die Länge des Strahlen ganges erhalten bleibt. Jedoch ist das Volumen, das von der Anordnung der optischen Linsen eingenommen wird, zum Teil erheblich reduziert. Insbesondere kann eine große Basis des Stereokamerasystems gewählt werden und dennoch bleiben die beiden Sensorhälften dicht beieinander. Dadurch sind kompaktere Bauformen möglich als bei Aufbauten ohne Strahl gangfaltung. One or more of the beam paths are preferably steered with at least one mirror. This allows the beam paths to be folded by mirrors. The image of the measuring object is reflected once or several times by mirrors, which means that the length of the beam path is retained. However, the volume that is taken up by the arrangement of the optical lenses is in some cases considerably reduced. In particular, a large base for the stereo camera system can be selected and the two sensor halves still remain sealed together. This means that more compact designs are possible than with structures without a beam path folding.
Bei einer Faltung des Strahlenganges kann unterschieden werden zwischen einer objektseiti gen Faltung, bei der die Spiegel, die den Strahlengang falten, zwischen Objektiv und Objekt angeordnet sind, einer sensorseitigen Faltung, bei der die Spiegel, die den Strahlengang fal ten, zwischen Objektiv und Sensor angeordnet sind, und einer beidseitigen Faltung, bei der die Spiegel, die den Strahlengang falten, sowohl zwischen Objektiv und Objekt als auch zwi schen Objektiv und Sensor angeordnet sind. Bei der objektseitigen Faltung kann der Arbeits abstand, der Abstand zwischen Objektiv und Objekt, reduziert werden. When folding the beam path, a distinction can be made between an object-side folding in which the mirrors that fold the beam path are arranged between the lens and the object, and a sensor-side folding in which the mirrors that fold the beam path between the lens and the sensor are arranged, and a double-sided folding in which the mirrors that fold the beam path, are arranged both between lens and object and between lens and sensor's rule. With object-side folding, the working distance, the distance between the lens and the object, can be reduced.
Die Strahlengänge werden vorzugsweise auf jeweils einen separaten Teil eines einzigen Sen sors projiziert. Diese Teile bilden jeweils einen Sensorbereich einer der zumindest zwei Ka- meramodule. Der Sensor kann in mehrere Sensorbereiche unterteilt sein, denen jeweils ein Strahlengang zugeordnet ist. Beispielsweise ist bei Stereokamerasystem mit zwei Strahlen gängen der Sensor in zwei Bereiche unterteilt. Weist das Stereokamerasystem drei Strahlen gänge auf, so ist der Sensor dreigeteilt. Dies erhöht auch die Systemstabilität. Zusätzlich ermöglicht es eine kompakte Bauweise mit einfacher Justage. The beam paths are preferably projected onto a separate part of a single sensor. These parts each form a sensor area of one of the at least two camera modules. The sensor can be divided into several sensor areas, each of which is assigned a beam path. For example, in a stereo camera system with two beam paths, the sensor is divided into two areas. If the stereo camera system has three beam paths, the sensor is divided into three parts. This also increases the system stability. In addition, it enables a compact design with simple adjustment.
Alternativ kann die Kamera derart ausgebildet sein, dass die Strahlengänge auf jeweils einen separaten Sensors projiziert werden und dass ein Spiegel je Strahlengang vorgesehen ist und der Strahlengang in Scheimpflug-Anordnung konfiguriert ist. Diese Bauweise ermöglicht eine kompakte Form mit größerer Sensorfläche als bei einem einzelnen Sensor. Dadurch wird die Auflösung erhöht. Alternatively, the camera can be designed in such a way that the beam paths are each projected onto a separate sensor and that a mirror is provided for each beam path and the beam path is configured in a Scheimpflug arrangement. This design enables a compact form with a larger sensor area than with a single sensor. This increases the resolution.
Eine weitere Alternative zeichnet sich dadurch aus, dass die Strahlengänge auf jeweils einen separaten Sensor projiziert werden und dass zwei Spiegel je Strahlengang vorgesehen sind und der Strahlengang in Scheimpflug-Anordnung konfiguriert ist. Diese Bauweise ermöglicht eine kompakte Form. Another alternative is characterized in that the beam paths are each projected onto a separate sensor and that two mirrors are provided for each beam path and the beam path is configured in a Scheimpflug arrangement. This construction enables a compact shape.
Vorzugsweise sind die zellenförmigen Sensorbereiche nebeneinander auf einer Linie ange ordnet, die jeweils durch einen Zeilensensor dargestellt werden. Durch diese Linienanord nung kann die Justage vereinfacht werden, da die zellenförmigen Sensorbereiche auf einem gemeinsamen Träger befestigt werden können. Zum Beispiel bei einer Verkippung des Trä gers müssen die Sensorbereiche nicht neu zueinander ausgerichtet werden. Bei stereoskopischen Verfahren ist es zweckmäßig, wenn der Versatz nur in eine Richtung erfolgt. Das bedeutet, dass die Sensoren parallel oder senkrecht zu einer Sensorachse ange ordnet sind. Dies wird durch die Linienanordnung unterstützt. The cell-shaped sensor areas are preferably arranged next to one another on a line, each of which is represented by a line sensor. Adjustment can be simplified by this line arrangement, since the cell-shaped sensor areas can be attached to a common carrier. For example, if the carrier tilts, the sensor areas do not have to be realigned to one another. In the case of stereoscopic methods, it is useful if the offset takes place in only one direction. This means that the sensors are arranged parallel or perpendicular to a sensor axis. This is supported by the line arrangement.
Gemäß einer weiteren Abwandlung können die zellenförmigen Sensorbereiche parallel ne beneinander angeordnet sein. Auch hier ist der Versatz der beiden Strahlengänge nur in eine Richtung erfolgt. According to a further modification, the cell-shaped sensor areas can be arranged parallel to one another. Here, too, the two beam paths are only offset in one direction.
Es ist möglich, dass die zellenförmigen Sensorbereiche Bildpunkt-Zeilen eines Flächensensors sind. Ein bestehendes Stereozeilenkamerasystem kann so einfach nachgerüstet werden. It is possible for the cell-shaped sensor areas to be lines of pixels of an area sensor. An existing stereo line camera system can be easily retrofitted.
Für alle Strahlengänge kann ein gemeinsames Objektiv vorgesehen sein. Dadurch können besonders kompakte Stereozeilenkamerasysteme realisiert werden. Durch die Verringerung der Objektivanzahl können auch die Kosten gering gehalten werden. A common objective can be provided for all beam paths. In this way, particularly compact stereo line camera systems can be implemented. By reducing the number of lenses, costs can also be kept low.
Die Strahlengänge können unterschiedliche Abstände zwischen der Objektebene und der Sensorebene aufweisen. Hierbei kann es zweckmäßig sein, den optischen Weg aufgrund der unterschiedlichen Abstände mittels eines oder mehrerer Glaselemente, welches/welche in den jeweiligen kürzeren Strahlengängen angeordnet ist/sind, auszugleichen. The beam paths can have different distances between the object plane and the sensor plane. In this case, it can be expedient to compensate for the optical path due to the different distances by means of one or more glass elements which is / are arranged in the respective shorter beam paths.
Durch das Glaselement wird die Geschwindigkeit des Lichtes innerhalb des Glaselements abgebremst. Das Licht benötigt dadurch eine längere Zeit zum Sensor. Dies hat dadurch den gleichen Effekt wie eine optische Wegverlängerung. Unterschiedliche Abstände können somit ausgeglichen werden. The speed of the light inside the glass element is slowed down by the glass element. This means that the light needs a longer time to reach the sensor. This has the same effect as an optical path extension. Different distances can thus be compensated.
Nach einem weiteren erfindungsgemäßen Aspekt, umfasst ein Stereozeilenkamerasystem zur Messung von dreidimensionalen Oberflächentopologien zumindest einen Farbsensor, wobei der Farbsensor mehrere Bildpunkte aufweist, die auf unterschiedliche Farben empfindlich sind, und zumindest ein hyperchromatisches Objektiv zum Abbilden des Objektes auf den Sensor vorgesehen ist. Der Farbsensor ist zum Objektiv derart angeordnet, dass unterschied liche Fokusebenen jeweils auf die Bildpunkte der gleichen Farbe abgebildet werden. According to a further aspect of the invention, a stereo line camera system for measuring three-dimensional surface topologies comprises at least one color sensor, the color sensor having several pixels that are sensitive to different colors, and at least one hyperchromatic lens is provided for imaging the object on the sensor. The color sensor is arranged in relation to the lens in such a way that different focal planes are mapped onto the image points of the same color.
Bei hyperchromatischen Objektiven ist der Fokus wellenlängenabhängig. Jede Farb-Zeile des Sensors ist somit einer anderen Fokusebene zugeordnet. Dies kann zur Messung von dreidimensionalen Oberflächentopologien genutzt werden. Jede unterschiedliche Höhe des Objektbereichs weist eine andere Fokusebene auf. Dadurch wird jede der Höhen in einem bestimmten Farbbereich scharf auf dem Sensor abgebildet. Die Auflösung der Höhe entspricht hierbei die der Farbauflösung. Dieses Verfahren wird im Fol genden hyperchromatische Tiefenbestimmung genannt. Sie ist besonders geeignet, kleine Höhenunterschiede wahrzunehmen. With hyperchromatic objectives, the focus depends on the wavelength. Each color line of the sensor is thus assigned to a different focal plane. This can be used to measure three-dimensional surface topologies. Each different height of the object area has a different focal plane. This means that each of the heights is sharply mapped on the sensor in a specific color range. The resolution of the height corresponds to that of the color resolution. This procedure is referred to below as hyperchromatic depth determination. It is particularly suitable for perceiving small differences in height.
Vorzugsweise wird die hyperchromatische Tiefenbestimmung zusammen mit dem stereosko pischen Verfahren mit der Scheimpflug-Bedingung angewandt. Mit der hyperchromatischen Tiefenbestimmung werden feine Höhenunterschiede erfasst, wohingegen mit dem stereo skopischen Verfahren über einen größeren Bereich Höhenunterschiede detektiert werden. The hyperchromatic depth determination is preferably used together with the stereoscopic method with the Scheimpflug condition. With the hyperchromatic depth determination, fine height differences are recorded, whereas with the stereoscopic method height differences are detected over a larger area.
Vorzugsweise werden die Farb-Zeilen in Bezug zum Objektiv verkippt. Die Verkippung erfolgt um eine Achse, die parallel zu den einzelnen Farb-Zeilen ist. Entlang einer Zeile bleibt die Scheimpflug-Bedingung erhalten. Durch diese Verkippung ändert sich der Abstand einer Farb-Zeile zum Objektiv, wodurch sich auch die Fokusebene verschiebt. Effektiv kann dadurch der maximale Höhenunterschied, der durch die hyperchromatische Tiefenbestim mung messbar ist, variiert werden. The color lines are preferably tilted in relation to the lens. The tilting takes place around an axis that is parallel to the individual color lines. The Scheimpflug condition is retained along a line. This tilting changes the distance between a color line and the lens, which also shifts the focal plane. In this way, the maximum difference in height that can be measured by the hyperchromatic depth determination can be varied effectively.
Vorzugsweise werden die Farbkanäle des Farbsensors separat ausgewertet. Dadurch können die unterschiedlichen Fokusebenen separat berechnet werden. The color channels of the color sensor are preferably evaluated separately. This allows the different focus levels to be calculated separately.
Nach einem weiteren erfindungsgemäßen Aspekt, umfasst eine Stereozeilenkamera zur Mes sung von dreidimensionalen Oberflächentopologien zumindest zwei Flächensensoren, wobei die Flächensensoren derart ausgebildet sind, dass sie mehrere parallele nebeneinander an geordnete Bildpunkt-Zeilen aufweisen, und zumindest zwei Objektive zum Abbilden des Ob jektes auf jeweils einem der Flächensensoren. Die Stereozeilenkamera zeichnet sich dadurch aus, dass ein Objektbereich mit zwei unabhängigen Strahlengängen jeweils gleichzeitig auf einem der Sensoren abgebildet wird, so dass ein zellenförmiger Objektbereich auf die Bild punktzeilen eines Flächensensors abgebildet wird, wobei in der Zeilen-Ebene der Strahlen gänge, die den zellenförmigen Objektbereich schneidet, die Scheimpflug-Bedingung erfüllt ist, und dass der Flächensensor um eine Achse derart gekippt ist, dass die Fläche nicht paral lel zu einem abzutastenden Objektbereich ist, so dass die einzelnen Zeilen des Flächen sensors unterschiedliche Ebenen des zellenförmigen Objektbereiches abbilden. Durch die Verkippung weist jede Bildpunkt-Zeile einen anderen Abstand zum Objektiv auf. Entlang einer Zeile bleibt die Scheimpflug-Bedingung erhalten. Jede Zeile weist somit eine eigene Fokusebene auf. Jede unterschiedliche Höhe des Objektbereichs wird somit auf einer anderen Bildpunkt-Zeile scharf abgebildet. Die Auflösung der Höhe entspricht hierbei der Zeilenauflösung. Dieses Verfahren wird im Folgenden inklinationeile Tiefenbestimmung ge nannt (lat. : inclinatio = Neigung). According to a further aspect of the invention, a stereo line camera for measuring three-dimensional surface topologies comprises at least two area sensors, the area sensors being designed in such a way that they have several parallel rows of pixels arranged next to one another, and at least two lenses for imaging the object on one each of the area sensors. The stereo line camera is characterized by the fact that an object area with two independent beam paths is imaged simultaneously on one of the sensors, so that a cell-shaped object area is imaged on the image point lines of an area sensor, with the beam paths in the line plane that the cell-shaped Object area intersects, the Scheimpflug condition is met, and that the area sensor is tilted around an axis in such a way that the area is not parallel to an object area to be scanned, so that the individual lines of the area sensor map different levels of the cell-shaped object area. As a result of the tilting, each line of image points has a different distance from the lens. The Scheimpflug condition is retained along a line. Each line thus has its own focus level. Each different height of the object area is thus sharply imaged on a different pixel line. The resolution of the height corresponds to the line resolution. This method is called inclination-part depth determination in the following (Latin: inclinatio = inclination).
Der maximale Höhenunterschied, der durch die inklinationeile Tiefenbestimmung messbar ist, kann durch eine Änderung der Verkippung variiert werden. The maximum difference in height, which can be measured by determining the inclination, can be varied by changing the tilt.
Die Auflösung der Höhe kann bei der Kombination von der inklinationeilen Tiefenbestimmung mit dem stereoskopischen Verfahren mit Scheimpflug Bedingung verbessert werden. Die Höhe wird nun mit zwei unterschiedlichen Methoden erfasst, wodurch eine Messabweichung reduziert wird. The resolution of the altitude can be improved by combining the inclination-based depth determination with the stereoscopic method with Scheimpflug condition. The height is now recorded using two different methods, which reduces a measurement error.
Vorzugsweise sind die Sensoren Farbsensoren und das Objektiv ein hyperchromatisches Ob jektiv. Dadurch können die einzelnen Fokusebenen, die durch die Verkippung des Flächen sensors entstehen, nochmals unterteilt werden, wodurch eine feinere Auflösung der Fokus ebenen entsteht. The sensors are preferably color sensors and the lens is a hyperchromatic lens. As a result, the individual focus planes that arise from the tilting of the surface sensor can be subdivided again, resulting in a finer resolution of the focus planes.
Vorzugsweise werden die Bilddaten In-Iine rektifiziert. Hierbei werden die Bilddaten der Bil der des Stereobild paares zeilenweise in Übereinstimmung gebracht, wobei sowohl ein Ver satz als auch eine unterschiedliche Verzeichnung durch die beiden Objektive korrigiert wird. Durch diese Rektifizierung, welche auch off-line möglich ist, sind die Positionsangaben der jeweiligen Verzerrung angepasst, wodurch die Bilddaten verzerrungsfrei dargestellt sind und weiterberechnet werden können. Da ein weiterer Konvertierungsschritt der Positionsangaben nicht nötig ist, erhöht sich die Geschwindigkeit der Berechnungen. The image data are preferably rectified in-line. Here, the image data of the images of the stereo image pair are matched line by line, with both an offset and a different distortion being corrected by the two lenses. Through this rectification, which is also possible off-line, the position information is adapted to the respective distortion, so that the image data are displayed without distortion and can be further calculated. Since a further conversion step of the position information is not necessary, the speed of the calculations increases.
Zeilensensoren mit charge-coupled device (CCD)-Sensoren weisen Schieberegister auf, in welchen detektierte Helligkeitswerte abgespeichert werden. Diese Schieberegister werden seriell ausgelesen. Im Allgemeinen werden beim Auslesen des Schieberegisters der einzelnen Zeilen den jeweiligen Bildpunkten gleichmäßige Positionsangaben zugeordnet. Vorzugsweise werden die Bildpunkt-Zeilen von Sensoren sich derart synchronisieren, dass sie zeilensynchron aufnehmen und einen gleichzeitigen Bildstart haben. Hierdurch wird der Auf wand bei der Rektifizierung deutlich reduziert. Insbesondere in Kombination mit der Rektifi zierung wird dadurch einem aufgenommenen Bildpunkt eines Kameramoduls zur gleichen Zeit der gleiche Punkt am Objekt zugeordnet wie ein zweiter aufgenommener Bildpunkt des zweiten Kameramoduls. Dies hat den Vorteil, dass bei der Stereoberechnung jeder Zeile ei nes Sensorbereiches schon automatisch die passende Zeile des zweiten Sensorbereiches zugeordnet ist. Dadurch ist die Stereoberechnung nur in einer Dimension notwendig. Line sensors with charge-coupled device (CCD) sensors have shift registers in which detected brightness values are stored. These shift registers are read out serially. In general, when reading out the shift register of the individual lines, uniform position information is assigned to the respective image points. The pixel lines of sensors are preferably synchronized in such a way that they record line-synchronously and have a simultaneous image start. This significantly reduces the effort involved in rectifying. In particular in combination with rectification, a recorded image point of a camera module is assigned the same point on the object at the same time as a second recorded image point of the second camera module. This has the advantage that, during the stereo calculation, each line of a sensor area is automatically assigned the appropriate line of the second sensor area. This means that the stereo calculation is only necessary in one dimension.
Ein weiterer Aspekt der vorliegenden Erfindung betrifft eine Oberflächentopologie- Erfassungseinrichtung. Die Oberflächentopologie-Erfassungseinrichtung weist zumindest ein Stereokamerasystem, wie es zuvor erläutert ist, um dreidimensionale Oberflächentopologien eines Messobjektes zu erfassen, auf. Die Oberflächentopologie-Erfassungseinrichtung um fasst eine Transporteinrichtung zum Transport des Messobjektes oder des Kamerasystems, eine Synchronisierungseinrichtung, um die Geschwindigkeit des Transportes mit den zellen förmigen Abtastungen der dreidimensionalen Oberflächentopologie zu synchronisieren, und eine Auswerteeinrichtung, um die Messungen der dreidimensionalen Oberflächentopologie auszuwerten. Another aspect of the present invention relates to a surface topology detection device. The surface topology detection device has at least one stereo camera system, as explained above, in order to detect three-dimensional surface topologies of a measurement object. The surface topology detection device comprises a transport device for transporting the measurement object or the camera system, a synchronization device in order to synchronize the speed of the transport with the cell-shaped scans of the three-dimensional surface topology, and an evaluation device in order to evaluate the measurements of the three-dimensional surface topology.
Eine Transporteinrichtung kann beispielsweise ein Förderband sein. A transport device can for example be a conveyor belt.
Die Synchronisierungseinrichtung gibt ein Signal an das Stereokamerasystem und/oder an die Auswerteeinheit aus, um die Geschwindigkeit des Transportes mit der Messung der drei dimensionalen Oberflächentopologie zu synchronisieren. Geht das Signal an das Stereokame rasystem kann das Signal eine Messung triggern. Gelangt das Signal an die Auswerteeinheit, kann die Geschwindigkeit der Transporteinrichtung bestimmt werden. Bei bekannter Bilder zeugungsfrequenz kann dadurch bestimmt werden, wie weit eine Bildzeile von der nächsten entfernt ist. The synchronization device outputs a signal to the stereo camera system and / or to the evaluation unit in order to synchronize the speed of the transport with the measurement of the three-dimensional surface topology. If the signal goes to the stereo camera system, the signal can trigger a measurement. If the signal reaches the evaluation unit, the speed of the transport device can be determined. With a known image generation frequency, it can be determined how far one image line is from the next.
Die Synchronisierungseinrichtung kann beispielsweise ein Inkrementalgeber sein, der von der Transporteinrichtung ausgelöst wird. Ist die Transporteinrichtung ein Förderband, kann z.B. durch ein Rad, das an das Förderband gekoppelt ist, die Radstellung durch die Synchronisie rungseinrichtung bestimmt werden. Bei bestimmten Radstellungen wird dann ein Signal aus gegeben. Alternativ könnte die Synchronisierungseinrichtung eine Kameraeinheit aufweisen, die Markierungen auf dem Förderband wahrnimmt und anhand dieser ein Signal ausgibt. Die Synchronisierungseinrichtung kann auch als Modul der Auswerteeinheit ausgebildet sein. Ist die Bilderzeugungsfrequenz und die Geschwindigkeit der Transporteinrichtung bekannt, kann durch Berechnung die Entfernung zwischen zwei aufgenommenen Bildzeilen bestimmt werden. The synchronization device can, for example, be an incremental encoder that is triggered by the transport device. If the transport device is a conveyor belt, the wheel position can be determined by the synchronization device, for example by a wheel that is coupled to the conveyor belt. A signal is then issued for certain wheel positions. Alternatively, the synchronization device could have a camera unit which detects markings on the conveyor belt and uses them to output a signal. The synchronization device can also be designed as a module of the evaluation unit. If the image generation frequency and the speed of the transport device are known, the distance between two recorded image lines can be determined by calculation.
Die Auswerteeinheit ist ein Modul auf einer Recheneinheit und berechnet aus den aufge nommenen Bilddaten die dreidimensionale Oberflächentopologie. The evaluation unit is a module on a computing unit and calculates the three-dimensional surface topology from the recorded image data.
Die Erfindung wird nachfolgend beispielhaft anhand der in den Zeichnungen dargestellten Beispiele näher erläutert. In den Zeichnungen zeigen schematisch jeweils in einer Seitenan sicht: The invention is explained in more detail below using the examples shown in the drawings. The drawings show schematically in a side view:
Figur 1 ein erstes Ausführungsbeispiel einer Kamera mit zwei Objektiven und zwei Figure 1 shows a first embodiment of a camera with two lenses and two
Sensoren, Sensors,
Figur 2a ein zweites Ausführungsbeispiel einer Kamera mit zwei Objektiven, Figure 2a shows a second embodiment of a camera with two lenses,
vier Spiegeln und einem Sensor, four mirrors and one sensor,
Figur 2b eine Abwandlung des zweiten Ausführungsbeispiels einer Kamera mit zwei Figure 2b shows a modification of the second embodiment of a camera with two
Objektiven, vier Spiegeln und zwei Sensoren, Lenses, four mirrors and two sensors,
Figur 2c eine weitere Abwandlung des zweiten Ausführungsbeispiels einer Kamera mit zwei Farbfiltern, zwei Objektiven, vier Spiegeln und zwei Sensoren, FIG. 2c shows a further modification of the second exemplary embodiment of a camera with two color filters, two lenses, four mirrors and two sensors,
Figur 3 ein drittes Ausführungsbeispiel einer Kamera mit zwei Objektiven, Figure 3 shows a third embodiment of a camera with two lenses,
zwei Spiegeln und zwei Sensoren, two mirrors and two sensors,
Figur 4 ein hyperchromatisches Objektiv, wobei verschiedene Fokusebenen auf unterschiedliche Farb-Zeilen fallen, FIG. 4 shows a hyperchromatic objective, with different focal planes falling on different colored lines,
Figur 5 ein viertes Ausführungsbeispiel einer Kamera mit drei Objektiven, Figure 5 shows a fourth embodiment of a camera with three lenses,
vier Spiegeln und einem Farb-Zeilensensor, four mirrors and a color line sensor,
Figur 6 eine Abwandlung des vierten Ausführungsbeispiels einer Kamera mit einem Figure 6 shows a modification of the fourth embodiment of a camera with a
Objektiv, vier Spiegeln, einem Glaselement und einem Farb-Zeilensensor, Lens, four mirrors, a glass element and a color line sensor,
Figur 7 eine Oberflächentopologie-Erfassungseinrichtung, welche eine erfindungsge mäße Stereokamera verwendet, in einem Blockschaltbild, FIG. 7 shows a surface topology detection device which uses a stereo camera according to the invention, in a block diagram,
Figur 8 eine schematische Anordnung von Sensoren und Objektiven zweier Kame- ramodule einer Stereokamera, welche nicht der Erfindung entspricht, FIG. 8 shows a schematic arrangement of sensors and lenses of two camera modules of a stereo camera which does not correspond to the invention,
Figur 9 eine schematische Anordnung von Sensoren und Objektiven zweier Kame- ramodule einer Stereokamera, und Figur 10 projizierte Sensorflächen auf einer Objektebene, und FIG. 9 shows a schematic arrangement of sensors and lenses of two camera modules of a stereo camera, and FIG FIG. 10 projected sensor areas on an object plane, and
Figur 11 eine Oberflächentopologie-Erfassungseinrichtung, welche eine erfindungsge mäße Stereokamera verwendet, in einem Blockschaltbild. FIG. 11 shows a surface topology detection device which uses a stereo camera according to the invention, in a block diagram.
Bei einem ersten Ausführungsbeispiel umfasst ein erfindungsgemäßes Stereokamerasystem 25 zwei Kameramodule la und lb (Figur 1). In a first exemplary embodiment, a stereo camera system 25 according to the invention comprises two camera modules 1 a and 1 b (FIG. 1).
Jedes Kameramodul 1 ist aus einem Objektiv 2 und einem Zeilensensor 3 ausgebildet. Die Zeilensensoren 3 erfassen jeweils mit einem Sensorbereich 13 eine vom Objektiv 2 hierauf abgebildete Abbildung. Die zwei Kameramodule 1 sind so angeordnet, dass sie aus zwei un terschiedlichen Blickrichtungen einen gemeinsamen Objektbereich 6 abtasten. Each camera module 1 is formed from an objective 2 and a line sensor 3. The line sensors 3 each detect with a sensor area 13 an image imaged thereon by the objective 2. The two camera modules 1 are arranged such that they scan a common object area 6 from two different viewing directions.
Bei jedem Kameramodul 1 verläuft eine Kameraachse 5 durch jeweils einen Mittelpunkt des Sensorbereiches 13 und einen Mittelpunkt des Objektivs 2. Die beiden Kameraachsen 5 ver laufen somit in Blickrichtung der Sensorbereiche 13 zum Objektbereich 6. In each camera module 1, a camera axis 5 runs through a center point of the sensor area 13 and a center point of the lens 2. The two camera axes 5 thus run in the viewing direction of the sensor areas 13 to the object area 6.
Die beiden Kameraachsen 5 liegen in einer optischen Ebene. In dieser optischen Ebene lie gen auch die beiden Zeilensensoren 3, bzw. deren Sensorbereiche 13. Diese optische Ebene ist deckungsgleich zur Zeichenebene von Figur 1. The two camera axes 5 lie in an optical plane. The two line sensors 3 or their sensor areas 13 also lie in this optical plane. This optical plane is congruent with the plane of the drawing in FIG.
Die Basis B ist der Abstand zwischen den Mittelpunkten der beiden Sensorbereiche 13. Die Kameraachsen 5 schneiden sich in einer Objektachse 10 und begrenzen den Basis-Winkel a. The base B is the distance between the centers of the two sensor areas 13. The camera axes 5 intersect in an object axis 10 and limit the base angle a.
Da das Kamerasystem Zeilensensoren 3 verwendet, sind für die weitere Betrachtung lediglich eine Sensorachse 8, eine Objektivachse 9 und eine Objektachse 10 relevant, welche die Ge raden sind, die in der optischen Ebene und zugleich in der oben definierten Sensorebene, der Objektivebene bzw. der Objektebene liegen. Since the camera system uses line sensors 3, only a sensor axis 8, an objective axis 9 and an object axis 10 are relevant for further consideration, which are the straight lines in the optical plane and at the same time in the sensor plane defined above, the objective plane or the Object level.
Der Zeilensensor 3 nimmt ein Abbild des Objektbereichs 6, welches durch das Objektiv 2 auf den Zeilensensor 3 abgebildet wird, auf. Der Zeilensensor 3 ist ein CCD-Sensor und umfasst ein Schieberegister und ein eindimensionales Array aus Fotodetektoren, wobei jeder Fotode tektor zur Aufnahme eines Pixels dient. Bei jedem Zeilensensor 3 verläuft die Sensorachse 8 deckungsgleich mit der Sensorzeile. Die Objektive 2 der Kameramodule 1 sind derart zu dem jeweiligen Zeilensensor 3 angeord net, dass der Objektbereich 6 scharf in der Ebene des Zeilensensors 3 abgebildet wird. Das Objektiv 2 kann aus einer einzelnen Linse oder aus mehreren Linsen ausgebildet sein. Eine optische Achse des Objektivs 2 ist eine Symmetrieachse des Objektivs 2, welche senkrecht zur Objektivachse 9 in der optischen Ebene verläuft. The line sensor 3 records an image of the object region 6, which is imaged onto the line sensor 3 by the objective 2. The line sensor 3 is a CCD sensor and comprises a shift register and a one-dimensional array of photo detectors, each photo detector serving to record a pixel. For each line sensor 3, the sensor axis 8 is congruent with the sensor line. The lenses 2 of the camera modules 1 are arranged in relation to the respective line sensor 3 in such a way that the object area 6 is imaged sharply in the plane of the line sensor 3. The objective 2 can be formed from a single lens or from several lenses. An optical axis of the objective 2 is an axis of symmetry of the objective 2, which runs perpendicular to the objective axis 9 in the optical plane.
Der Objektbereich 6 liegt auf der Objektachse 10 und wird scharf auf die Sensorbereiche 13 abgebildet. The object area 6 lies on the object axis 10 and is imaged sharply on the sensor areas 13.
Die Sensorachse 8, die Objektivachse 9 und die Objektachse 10 schneiden sich in einem ge meinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug- Bedingung erfüllt. The sensor axis 8, the objective axis 9 and the object axis 10 intersect at a common point which, however, is not at infinity. The Scheimpflug condition is thus fulfilled.
Nachfolgend wird ein zweites Ausführungsbeispiel (Figur 2a) erläutert, wobei gleiche Ele mente wie beim ersten Ausführungsbeispiel mit den gleichen Bezugszeichen versehen sind. Für gleiche Elemente gelten die oben angeführten Erläuterungen, sofern nachfolgend nichts anderes hierzu ausgeführt ist. A second exemplary embodiment (FIG. 2a) is explained below, the same elements as in the first exemplary embodiment being provided with the same reference numerals. The explanations given above apply to the same elements, unless otherwise stated below.
Beim zweiten Ausführungsbeispiel umfasst ein erfindungsgemäßes Stereokamerasystem 25 wiederum zwei Kameramodule la und lb. Jedes Kameramodul 1 umfasst ein Objektiv 2, zwei Spiegel 11, 12 und einen Zeilensensorbereich 13. Die Kameraachse 5 wird durch die beiden Spiegel 11, 12 umgelenkt. Der Zeilensensorbereich 13 eines jeden Kameramodules la und lb liegt in einer Linie hintereinander und bildet zusammen einen Zeilensensor 3. In the second exemplary embodiment, a stereo camera system 25 according to the invention again comprises two camera modules la and lb. Each camera module 1 comprises an objective 2, two mirrors 11, 12 and a line sensor area 13. The camera axis 5 is deflected by the two mirrors 11, 12. The line sensor area 13 of each camera module 1 a and 1 b lies in a line behind one another and together forms a line sensor 3.
Die Spiegel 11, 12 sind derart zwischen Objektiv 2 und Zeilensensorbereich 13 angeordnet, dass der Objektbereich 6 auf den Zeilensensorbereich 13 fällt. The mirrors 11, 12 are arranged between the objective 2 and the line sensor area 13 in such a way that the object area 6 falls on the line sensor area 13.
Die Sensorachse 8 wird am Spiegel 11 gespiegelt. Sensorachse 8' (nicht eingezeichnet) ist die gespiegelte Sensorachse 8. Die Sensorachse 8' wird wiederum am Spiegel 12 gespiegelt. Sensorachse 8" (nicht eingezeichnet) ist die gespiegelte Sensorachse 8', beziehungsweise die doppelt gespiegelte Sensorachse 8. The sensor axis 8 is mirrored on the mirror 11. The sensor axis 8 ′ (not shown) is the mirrored sensor axis 8. The sensor axis 8 ′ is in turn mirrored on the mirror 12. The sensor axis 8 ″ (not shown) is the mirrored sensor axis 8 ′ or the double mirrored sensor axis 8.
Eine Basis B des Stereokamerasystems 25 ist durch den Abstand der Mittelpunkte von Pro jektionen der beiden Zeilensensoren 3 gegeben, wobei die Projektion eines Zeilensensors der Ort ist, wo der Zeilensensor 3 wäre, würde das Abbild des Objektivbereichs 6 nicht gespie gelt werden. A base B of the stereo camera system 25 is given by the distance between the centers of the projections of the two line sensors 3, the projection of a line sensor The place is where the line sensor 3 would be if the image of the lens area 6 would not be mirrored.
Die Sensorachse 8", die Objektivachse 9 und die Objektachse 10 schneiden sich in einem gemeinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug- Bedingung erfüllt. The sensor axis 8 ″, the objective axis 9 and the object axis 10 intersect at a common point which, however, is not at infinity. The Scheimpflug condition is thus fulfilled.
Das zweite Ausführungsbeispiel unterscheidet sich vom ersten Ausführungsbeispiel darin, dass jeweils zwei Spiegel 11, 12 pro Kameramodul la, lb die Fokii des Objektbereichs 10 derart umlenken, dass diese auf einer gemeinsamen Achse, der jeweiligen Sensorachse 8, liegen. Somit werden keine zwei separaten Sensoren benötigt, sondern beide Strahlengänge können auf einen Zeilensensor 3 projiziert werden, der in zwei Zeilensensorbereiche 13 un terteilt ist. The second exemplary embodiment differs from the first exemplary embodiment in that two mirrors 11, 12 per camera module 1 a, 1 b deflect the foci of the object region 10 in such a way that they lie on a common axis, the respective sensor axis 8. Thus, no two separate sensors are required, but both beam paths can be projected onto a line sensor 3, which is divided into two line sensor areas 13 un.
In diesem Ausführungsbeispiel ist die Sensorachse 8 parallel zur Objektachse 10. Es ist aber auch vorstellbar, dass diese beiden Achsen nicht parallel sind. Beide Kameramodule sind dann nicht spiegelsymmetrisch aufgebaut. In this exemplary embodiment, the sensor axis 8 is parallel to the object axis 10. However, it is also conceivable that these two axes are not parallel. Both camera modules are then not constructed with mirror symmetry.
Alternativ weist das Stereokamerasystem 25 einen Abstand zwischen den beiden Zeilen sensorbereichen 13 auf (Figur 2b). Jeder Zeilensensor 3 umfasst nun einen Zeilensensorbe reich 13. Dieses Ausführungsbeispiel weist gewisse Ähnlichkeiten zum Hyperskop auf, wel ches jedoch nicht den Scheimpflug-Bedingungen unterliegt. Alternatively, the stereo camera system 25 has a distance between the two lines of sensor areas 13 (FIG. 2b). Each line sensor 3 now includes a line sensor area 13. This exemplary embodiment has certain similarities to the hyperscope, which however is not subject to the Scheimpflug conditions.
Eine weitere Möglichkeit dieser Ausführungsform besteht darin, dass sich die beiden opti schen Achsen überschneiden, sodass das erste Bild des Objektbereichs 6 auf dem gegen überliegenden Zeilensensor 3b, bzw. Zeilensensorbereich 13b projiziert wird. Ohne Schei- mpflug-Bedingung ist diese Anordnung als Pseudoskop bekannt. A further possibility of this embodiment is that the two optical axes intersect, so that the first image of the object area 6 is projected onto the opposite line sensor 3b or line sensor area 13b. Without the Scheimpflug condition, this arrangement is known as a pseudoscope.
Eine weiteres Ausführungsbeispiel besteht darin, dass das Stereokamerasystem 25 einen Aufbau gemäß dem zweiten Ausführungsbeispiel (Fig. 2c) hat, jedoch sind die Sensorberei che 13 nicht entlang der Sensorachse 8 in einer Linie nebeneinander angeordnet, sondern senkrecht zur Sensorachse 8 parallel zu einander angeordnet. Diese Sensorbereiche 13 kön nen, wie es unten näher erläutert ist, jeweils durch die unterschiedlichen Farbzeilen eines Zeilensensors 3 ausgebildet sein. Beide Strahlengänge sind senkrecht zum Zeilenfarbsensor 3 derart zueinander versetzt angeordnet, dass die beiden unterschiedlichen Strahlengängen leicht versetzt auf den Zeilenfarbsensor 3 treffen. Die beiden Spiegel 11 sind nebeneinander angeordnet. . Entlang jedem Strahlengang wird dann ein Farbfilter 26 positioniert. Somit trifft das Bild des einen Kameramodules la als z.B. rotes Bild auf den Zeilenfarbsensor 3 und das Bild des anderen Kameramodules lb als z.B. grünes Bild auf den Zeilenfarbsensor 3. Dadurch kann ein Zeilenfarbsensor 3 gleichzeitig zwei, oder sogar mehrere, Bilder des Ob jektbereichs 6 aufnehmen. Die Oberfläche des Objektes sollte hierbei nicht in der Farbe einer der Farbfilter 26 sein, da ansonsten die Bildinformationen der Oberfläche herausgefiltert werden. Der Strahlengang mit dem Farbfilter einer ersten Farbe trifft somit auf die Sensor zeile, die die erste Farbe erkennt. Der Strahlengang mit dem Farbfilter der zweiten Farbe trifft auf die Sensorzeile, die die zweite Farbe erkennt. Another embodiment is that the stereo camera system 25 has a structure according to the second embodiment (Fig. 2c), but the sensor area 13 are not arranged along the sensor axis 8 in a line next to each other, but perpendicular to the sensor axis 8 parallel to each other. As will be explained in more detail below, these sensor areas 13 can each be formed by the different color lines of a line sensor 3. Both beam paths are arranged offset from one another perpendicular to the line color sensor 3 in such a way that the two different beam paths hit line color sensor 3 slightly offset. The two mirrors 11 are arranged next to one another. . A color filter 26 is then positioned along each beam path. Thus, the image of a camera module la hits the line color sensor 3 as a red image, for example, and the image of the other camera module lb hits the line color sensor 3 as a green image, for example. As a result, a line color sensor 3 can simultaneously record two or even several images of the object area 6 . The surface of the object should not be in the color of one of the color filters 26, since otherwise the image information on the surface will be filtered out. The beam path with the color filter of a first color thus hits the sensor line that detects the first color. The beam path with the color filter of the second color hits the sensor line that detects the second color.
Bevorzugt werden Objekt-Oberflächen, die weiß sind oder Graustufen aufweisen. Weiß oder Graustufen weisen für jede Farbe des Farbspektrums gleiche Intensitätswerte auf. Gelangt das Licht durch den jeweiligen Farbfilter 26, wird die integrierte Intensität des Lichtes über alle Farben entsprechend unabhängig der Farbe des Farbfilters gleichermaßen reduziert. Werden die Farbkanäle des Zeilensensors 3 als Graustufen ausgewertet, unterscheiden sich die daraus entstehenden Abbildungen beider Strahlengänge in ihrer Graustufenintensität nur durch die unterschiedlichen Betrachtungswinkel zum Objekt und nicht durch die unterschied liche Farbe des Strahlenganges. Object surfaces that are white or have gray levels are preferred. White or grayscale have the same intensity values for each color in the color spectrum. If the light passes through the respective color filter 26, the integrated intensity of the light is reduced across all colors, regardless of the color of the color filter. If the color channels of the line sensor 3 are evaluated as gray levels, the resulting images of the two beam paths differ in their gray level intensity only due to the different viewing angles to the object and not due to the different color of the beam path.
In diesem Ausführungsbeispiel sind die Farbfilter 26 vor dem Objektiv 2a und 2b angeordnet (Fig 2c). Sie können jedoch auch zwischen Spiegel 12 und Objektiv 2a, 2b oder zwischen Spiegel 11 und 12 oder auch zwischen Zeilenfarbsensor 3 und Spiegel 11 angeordnet sein. In this exemplary embodiment, the color filters 26 are arranged in front of the objective 2a and 2b (FIG. 2c). However, they can also be arranged between mirror 12 and objective 2a, 2b or between mirror 11 and 12 or between line color sensor 3 and mirror 11.
Alternativ können statt der Farbfilter 26 auch unterschiedliche Polfilter entlang dem Strah lengang verwendet werden, sofern der Zeilensensor 3 entsprechend unterschiedlich polari sierte Bilder des Objektbereichs 6 getrennt aufnehmen kann. Jeder Strahlengang des Stereo kamerasystems 25 weist somit eine andere Polarisation auf, wenn er auf den Zeilensensor 3 trifft. Wird die Phase und die Intensität der Bilder aufgenommen, so lässt sich dieses Verfah ren auch in der Holographie verwenden. Die Oberfläche des Objektes darf hierbei die Polari sation nicht ändern, da ansonsten die Polfilter Bildinformationen herausfiltern, die zur Be rechnung der Höheninformationen notwendig sind. Alternatively, instead of the color filters 26, different polarizing filters can be used along the beam path, provided that the line sensor 3 can record images of the object region 6 with correspondingly differently polarized images. Each beam path of the stereo camera system 25 thus has a different polarization when it hits the line sensor 3. If the phase and the intensity of the images are recorded, this method can also be used in holography. The surface of the object must not change the polarization, since otherwise the polarizing filter will filter out image information that is necessary to calculate the height information.
Im Folgenden wird ein drittes Ausführungsbeispiel (Figur 3) beschrieben, wobei gleiche Ele mente wie beim ersten und zweiten Ausführungsbeispiel mit den gleichen Bezugszeichen versehen sind. Für gleiche Elemente gelten die oben angeführten Erläuterungen, sofern nachfolgend nichts anderes hierzu ausgeführt ist. A third exemplary embodiment (FIG. 3) is described below, the same elements as in the first and second exemplary embodiments with the same reference numerals are provided. The explanations given above apply to the same elements, unless otherwise stated below.
Beim dritten Ausführungsbeispiel umfasst ein Stereokamerasystem 25 wiederum zwei Kame- ramodule la und lb. Jedes Kameramodul 1 umfasst ein Objektiv 2, einen Spiegel 11 und einen Zeilensensor 3. Die Kameraachse 5 wird durch den Spiegel 11 umgelenkt. In the third exemplary embodiment, a stereo camera system 25 again comprises two camera modules la and lb. Each camera module 1 comprises an objective 2, a mirror 11 and a line sensor 3. The camera axis 5 is deflected by the mirror 11.
Die Spiegel 11 ist derart zwischen Objektiv 2 und Zeilensensor 3 angeordnet, dass der Ob jektbereich 6 auf den Zeilensensor 3 fällt. The mirror 11 is arranged between the lens 2 and the line sensor 3 in such a way that the object area 6 falls on the line sensor 3.
Die Sensorachse 8 wird am Spiegel 11 gespiegelt. Sensorachse 8' (nicht eingezeichnet) ist die gespiegelte Sensorachse 8. Die beiden Sensorachsen 8 der beiden Kameramodule 1 sind in diesem Ausführungsbeispiel nicht unbedingt parallel zueinander. The sensor axis 8 is mirrored on the mirror 11. The sensor axis 8 '(not shown) is the mirrored sensor axis 8. The two sensor axes 8 of the two camera modules 1 are not necessarily parallel to one another in this exemplary embodiment.
Eine Basis B des Stereokamerasystems 25 ist durch den Abstand der Mittelpunkte von Pro jektionen der beiden Zeilensensoren 3 gegeben, wobei die Projektion eines Zeilensensors der Ort ist, wo der Zeilensensor 3 wäre, würde das Abbild des Objektivbereichs 6 nicht gespie gelt werden. A base B of the stereo camera system 25 is given by the distance between the centers of the projections of the two line sensors 3, the projection of a line sensor being the location where the line sensor 3 would be if the image of the lens area 6 were not mirrored.
Die Sensorachse 8', die Objektivachse 9 und die Objektachse 10 schneiden sich in einem gemeinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug- Bedingung erfüllt. The sensor axis 8 ', the objective axis 9 and the object axis 10 intersect at a common point which, however, is not at infinity. The Scheimpflug condition is thus fulfilled.
Im Unterschied zum zweiten Ausführungsbeispiel liegen die beiden Zeilensensorbereiche 13 nicht mehr in einer Linie hintereinander. Des Weiteren können durch die Spiegel 11 die Sen soren 3 senkrecht oder nahezu senkrecht zum Objektbereich 6 angeordnet werden, wodurch eine sehr kompakte Bauform gewählt werden kann. In contrast to the second exemplary embodiment, the two line sensor areas 13 are no longer in a line one behind the other. Furthermore, by means of the mirrors 11, the sensors 3 can be arranged perpendicularly or almost perpendicularly to the object area 6, as a result of which a very compact design can be selected.
Nachfolgend wird ein viertes Ausführungsbeispiel (Figur 5) erläutert, wobei gleiche Elemente wie beim ersten Ausführungsbeispiel mit den gleichen Bezugszeichen versehen sind. Für gleiche Elemente gelten die oben angeführten Erläuterungen, sofern nachfolgend nichts an deres hierzu ausgeführt ist. A fourth exemplary embodiment (FIG. 5) is explained below, the same elements as in the first exemplary embodiment being provided with the same reference symbols. The explanations given above apply to the same elements, unless otherwise stated below.
Beim vierten Ausführungsbeispiel umfasst ein erfindungsgemäßes Stereokamerasystem 25 drei Kameramodule la, lb und lc. Statt eines einfachen Zeilensensors umfasst das Stereo- kamerasystem 25 einen Dreizeilensensor 15. Der Dreizeilensensor 15 umfasst drei parallele, nebeneinander angeordnete Sensorbereiche 13. Die Sensorachsen 8 sind senkrecht zur opti schen Ebene angeordnet. In the fourth exemplary embodiment, a stereo camera system 25 according to the invention comprises three camera modules la, lb and lc. Instead of a simple line sensor, the stereo camera system 25 a three-line sensor 15. The three-line sensor 15 comprises three parallel sensor areas 13 arranged next to one another. The sensor axes 8 are arranged perpendicular to the optical plane.
Jedes Kameramodul la und lc umfasst ein Objektiv 2, zwei Spiegel 11, 12 und einen der drei Zeilensensorbereiche 13. Das Kameramodul lb umfasst ein Objektiv 2 und einen der drei Zeilensensorbereiche 13. Die Kameramodule 1 tasten aus drei unterschiedlichen Blick richtungen einen gemeinsamen Objektbereich 6 ab. Each camera module 1 a and 1 c includes an objective 2, two mirrors 11, 12 and one of the three line sensor areas 13. The camera module lb includes an objective 2 and one of the three line sensor areas 13. The camera modules 1 scan a common object area 6 from three different viewing directions .
Bei den äußeren Kameramodulen la und lc wird die Sensorachse 8 am Spiegel 11 gespie gelt. Sensorachse 8' (nicht eingezeichnet) ist die gespiegelte Sensorachse 8. Die Sensorachse 8' wird wiederum am Spiegel 12 gespiegelt. Sensorachse 8" (nicht eingezeichnet) ist die ge spiegelte Sensorachse 8', beziehungsweise die doppelt gespiegelte Sensorachse 8. In the case of the outer camera modules 1 a and 1 c, the sensor axis 8 is mirrored on the mirror 11. The sensor axis 8 '(not shown) is the mirrored sensor axis 8. The sensor axis 8' is in turn mirrored on the mirror 12. Sensor axis 8 ″ (not shown) is the mirrored sensor axis 8 ', or the double mirrored sensor axis 8.
Werden drei Kameramodule 1 bei einem Stereokamerasystem 25 verwendet, so sind drei Basislängen B für jede Kombination zweier Kameramodule 1 möglich. Eine Basis B ist durch den Abstand der Mittelpunkte von Projektionen der beiden Zeilensensoren 3 gegeben, wobei die Projektion eines Zeilensensors der Ort ist, wo der Zeilensensor 3 wäre, würde das Abbild des Objektivbereichs 6 nicht gespiegelt werden. If three camera modules 1 are used in a stereo camera system 25, then three basic lengths B are possible for each combination of two camera modules 1. A base B is given by the distance between the center points of projections of the two line sensors 3, the projection of a line sensor being the location where the line sensor 3 would be if the image of the lens area 6 were not mirrored.
Die Sensorachse 8, bzw. 8", die Objektivachse 9 und die Objektachse 10 schneiden sich in einem gemeinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug- Bedingung erfüllt. The sensor axis 8 or 8 ″, the objective axis 9 and the object axis 10 intersect at a common point which, however, is not at infinity. The Scheimpflug condition is thus fulfilled.
Alternativ umfasst das Stereokamerasystem 25 anstatt der drei Objektive 2a bis 2c lediglich ein einzelnes Objektiv 2, das alle drei Kameramodule la, lb und lc umschließt. Zum Aus gleich weist das mittlere Kameramodul lb ein Glaselement 19 auf (Figur 6). Alternatively, instead of the three lenses 2a to 2c, the stereo camera system 25 comprises only a single lens 2, which encloses all three camera modules la, lb and lc. To compensate for this, the middle camera module 1b has a glass element 19 (FIG. 6).
Das vierte Ausführungsbeispiel unterscheidet sich von den vorhergehenden Ausführungsbei spielen dadurch, dass die Zeilensensorbereiche 13 parallel nebeneinander und nicht in einer Linie hintereinander angeordnet sind. The fourth exemplary embodiment differs from the preceding exemplary embodiments in that the line sensor areas 13 are arranged parallel to one another and not in a line one behind the other.
In einer alternativen Ausführungsform der oben genannten Ausführungsbeispiele ist das Ob jektiv eines jeden Kameramodules 1 ein hyperchromatisches Objektiv 14, dessen Fokus be sonders von der jeweiligen Wellenlänge abhängig ist (siehe Figur 4). Des Weiteren ist der Dreizeilensensor 15 ein Dreizeilenfarbsensor 15, welcher eine Rot- 16a, Grün- 16b und Blau zeile 16c aufweist. Durch das hyperchromatische Objektiv 14 weist die jeweilige Rot-, Grün- und Blauzeile (16a, 16b, 16c) des Dreizeilenfarbsensors 15 jeweils eine andere Fokusebene 17a, 17b und 17c auf. Dadurch misst jede Farbzeile 16a, 16b und 16c einen anderen Hö- henmessbereich 18a, 18b und 18c. Die Auflösung der Flöhe entspricht hierbei die der Farb- auflösung. In an alternative embodiment of the above-mentioned exemplary embodiments, the objective of each camera module 1 is a hyperchromatic objective 14, the focus of which is particularly dependent on the respective wavelength (see FIG. 4). Furthermore, the Three-line sensor 15 is a three-line color sensor 15, which has a red 16a, green 16b and blue line 16c. Due to the hyperchromatic objective 14, the respective red, green and blue lines (16a, 16b, 16c) of the three-line color sensor 15 each have a different focal plane 17a, 17b and 17c. As a result, each color line 16a, 16b and 16c measures a different height measuring area 18a, 18b and 18c. The resolution of the fleas corresponds to that of the color resolution.
Vorzugsweise werden die Farb-Zeilen 16 in Bezug zum Objektiv 14 verkippt. Die Verkippung erfolgt um eine Achse, die parallel zu den einzelnen Farb-Zeilen 16 ist. Entlang einer Farb- Zeile 16 bleibt die Scheimpflug-Bedingung erhalten. Durch diese Verkippung ändert sich der Abstand einer Farb-Zeile 16 zum Objektiv 14, wodurch auch die Fokusebene 17 sich ver schiebt. The color lines 16 are preferably tilted in relation to the objective 14. The tilting takes place around an axis which is parallel to the individual color lines 16. The Scheimpflug condition is retained along a color line 16. This tilting changes the distance of a color line 16 to the lens 14, whereby the focal plane 17 is shifted ver.
Eine weitere Möglichkeit der Erfindung besteht darin, dass die Kameramodule 1 anstatt eines Zeilensensors 3 einen Flächensensor aufweisen. Der Flächensensor ist zweidimensionales Array aus Fotodetektoren, wobei jeder Fotodetektor einen Pixel entspricht. In diesem Aus führungsbeispiel wird der Flächensensor als eine Aneinanderreihung paralleler Zeilensenso ren 3 betrachtet. Another possibility of the invention is that the camera modules 1 have an area sensor instead of a line sensor 3. The area sensor is a two-dimensional array of photodetectors, each photodetector corresponding to one pixel. In this exemplary embodiment, the area sensor is viewed as a series of parallel Zeilensenso Ren 3.
Der Flächensensor ist um einer Kippachse gekippt. Die Kippachse ist parallel zu den einzel nen Zeilensensoren 3. Die einzelnen Zeilen, sowie deren zugeordnete Sensorachsen 8, bzw. 8' oder 8", sind derart angeordnet, dass sie in einem Punkt die Objektivachse 9 und die Ob jektachse 10 schneiden und somit die Scheimpflug-Bedingung erfüllen. The area sensor is tilted about a tilt axis. The tilt axis is parallel to the individual line sensors 3. The individual lines and their associated sensor axes 8, or 8 'or 8 "are arranged in such a way that they intersect the objective axis 9 and the object axis 10 at one point and thus the Fulfill the Scheimpflug condition.
Der Betrag des Winkels zwischen der Normalen des Flächensensors und der optischen Achse ist hierbei kleiner als 90°. Jede Zeile des Flächensensors weist einen anderen Flöhenmessbe- reich 18 auf. Die aneinander liegenden Flöhenmessbereiche führen zu einer Flöhenbe- reichserweiterung. Für Objekte mit unterschiedlicher Flöhe kann somit der gleiche Kamera aufbau genutzt werden. Jede Flöhe des Objektes wird zumindest eine entsprechende Zeile des Flächensensors mit dazugehörigem Flöhenmessbereich zugeordnet. The amount of the angle between the normal of the area sensor and the optical axis is less than 90 °. Each line of the area sensor has a different flea measuring area 18. The adjacent flea measuring areas lead to an expansion of the flea area. The same camera structure can therefore be used for objects with different fleas. Each flea of the object is assigned at least one corresponding line of the area sensor with the associated flea measurement area.
In einer alternativen Ausführungsform der oben genannten Ausführungsbeispiele werden anstatt eines geraden Spiegels 11 derart gekrümmte Spiegel verwendet, so dass die Bilder des Messobjektes 1 verzerrungsfrei auf den Zeilensensor 3 auftreffen. Die oben genannten Ausführungsbeispiele umfassen jeweils zwei oder drei Kameramodule 1. Prinzipiell können beliebig viele, zumindest jedoch zwei Kameramodule zur stereoskopischen Bestimmung von Oberflächentopologien vorgesehen sein. Je höher die Anzahl an Kame ramodulen ist, desto kleiner wird der statistische Fehler. Allerdings steigen auch die Kosten. Die Anzahl der Basis-Längen ergibt sich aus der Dreieckszahl. Beispielsweise ist bei zwei Ka meramodulen 1 nur eine Basis möglich, bei drei Kameramodulen 1 sind es drei, bei vier sind es sechs Möglichkeiten und bei fünf gibt es zehn verschiedene Basis-Längen. In an alternative embodiment of the above-mentioned exemplary embodiments, instead of a straight mirror 11, mirrors curved in such a way are used so that the images of the measurement object 1 impinge on the line sensor 3 without distortion. The above-mentioned exemplary embodiments each include two or three camera modules 1. In principle, any number, but at least two camera modules can be provided for stereoscopic determination of surface topologies. The higher the number of camera modules, the smaller the statistical error. However, the costs also increase. The number of base lengths results from the triangle number. For example, with two camera modules 1, only one base is possible, with three camera modules 1 there are three, with four there are six options and with five there are ten different base lengths.
Im Folgenden wird eine Oberflächentopologie-Erfassungseinrichtung 20 erläutert (Figur 7). A surface topology detection device 20 is explained below (FIG. 7).
Die Oberflächentopologie-Erfassungseinrichtung umfasst ein Stereokamerasystem 25, wie es in einem der obigen Ausführungsbeispiele gemäß einer der Figuren 1 bis 6 ausgeführt wur de, zur Messung von dreidimensionalen Oberflächentopologien eines Messobjektes 4, eine Transporteinrichtung 21 zum Transport des Messobjektes 4, eine Synchronisierungseinrich tung 22, um die Geschwindigkeit des Transportes mit den Messung der dreidimensionalen Oberflächentopologie zu synchronisieren, und eine Auswerteeinrichtung 23, um die Messun gen der dreidimensionalen Oberflächentopologie auszuwerten. The surface topology detection device comprises a stereo camera system 25, as it was carried out in one of the above exemplary embodiments according to one of FIGS. 1 to 6, for measuring three-dimensional surface topologies of a measurement object 4, a transport device 21 for transporting the measurement object 4, a synchronization device 22, to synchronize the speed of the transport with the measurement of the three-dimensional surface topology, and an evaluation device 23 to evaluate the measurements of the three-dimensional surface topology.
Die Transporteinrichtung 21 ist in diesem Ausführungsbeispiel ein Förderband. In this exemplary embodiment, the transport device 21 is a conveyor belt.
Die Synchronisierungseinrichtung 22 ist in diesem Ausführungsbeispiel ein Inkrementalgeber 22. Der Inkrementalgeber ist an das Förderband 21 gekoppelt, sodass es sich bei einer Fort bewegung des Förderbandes dreht. Bei der Drehung um einen vorbestimmten Drehwinkel wird ein Taktsignal ausgegeben. Damit legt das Förderband einen vorbestimmten Weg zwi schen zwei aufeinander folgenden Taktsignalen zurück. Diese Taktsignale werden an eine Auswerteeinrichtung 23 übermittelt. Die Auswerteeinrichtung 23 ist auch so mit den Kam mermodulen 1 verbunden, um die mit den in den Kammermodulen angeordneten Sensoren 3 erfassten Bildsignale zu erhalten. Die Auswerteeinrichtung 23 ist derart ausgebildet, dass sie den Zeitpunkt, an welchem die jeweiligen Kameramodule das Messobjekt 4 abtasten, steu ert. Hierdurch kann die Auswerteeinrichtung 23 entsprechend dem vom Inkrementalgeber 22 erhaltenen Taktsignal die Abtastung des Messobjektes 4 mit der Bewegung des Förderban des bzw. des Messobjektes 4 synchronisieren. Diese Synchronisation ist vorzugweise so aus gebildet, dass das Messobjekt in Bewegungsrichtung 7 jeweils mit gleichem örtlichen Ab stand abgetastet wird. Mehrere aufeinanderfolgende eindimensionale Abtastungen können zu einem zweidimensionalen Bild in der Auswerteeinrichtung 23 zusammengesetzt werden. Somit werden dreidimensionale Informationen von einer Oberflächentopologie erhalten. In this exemplary embodiment, the synchronization device 22 is an incremental encoder 22. The incremental encoder is coupled to the conveyor belt 21 so that it rotates when the conveyor belt moves forward. A clock signal is output when rotating through a predetermined angle of rotation. The conveyor belt thus covers a predetermined distance between two successive clock signals. These clock signals are transmitted to an evaluation device 23. The evaluation device 23 is also connected to the chamber modules 1 in such a way as to receive the image signals recorded by the sensors 3 arranged in the chamber modules. The evaluation device 23 is designed in such a way that it controls the point in time at which the respective camera modules scan the measurement object 4. In this way, the evaluation device 23 can scan the measurement object 4 with the movement of the conveyor belt in accordance with the clock signal received from the incremental encoder 22. of the measurement object 4. This synchronization is preferably formed in such a way that the measurement object is scanned in the direction of movement 7 with the same local distance. Several consecutive one-dimensional scans can be can be combined to form a two-dimensional image in the evaluation device 23. Thus, three-dimensional information is obtained from a surface topology.
Die erfassten Bilder können korrigiert werden. Zum einen kann ein Verschiebefehler behoben werden, der dadurch entsteht, dass das Messobjekt 7 relativ zur Kamera bewegt wird und die einzelnen Bildpunkte der Zeilenkamera aufeinanderfolgend empfindlich geschaltet sind. Hierdurch weist bei hohen Geschwindigkeiten die Abbildung eine gewisse Schräg Stellung zur Bewegungsrichtung 7 auf. The captured images can be corrected. On the one hand, a displacement error can be eliminated that arises from the fact that the measurement object 7 is moved relative to the camera and the individual pixels of the line camera are successively switched to be sensitive. As a result, at high speeds the image has a certain oblique position to the direction of movement 7.
Des Weiteren können die Bilder rektifiziert werden. Durch die Rektifizierung werden geomet rische Verzerrungen in den Bilddaten eliminiert. Diese können unter anderem durch die Scheimpflug-Anordnung entstehen. Furthermore, the images can be rectified. The rectification eliminates geometric distortions in the image data. These can arise from the Scheimpflug arrangement, among other things.
Die Nachkorrektur der Rektifizierung kann auch direkt In-Iine bei der Bildregistrierung durch geführt werden. Direkt nach der Aufnahme einer Bildzeile werden die Daten korrigiert. Hier bei wird nach der Digitalisierung des Sensorsignals die Bildsignale in einem FPGA (engl: Field Programmable Gate Array) auf der Kamera vorverarbeitet. Wenn die Parameter der Ver zeichnung der beiden Kameramodule bekannt sind, z.B. aus einer Kalibrierung des Systems, kann im FPGA das gleiche Korrekturmodell angewandt werden, wie konventionell auf einem PC. Eine weitere Korrektur in der Recheneinheit ist somit nicht nötig, wodurch die Verarbei tungsgeschwindigkeit erhöht wird. The correction of the rectification can also be carried out directly in-line during the image registration. The data is corrected immediately after an image line has been recorded. Here at, after the sensor signal has been digitized, the image signals are preprocessed in an FPGA (Field Programmable Gate Array) on the camera. If the parameters of the directory of the two camera modules are known, e.g. from a calibration of the system, the same correction model can be applied in the FPGA as conventionally on a PC. A further correction in the arithmetic unit is therefore not necessary, whereby the processing speed is increased.
Die so korrigierten Bilder werden für eine Tiefenrekonstruktion der aufgenommenen Oberflä che des Messobjektes 4 genutzt. Ein typisches Verfahren zur Tiefenrekonstruktion ist die Stereotriangulation. Dabei wird jedem Punkt des ersten Bildes ein zweiter Punkt beim zwei ten Bild zugeordnet. Der Abstand zwischen den beiden Punkten ist abhängig von der tat sächlichen Raumtiefe des Punktes, genauer gesagt der Entfernung des Sensors 3 zum Ob jektbereich 6 und der Basis B des Stereokamerasystems 25. Jedem Punkt des ersten Bildes wird so eine Tiefeninformation zugeordnet. The images corrected in this way are used for a depth reconstruction of the recorded surface of the measurement object 4. A typical method for depth reconstruction is stereo triangulation. Each point in the first image is assigned a second point in the second image. The distance between the two points depends on the actual spatial depth of the point, more precisely the distance of the sensor 3 to the object area 6 and the base B of the stereo camera system 25. Each point of the first image is assigned a depth information.
Alternativ können auch Blöcke, d.h. eine Gruppe von Pixeln, wie z.B. eine 3x3-Matrix, einan der zugeordnet werden. Dieses Verfahren wird Block-Matching genannt. Alternatively, blocks, i.e. a group of pixels, e.g. a 3x3 matrix to be assigned to. This process is called block matching.
Für jede aufgenommene Bildzeile wird so eine Bildzeile berechnet, die Tiefeninformationen enthält. Werden mehrere Bildzeilen eines Messobjektes 4 aufgenommen, so können die Zei- len mit den Tiefeninformationen zusammengefügt werden, um so eine dreidimensionale Oberflächentopografie des Messobjektes zu erzeugen. Die Abstände der einzelnen Zeilen können durch Informationen der Synchronisierungseinrichtung 22 berechnet werden. For each recorded image line, an image line containing depth information is calculated. If several image lines of a measurement object 4 are recorded, the lines can len are combined with the depth information in order to generate a three-dimensional surface topography of the measurement object. The distances between the individual lines can be calculated using information from the synchronization device 22.
Werden statt mehrerer Zeilensensoren 3 Zeilensensorbereiche 13 genutzt, werden die Bild daten aller Kameramodule 1 auf dem gleichen Zeilensensor 3 erzeugt. Das so entstehende digitale Doppelbild wird in der Auswerteeinrichtung 23 geteilt. Die entstehenden zwei Bilder werden wie oben beschrieben korrigiert und für die Tiefenkonstruktion genutzt. If instead of several line sensors 3 line sensor areas 13 are used, the image data of all camera modules 1 are generated on the same line sensor 3. The resulting digital double image is divided in the evaluation device 23. The resulting two images are corrected as described above and used for the depth construction.
Wird ein Dreizeilenfarbsensor 15 zur Aufnahme des Messobjektes genutzt, so wird für jede Farbe ein eigenständiges Bild erzeugt. Für jede Farbe werden separat, wie oben beschrie ben, die eigenständigen Bilder korrigiert und für die Tiefenkonstruktion genutzt.Da jede Far be einen unterschiedlichen Flöhenmessbereich 18a, 18b und 18c bei Verwendung eines hy perchromatischen Objektivs aufweist, kann über eine Bildschärfeerkennung eine zusätzliche Abschätzung des Tiefen profils der Messobjektoberfläche berechnet werden. Jedem Punkt eines Bildes wird ein Punkt bei den anderen beiden Farbbereichbildern, jedoch desselben Kameramodules 1 zugeordnet. Die Position des Punktes unterscheidet sich bei den drei Bil dern nicht. Dafür ist die Bildschärfe des Punktes je nach Tiefe des realen Punktes am Mess objekt 4 und der Farbe unterschiedlich. Liegt ein Punkt tief, so wird er im blauen Bild scharf dargestellt, bei mittlerer Tiefe im grünen und bei niedriger Tiefe im roten Bild. Eine Schärfe nerkennung kann z.B. durch einen Kontrastabgleich der Bilder in einer bestimmten Pixelregi on durchgeführt werden. Ist ein Punkt schärfer, ist der Kontrast höher. If a three-line color sensor 15 is used to record the measurement object, a separate image is generated for each color. As described above, the independent images are corrected separately for each color and used for the depth construction profile of the target surface can be calculated. Each point of an image is assigned a point in the other two color area images, but of the same camera module 1. The position of the point does not differ between the three images. For this, the image sharpness of the point is different depending on the depth of the real point on the measurement object 4 and the color. If a point is deep, it is shown in focus in the blue image, in the case of medium depth in the green and in the case of low depth in the red image. A sharpness detection can e.g. can be carried out by comparing the contrast of the images in a specific pixel region. If a point is sharper, the contrast is higher.
In Kombination mit der Stereoskopie-Berechnung ist so eine feine Bestimmung der Oberflä chentopologie möglich. In combination with the stereoscopic calculation, a precise determination of the surface topology is possible.
Alternativ zur individuellen Berechnung der einzelnen Farbbilder kann auch aus einem zu sammengesetzten RGB-Bild ein graustufen Bild berechnet werden, welches anschließend analysiert wird. As an alternative to the individual calculation of the individual color images, a gray-scale image can also be calculated from a composite RGB image, which is then analyzed.
Wird ein Flächensensor zur Aufnahme des Messobjektes genutzt, so wird für jede Zeile ein eigenständiges Bild erzeugt. Für jede Zeile werden separat, wie oben beschrieben, die eigen ständigen Bilder korrigiert und für die Tiefenkonstruktion genutzt. Anschließend wird in jeden eigenständigen Bild die Schärfe eines realen Punktes am Messobjekt 4 bestimmt. So kann die Zeile bestimmt werden, welche den Punkt am schärfsten aufgenommen hat. Da die Position der Zeile und die Brennweite bekannt sind, kann dadurch die Entfernung des Punktes be- stimmt werden. Werden alle Punkte miteinander verbunden, entsteht ein Höhenprofil des Messobjektes 4. If a surface sensor is used to record the measurement object, an independent image is generated for each line. As described above, the independent images are corrected separately for each line and used for the depth construction. The sharpness of a real point on the measurement object 4 is then determined in each independent image. In this way the line can be determined which recorded the point most sharply. Since the position of the line and the focal length are known, the distance to the point can be become true. If all points are connected to one another, a height profile of the measurement object 4 is created.
Neben den oben erwähnten Dreizeilensensoren 15 sind auch weitere Kombinationen denk- bar, wie z.B. ein Sensor mit drei Zeilen aus RGB-Sensorpunkten, ein Sensor mit drei Zeilen aus Sensorpunkten, die auch Graustufen erkennt, ein Sensor mit drei Zeilen aus Sensorpunk ten, die nur Graustufen erkennt, etc. In addition to the three-line sensors 15 mentioned above, other combinations are also conceivable, e.g. a sensor with three lines of RGB sensor points, a sensor with three lines of sensor points that also detects gray levels, a sensor with three lines of sensor points that only detects gray levels, etc.
Die oben erwähnten Sensoren können, wie oben erwähnt CCD-Sensoren sein, aber auch andere Sensor-Arten, wie z.B. Complementary metal-oxide-semiconductor (CMOS)- Sensoren, sind denkbar. The sensors mentioned above can, as mentioned above, be CCD sensors, but other types of sensors, such as, for example, complementary metal-oxide-semiconductor (CMOS) sensors, are also conceivable.
Bezuaszeichen Bezuaszeichen
1 Kameramodul 1 camera module
2 Objektiv 2 lens
3 Sensor 3 sensor
4 Messobjekt 4 target
5 Kameraachse 5 camera axis
6 Objektbereich 6 Contract area
7 Verschieberichtung 7 Shift direction
8 Sensorachse 8 sensor axis
9 Objektivachse 9 lens axis
10 Objektachse 10 object axis
11 Spiegel 1 11 mirror 1
12 Spiegel 2 12 mirror 2
13 Zeilensensorbereich 13 Line sensor area
14 Hyperchromatisches Objektiv 14 Hyperchromatic objective
15 Dreizeilensensor 15 three-line sensor
16 Farbzeile 16 color line
17 Fokusebene 17 focus plane
18 Höhenmessbereich 18 Height measuring range
19 Glaselement 19 glass element
20 Oberflächentopologie-Erfassungseinrichtung 20 Surface topology acquisition device
21 Transporteinrichtung 21 Transport device
22 Synchronisierungseinrichtung 22 Synchronization facility
23 Auswerteeinrichtung 23 Evaluation device
25 Stereokamerasystem 25 stereo camera system
26 Farbfilter 26 color filters
a Basis-Winkel a base angle
ß Scheimpflug-Winkel ß Scheimpflug angle
y Öffnungswinkel des Objektivs y opening angle of the lens
B Basis B base
Claims
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021568480A JP7653369B2 (en) | 2019-06-18 | 2020-06-17 | Stereo Camera System |
| KR1020217043368A KR102741235B1 (en) | 2019-06-18 | 2020-06-17 | Stereo camera system |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102019116506.7A DE102019116506A1 (en) | 2019-06-18 | 2019-06-18 | Stereo camera system |
| DE102019116506.7 | 2019-06-18 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020254445A1 true WO2020254445A1 (en) | 2020-12-24 |
Family
ID=71170536
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2020/066826 Ceased WO2020254445A1 (en) | 2019-06-18 | 2020-06-17 | Stereo camera system |
Country Status (4)
| Country | Link |
|---|---|
| JP (1) | JP7653369B2 (en) |
| KR (1) | KR102741235B1 (en) |
| DE (1) | DE102019116506A1 (en) |
| WO (1) | WO2020254445A1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022181116A (en) * | 2021-05-25 | 2022-12-07 | 株式会社日立製作所 | Three-dimensional capture device and three-dimensional capture system |
| US20230028172A1 (en) * | 2019-05-08 | 2023-01-26 | Docter Optics Se | Device for optical imaging of features of a hand |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN120303532A (en) * | 2023-01-25 | 2025-07-11 | 松下知识产权经营株式会社 | Distance measuring device |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2002040970A1 (en) | 2000-11-15 | 2002-05-23 | Real Time Metrology, Inc. | Optical method and apparatus for inspecting large area planar objects |
| US6671397B1 (en) | 1998-12-23 | 2003-12-30 | M.V. Research Limited | Measurement system having a camera with a lens and a separate sensor |
| US6795575B1 (en) * | 1997-10-01 | 2004-09-21 | Nottingham Trent University | Line-scan imaging in 3-D |
| US7724362B1 (en) | 2006-03-14 | 2010-05-25 | Kla-Tencor Corporation | Oblique incidence macro wafer inspection |
| DE102013103897A1 (en) | 2012-04-25 | 2013-10-31 | Chromasens Gmbh | Camera module for line-wise scanning of object e.g. non-cuboid object, has line sensors that are arranged at different distances from lens so that image lines are imaged at different distances from lens on respective line sensors |
| WO2014017977A1 (en) | 2012-07-24 | 2014-01-30 | Generic Power Pte Ltd | Method and apparatus for determining coplanarity in integrated circuit packages |
| DE102015111120A1 (en) | 2015-07-09 | 2017-01-12 | Chromasens Gmbh | Method and device for scanning surfaces with a stereo camera |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6240335B1 (en) * | 1998-12-14 | 2001-05-29 | Palo Alto Technologies, Inc. | Distributed control system architecture and method for a material transport system |
| JP2011064482A (en) | 2009-09-15 | 2011-03-31 | Kurabo Ind Ltd | Device and method of high-speed three-dimensional measurement |
| US8049886B1 (en) * | 2010-10-14 | 2011-11-01 | Alcon Lensx, Inc. | Spectrometer with adjustable-deflector-controlled alignment for optical coherence tomography |
| JP2014130091A (en) | 2012-12-28 | 2014-07-10 | Canon Inc | Measurement device and measurement method |
| WO2015072016A1 (en) | 2013-11-15 | 2015-05-21 | 株式会社島津製作所 | Surface shape measurement device |
| JP5789010B2 (en) | 2014-02-13 | 2015-10-07 | Dmg森精機株式会社 | Surface shape measuring device and machine tool provided with the same |
| KR102040368B1 (en) * | 2017-07-20 | 2019-11-04 | 이영종 | Hyper spectral image sensor and 3D Scanner using it |
| JP6702343B2 (en) | 2018-02-06 | 2020-06-03 | 株式会社ニコン | Shape measuring device, structure manufacturing system, and shape measuring method |
-
2019
- 2019-06-18 DE DE102019116506.7A patent/DE102019116506A1/en active Pending
-
2020
- 2020-06-17 WO PCT/EP2020/066826 patent/WO2020254445A1/en not_active Ceased
- 2020-06-17 JP JP2021568480A patent/JP7653369B2/en active Active
- 2020-06-17 KR KR1020217043368A patent/KR102741235B1/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6795575B1 (en) * | 1997-10-01 | 2004-09-21 | Nottingham Trent University | Line-scan imaging in 3-D |
| US6671397B1 (en) | 1998-12-23 | 2003-12-30 | M.V. Research Limited | Measurement system having a camera with a lens and a separate sensor |
| WO2002040970A1 (en) | 2000-11-15 | 2002-05-23 | Real Time Metrology, Inc. | Optical method and apparatus for inspecting large area planar objects |
| US7724362B1 (en) | 2006-03-14 | 2010-05-25 | Kla-Tencor Corporation | Oblique incidence macro wafer inspection |
| DE102013103897A1 (en) | 2012-04-25 | 2013-10-31 | Chromasens Gmbh | Camera module for line-wise scanning of object e.g. non-cuboid object, has line sensors that are arranged at different distances from lens so that image lines are imaged at different distances from lens on respective line sensors |
| WO2014017977A1 (en) | 2012-07-24 | 2014-01-30 | Generic Power Pte Ltd | Method and apparatus for determining coplanarity in integrated circuit packages |
| DE102015111120A1 (en) | 2015-07-09 | 2017-01-12 | Chromasens Gmbh | Method and device for scanning surfaces with a stereo camera |
Non-Patent Citations (2)
| Title |
|---|
| AJAY K. PRASADKIRK JENSEN: "Scheimpflug stereocamera for particle image velocimetry in liquid flows", APPLIED OPTICS, vol. 34, 1995, pages 30 |
| GODBER S X ET AL: "LINE-SCAN SENSOR: AN ALTERNATIVE SENSOR MODALITY FOR THE EXTRACTION OF THREE-DIMENSIONAL COORDINATE INFORMATION", OPTICAL ENGINEERING, SOC. OF PHOTO-OPTICAL INSTRUMENTATION ENGINEERS, BELLINGHAM, vol. 34, no. 10, 1 October 1995 (1995-10-01), pages 3044 - 3053, XP000534328, ISSN: 0091-3286, DOI: 10.1117/12.210746 * |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230028172A1 (en) * | 2019-05-08 | 2023-01-26 | Docter Optics Se | Device for optical imaging of features of a hand |
| US11847853B2 (en) | 2019-05-08 | 2023-12-19 | Docter Optics Se | Device for optical imaging of features of a hand |
| JP2022181116A (en) * | 2021-05-25 | 2022-12-07 | 株式会社日立製作所 | Three-dimensional capture device and three-dimensional capture system |
| JP7713315B2 (en) | 2021-05-25 | 2025-07-25 | 株式会社日立製作所 | Three-dimensional capture device and three-dimensional capture system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022536887A (en) | 2022-08-22 |
| KR20220024219A (en) | 2022-03-03 |
| KR102741235B1 (en) | 2024-12-12 |
| JP7653369B2 (en) | 2025-03-28 |
| DE102019116506A1 (en) | 2020-12-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69207176T2 (en) | Optical sensor | |
| DE60001280T2 (en) | DEVICE AND METHOD FOR EVALUATING A TARGET BIGGER THAN THE MEASURING APERTURE OF A SENSOR | |
| DE69114181T2 (en) | Three-dimensional color image. | |
| EP0451474B1 (en) | Procedure and device to measure without contact the surface contours of an object | |
| DE102013008273B4 (en) | Three-dimensional image capture device | |
| DE69926659T2 (en) | Method and device for the optical inspection of objects on a substrate | |
| DE602004006567T2 (en) | Apparatus and method for self-calibration of a phase-shifting interferometer with tunable light source | |
| DE69712872T2 (en) | THREE-DIMENSIONAL COLOR IMAGE | |
| EP0449859B1 (en) | Process and device for observing moire patterns on test surfaces by moireing with phase shifts | |
| WO2020254445A1 (en) | Stereo camera system | |
| DE102017116758B4 (en) | Method and device for scanning surfaces with a stereo camera | |
| DE4123791C2 (en) | Digital area camera with multiple optics | |
| DE3021448A1 (en) | Spatial deviation detection of surfaces from smooth planes - using optical grid and video image signal analysis | |
| WO2023041706A1 (en) | Method and device for measuring depth information relating to a scene on the basis of structured light generated by means of at least one parallel radiation source | |
| DE102012102580A1 (en) | Method for measuring an object and intraoral scanner | |
| EP2208987B1 (en) | Method and device for visual surface inspection | |
| WO2016000764A1 (en) | Chromatic confocal sensor arrangement | |
| DE3203788C2 (en) | ||
| EP0128119B1 (en) | Process and appliance for focusing a light beam onto an object | |
| DE102022116214B4 (en) | Measuring camera and method for two-dimensional measurement of objects | |
| DE69717603T2 (en) | METHOD AND APPARATUS FOR REDUCING UNWANTED NOISE EFFECTS IN A THREE-DIMENSIONAL COLOR IMAGE GENERATION SYSTEM | |
| DE112019006322T5 (en) | Contactless thickness measurement | |
| DE102013105102A1 (en) | Method and device for determining features on objects to be measured | |
| DE112006003559B4 (en) | imaging device | |
| DE112022006794T5 (en) | device for measuring distance |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20734857 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2021568480 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 20734857 Country of ref document: EP Kind code of ref document: A1 |