WO2020160861A1 - Calibration of a sensor for a vehicle on the basis of object-side and image-side identification indices of a reference object - Google Patents
Calibration of a sensor for a vehicle on the basis of object-side and image-side identification indices of a reference object Download PDFInfo
- Publication number
- WO2020160861A1 WO2020160861A1 PCT/EP2020/050343 EP2020050343W WO2020160861A1 WO 2020160861 A1 WO2020160861 A1 WO 2020160861A1 EP 2020050343 W EP2020050343 W EP 2020050343W WO 2020160861 A1 WO2020160861 A1 WO 2020160861A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- sensor
- indices
- index
- reference parts
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52004—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Definitions
- the present invention relates to a device for calibrating a sensor for a vehicle according to claim 1. Furthermore, the invention relates to a sensor device for detecting the surroundings of a vehicle according to claim 13. The invention also relates to the use of such a device or such a sensor device in one Vehicle according to claim 14. The invention also relates to a method for calibrating a sensor for a vehicle according to claim 15. Finally, the invention relates to a computer program product according to claim 17.
- Sensor systems that include one or more sensors are increasingly being used in vehicles, especially in their driver assistance systems and security systems, in order to detect the surroundings of the vehicle.
- sensors can, for example, be cameras, radars and / or light detection and ranging devices (hereinafter: lidars).
- lidars Such a sensor is used to take pictures of the surroundings of the vehicle and to use an image evaluation to recognize objects that represent a potential obstacle for the vehicle when driving.
- the distance between the vehicle and the object can be determined on the basis of such an object detection in order to take a countermeasure if the distance falls below a critical rule, for example to brake the vehicle or to trigger a warning signal. In this way, collisions between the vehicle and objects, such as people, buildings, other vehicles or vegetation, can be avoided or at least the risk thereof can be reduced.
- Calibration is a process in which the correlation between an image coordinate system, in which the images recorded by the respective sensor are displayed and which is specific for each sensor, and a world coordinate system, which is sensor-unspecific and generally valid for all sensors, is determined.
- the respective image coordinate system is therefore with the world coordinate system is set in a transmission ratio, based on which each image coordinate can be represented by means of a corresponding world coordinate.
- Calibration devices and methods are known, for example, from WO 2018/000037 A1, which discloses a system and method for determining a camera position within a vehicle scene.
- the method there includes a first step in which an image of the vehicle scene is recorded by the camera.
- the method further comprises a second step in which reference data are loaded which indicate the vehicle scene, the reference data comprising positions and orientations of known features within the vehicle scene.
- the known method also includes a third step in which the geometric appearance of one or more of the known features within the image are identified.
- the known method includes a fourth step in which the three-dimensional position and orientation of the camera relative to the known features that were identified in the third step are determined based on the geometric appearance and a camera position is calculated within the vehicle scene.
- the object of the present invention is therefore to improve the known calibration devices and methods in such a way that their accuracy and reliability are increased.
- the object is achieved by a device for calibrating a sensor for a vehicle having the features of claim 1.
- the object is achieved by a sensor device for detecting the surroundings of a vehicle with the characteristics of claim 13.
- the object is achieved by Use of such a device in a vehicle with the features of claim 14.
- the object is achieved by a method for calibrating a sensor for a vehicle with the features of claim 15.
- the object is achieved by a computer program product with the features of claim 16.
- the sensor which is preferably attached to the vehicle, is designed to record an image of the reference object.
- the sensor is, for example, a camera, a radar sensor, a lidar sensor, an ultrasonic sensor or another imaging device of the device.
- the sensor can be integrated in a sensor system comprising a plurality of sensors that are, for example, placed in different positions of the vehicle.
- the multiple sensors include a camera, a radar sensor, a lidar sensor, an ultrasound sensor and / or another imaging device.
- the device according to the invention is preferably designed to calibrate the sensor system.
- the image data generated by the sensor contain at least one image of the predefined reference object.
- the reference object has a certain geometric shape, for example a two-dimensional or three-dimensional shape, and / or a certain two-dimensional or three-dimensional pattern.
- the reference object is preferably circular, elliptical, square, hexagonal or sickle-shaped.
- the reference object preferably has a circular, elliptical or square core area which comprises a zigzag-shaped edge area with several corner areas which are each radially delimited by two sides intersecting at a corner point.
- the reference object can be wholly or partially contained in the image (or in the images). This means that the respective images show the reference object of a certain perspective of the respective sensors out completely or partially.
- the object-side reference parts are spatially or flatly distributed on the reference object (in the case of a two-dimensional reference object).
- the object-side reference parts are, for example, several reference areas of the surface of the three-dimensional reference object or several reference areas of the two-dimensional reference object.
- at least one of the object-side reference parts can comprise a reference point which is arranged in one of the reference areas. This also includes the case that a reference point is arranged in an edge section of a reference area or on an edge of a reference area. At least one reference point preferably comprises a corner point of the aforementioned zigzag shape.
- the world coordinate index comprises coordinate information of the respective object-side reference parts.
- the coordinate information relates to a world coordinate system.
- the world coordinate system is a reference system that differs from the image coordinate system of the sensor.
- the world coordinate system can be, for example, a coordinate system of the vehicle, the surroundings of the vehicle, the sensor housing or another housing.
- the world coordinate system can be a Cartesian or a spherical coordinate system.
- the world coordinate index includes, for example, coordinate information of a point located in this reference area or of the world coordinate system.
- the world coordinate index includes coordinate information of the reference point or the world coordinate system.
- the object-side identification index is used to specify the object-side reference parts in addition to their world coordinate index.
- the object-side identification index relates to one or more properties of the respective object-side reference parts.
- the object-side identification index can relate to a position, orientation, shape and / or an appearance property of the respective object-side reference parts.
- the world coordinate index and / or the object-side identification index can at least partially belong to the image data.
- the world coordinate index and / or the object-side identification index can belong to a data packet which is separate from the image data and which can be fed to the image processing unit, for example, via the input interface.
- the object-side reference parts are mapped into the image-side reference parts.
- the reference parts on the image side correspond to the reference parts on the object side.
- the image processing unit is designed to take the predefined reference object, in particular the image-side reference parts, from the image data.
- the object-side reference parts are determined by the design of the reference object.
- the image-side reference parts can be different from image to image depending on the perspective of the sensor used and external parameters such as brightness.
- the image coordinate index comprises coordinate information of the respective reference parts on the image side.
- the coordinate information relates to an image coordinate system.
- the image coordinate system is a reference system relative to which the image points of the image recorded by the sensor, for example pixels and / or voxels, are spatially or flatly defined on an image display surface.
- the coordinate information in the image coordinate system can include one or more coordinates of the image coordinate system.
- the image coordinate index includes, for example, coordinate information of one in this Reference area of the lying point in the image coordinate system.
- the image coordinate index includes coordinate information of the reference point in the image coordinate system.
- the correlation between the world coordinate indices and the image coordinate indices corresponds to the transmission ratio between the world coordinate system and the image coordinate system.
- the calibration device according to the invention is thus designed to determine a correlation between the world coordinate system and the image coordinate system, based on which coordinates of one of the two coordinate systems can be translated into the other of the two coordinate systems and / or vice versa.
- the correlation can be determined by the image processing unit.
- the correlation can be determined by an external processing unit, for example a cloud system, to which the object-side and image-side identification indices can be supplied, based on these.
- the determined correlation can be used to determine spatial parameters such as positions and / or orientations of the sensor or the sensors in the world coordinate system (so-called extrinsic parameters).
- the determined correlation can be further optimized in a further information processing step by means of the non-linear optimization to be carried out by the image processing unit or an additional processing unit.
- so-called intrinsic parameters can be used by the image processing unit or the additional computing unit in order to determine the extrinsic parameters of the sensor.
- the calibration of the sensor is improved by taking into account the identification indices of the reference parts.
- calibration can be carried out with sufficient accuracy and reliability even if the reference object is partially covered or only a small part of the reference parts of the reference object can be detected by the sensor.
- the hidden reference parts cannot be taken into account in the calibration.
- This information deficit can be advantageously compensated by the additional information contained in the identification indexes of the non-covered reference parts.
- the calibration device according to the invention is designed to be used in an offline calibration.
- a calibration platform for example a vehicle
- a sensor system to be calibrated is arranged in a location in which at least one reference object is in the field of view of the sensor system.
- the image data generated by the sensor system can be fed to the device according to the invention for the purpose of calibration.
- the calibration device can be attached to the calibration platform. Alternatively, the calibration device can be arranged externally.
- the calibration device according to the invention can be used in an online calibration.
- the calibration platform is the vehicle on which the sensor system to be calibrated is attached.
- the vehicle can travel along a route in the vicinity of which at least one reference object is arranged in the field of view of the sensor system.
- the object-side identification index comprises an object-side distance, measured in the world coordinate system, of the respective object-side reference parts to a predefined object-side reference point, the image-side identification index comprising an image-side distance measured in the image coordinate system between the respective image-side reference parts and an image-side reference point determined by the image processing unit.
- the predefined object-side reference point is a reference point in the world coordinate system from which the object-side distance for the respective object-side reference parts is measured.
- the object-side reference point is preferably marked on the reference object, so that the image-side reference point can be determined in a simplified manner by the image processing unit in the image of the reference object. If the ref- reference object assumes a circular shape, an elliptical shape or a square shape (for example with zigzag-shaped edge areas), the object-side reference point is preferably the center of the circular, elliptical or square shape.
- the object-side distance is preferably the distance from the reference point to the object-side reference point. If an object-side reference part is a reference area, the object-side distance is preferably the distance from a center point, for example the geographical center point, or a focus of the reference area to the object-side reference point.
- the image-side reference point is a reference point in the image coordinate system from which the image-side distance for the respective image-side reference parts is measured.
- the image-side reference point can be made, for example, by comparing the image of the reference object with a circular shape, an elliptical shape or a square in the image coordinate system generated by the image processing unit or a computing unit that interacts with it. This is advantageous if the reference object has a circular, elliptical or square shape, the outer edge of which is, for example, zigzag-shaped.
- the image-side reference point can be identified particularly easily.
- the image-side reference point can be identified as the center point of the circular, elliptical or square shape, in which the circular, elliptical or square shape corresponds most to the shape of the image of the reference object.
- the object-side and image-side distances provide geometric information about the reference object that is used to calibrate the sensor to increase the accuracy.
- the image processing unit is designed to carry out a homographic transformation on the captured image-side reference parts.
- the homographic transformation of the reference parts on the image side serves to obtain a new image of the reference object, specifically in such a way as if the image had been recorded from a different perspective.
- the image-side reference parts are projected onto a plane to be determined by the image processing unit. In this way, unwanted visual effects such as distortions and / or rotations of the reference object in the image can at least be reduced.
- the homographic transformation can preferably be carried out before the image-side identification indices and / or the image coordinates of the image-side reference parts are detected. This is particularly advantageous because, for example, the definition of the reference point on the image side is simplified in that the shape of the reference object is retained in the new image due to the elimination of the distortions or rotations.
- the predefined reference object has several, preferably at least four, colors.
- the color information of the reference object can advantageously be used to calibrate the sensor to increase the accuracy.
- the use of four colors enables calibration with reduced computing effort while maintaining reliability.
- the object-side identification index comprises an object-side color index of the respective object-side reference parts, the image-side identification index including an image-side color index of the respective image-side reference parts determined in a color index system of the sensor.
- the reference object has several colors so that a specific color is assigned to each object-side reference part.
- the reference object is related or its surface is divided into several reference areas, each reference area being assigned a color.
- the object-side color index of this reference part is the color of the associated reference area.
- the object-side color index of this reference part is the color of the reference area in which the reference point (for example a corner point) is located.
- the object-related color index can, for example, be a color designation (for example “red”, “green” or “blue”).
- the object-side color index can be based on an object-side color index system (such as the RGB system).
- the colors are to be understood in such a way that two different configurations of the same superordinate color with different contrast values (for example color configurations “dark blue” and “light blue” for the superordinate color “blue”) are to be regarded as two different colors.
- the image-side color indices are preferably created when the object-side color indices are detected by the sensor.
- the color indices on the image side are thus preferably based on a color index system of the sensor, for example an RGB system. The calibration of the sensor is therefore more precise thanks to the color information.
- the image processing unit is designed to determine an image-side sequence of the image-side identification indices along a course of the image-side reference parts.
- the image processing unit is designed, for example, to first define the course of the image-side reference parts and then to determine the image-side sequence of the image-side identification indices.
- the image coordinate indices of the image-side reference parts result in the course in the image coordinate system.
- the course can be in the form of a numbering of the image-side reference parts.
- the image processing unit is designed to receive an object-side sequence of the object-side identification indices along a course of the object-side reference parts.
- the world coordinate indices of the object-side reference parts result in the course in the world coordinate system.
- the course can be present in the form of a numbering of the object-side reference parts.
- the image processing unit is designed to compare the image-side sequence with the object-side sequence in order to determine a correlation value between the image-side and object-side sequence.
- the correlation value indicates the extent to which the object-side identification indices of the object-side sequence correspond to the image-side identification indices of the image-side sequence.
- the correlation value is based, for example, on the number of object-side identification indices in the object-side sequence, the sequence of which corresponds to a sequence of the image-side identification indices of the image-side sequence.
- the correlation value indicates the extent to which the image-side sequence of the image-side distances can be obtained in terms of amount (i.e. dimensionless) by multiplying the object-side sequence of the object-side distances by a common factor.
- the image processing unit is preferably designed to display the object-side and image-side distances in each case as a unit of an object-side or image-side distance. In this case, a comparison between the object-side distances and the image-side distances is dimensionless and simplified.
- the image processing unit is designed to determine the correlation value for several object-side sequences in each case along an associated course of the object-side reference parts in order to identify a maximum and / or an extreme of the correlation value.
- the number of reference parts on the image side can be less than the number of reference parts on the object side. This is the case, for example, when the reference object is positioned during the image acquisition by the sensor of the sensor or the reference object is partially covered by an obstacle.
- the correlation value can vary depending on the sequence on the property side. The maximum or extreme indicates a high degree of correspondence between the sequence on the image side and the sequence on the object side. This reduces the risk of an incorrect choice of the object-side sequence on which the correlation to be determined between the world coordinate system and the image coordinate system is based. The calibration is therefore more reliable.
- the image processing unit is designed to determine the correlation between the image coordinate indices and the world coordinate indices based on an odometric correction factor.
- Odometric data are preferably fed in parallel to the image data or as part of the image data via the input interface of the image processing unit.
- the detection of the reference object from the image data can also take into account the odometric data, so that the calibration is fail-safe from an early phase on.
- the image data contain a plurality of images which are each recorded synchronously by the sensor and by at least one further sensor at a plurality of times.
- the sensors take an image synchronously.
- the image processing unit is preferably designed to process the plurality of images in such a way that, taking into account the time sequence of the images, to perform the calibration.
- the temporal sequence of the images provides additional information that can be used when recognizing the reference parts on the image side and their spatial and temporal information.
- the image processing unit comprises an artificial neural network module.
- the artificial neural network module (ANN module) is based on an artificial neural network (ANN), which comprises one or more algorithms.
- ANN artificial neural network
- the algorithms are trained with data in such a way that it is suitable to be used in the image processing unit. This enables a reliable calibration method.
- the artificial neural network module is designed to classify the reference object against a background in the image.
- image segmentation preferably semantic segmentation, which is particularly simple and precise.
- the artificial neural network module is designed to detect the image-side identification indices and / or the image coordinate indices and / or to determine the correlation between the image coordinate indices and the world coordinate indices.
- the training device is designed to train an ANN so that it is able to capture several image-side reference parts based on image data that contain at least one sensor-generated image of a predefined reference object, with one image-side identification in each case - dex and an image coordinate index, and / or based on the object-side and image-side identification indices to determine a correlation between the image coordinate indices and the world coordinate indices.
- the computer program product according to the invention is designed to be loaded into a memory of a computer and comprises software code sections with which the method steps of the method according to the invention for calibrating a sensor or the method steps of the method according to the invention for training an artificial neural network are carried out when the compu program product is running on the computer.
- a program is part of the software of a data processing system, for example an evaluation device or a computer.
- Software is a collective term for programs and associated data.
- the complement to software is hardware.
- Hardware describes the mechanical and electronic alignment of a data processing system.
- a computer is an evaluation device.
- Computer program products usually comprise a sequence of instructions which, when the program is loaded, cause the hardware to carry out a specific method that leads to a specific result. If the program in question is used on a computer, the computer program product produces a technical effect, namely to increase the accuracy and reliability of the calibration of the sensor
- the computer program product according to the invention is platform independent. That means it can run on any computing platform.
- the computer program product is preferably executed on a device according to the invention for calibrating a sensor for a vehicle or on a device according to the invention for training an artificial neural network.
- the software code sections are written in any programming language, for example in Python.
- the invention is illustrated by way of example in the figures. Show it:
- FIG. 1 shows a schematic representation of an inventive device for calibrating a sensor for a vehicle according to an exemplary embodiment
- FIG. 2 shows a schematic representation of a sensor system comprising a plurality of sensors
- FIG. 3 shows a schematic representation of a reference object comprising a plurality of reference points
- FIG. 4 shows a schematic representation of an image of the reference object from FIG. 3 taken by one of the sensors from FIG. 2;
- FIG. 5 shows a schematic representation of a reference object comprising a plurality of reference points
- FIG. 6 shows a schematic illustration of an image of the reference object from FIG. 5 taken by one of the sensors from FIG. 2;
- FIG. 7 shows a schematic representation of a method for calibrating the sensor according to an exemplary embodiment
- Fig. 8 is a schematic representation of a sensor device according to an Auss approximately example.
- FIG. 1 shows a schematic representation of a device 10 according to the invention for calibrating a sensor 22, 24, 26, 28 for a vehicle 21 according to an embodiment leadership example.
- the sensor 22, 24, 26, 28 and the vehicle 21 are shown schematically in FIG. 2.
- the device 10 has an input interface 12 for inputting image data 18 which contain at least one image, but here, for example, several images 19-1, 19-2, 19-3,... 19-n.
- the image 19-1, 19-2, 19-3, ... 19-n is recorded by the sensor 22, 24, 26, 28 and comprises a predefined colored reference object 34, 42 with several object-side reference parts P1 -P1 1, J1-J9, as shown schematically in FIGS. 3 and 5 by way of example.
- Each of the object-side reference parts P1 -P1 1, J1-J9 are assigned a world coordinate index and an object-side identification index.
- the device 10 also has an image processing unit 14 which is designed to detect several image-side reference parts Q1 -Q5, K1-K7 (see FIGS. 4 and 6) going back to the object-side reference parts P1-P11, J1 -J9.
- the image processing unit 14 is designed to detect an image coordinate index and an image-side identification index for each of the image-side reference parts Q1 -Q5, K1 -K7 in order to establish a correlation between the image coordinate indices of the image-side reference parts based on the object-side identification indices and the image-side identification indices Q1 -Q5, K1 -K7 and the world coordinate indices of the associated object-side reference parts P1 -P1 1, J1 -J9 to be determined.
- the device 10 furthermore has an output interface 16 for outputting the determined correlation to an external entity.
- a further unit for performing further information processing steps can be.
- the further unit can be designed to carry out a non-linear optimization of the determined correlation and / or to obtain extrinsic parameters for the sensor 22, 24, 26, 28 to be calibrated from the determined correlation using intrinsic parameters.
- FIG. 2 shows a schematic representation of a sensor system 25 comprising a plurality of sensors 22, 24, 26, 28.
- the sensors 22, 24, 26, 28 can comprise a camera, a radar sensor, a lidar sensor and / or an ultrasonic sensor.
- the reference object 34 is partially in the field of view of the sensor 22.
- the detection of the reference object 34, 42 results in an image 19 of the reference object 34, 42, which is shown schematically in more detail in FIG.
- FIG. 3 shows a schematic representation of a reference object 34.
- the object-side reference parts are shown as reference points P1-P11 by way of example.
- the reference points P1 -P1 1 are each located in a reference area R1 -R1 1 into which the surface of the reference object 34 is divided.
- the reference areas R1 -R1 1 are shown by way of example. At least four colors can be used, whereby adjacent reference areas R1 -R1 1 can have the same or different colors.
- An associated world coordinate index is assigned to each of the reference points P1 -P11 based on their position in a world coordinate system 36.
- the world coordinate system 36 is shown by way of example in FIG. 3 as a Cartesian coordinate system. Alternatively, another, for example a spherical, coordinate system can also be used for this purpose.
- an object-side color index is assigned to each of the reference points P1 -P1 1.
- the color of a reference area R1 -R1 1 is assigned to the associated reference point P1 -P1 1.
- FIG. 4 shows a schematic representation of the image 19 of the reference object 34 from FIG. 3 recorded by the sensor 22, 24, 26, 28 from FIG. 2 .
- a part of the reference parts Q1 -Q5 on the image side can be seen as reference points and their associated reference areas T1 -T5 in image 19.
- Each of the image-side reference points Q1 -Q5 corresponds to one of the object-side reference points P1 -P1 1, each of the image-side reference areas T 1 -T5 corresponding to one of the object-side reference areas R1 -R1 1.
- an image coordinate index is identified in an image coordinate system 38 when the reference object 34 is detected by the sensor 22.
- a coordinate system with three image axes for the image coordinates u, v and w is shown as the image coordinate system.
- any desired, for example a two-dimensional image coordinate system can be used.
- an image-side color index that goes back to the object-side color indices of the object-side reference points P1 -P1 1 is identified when the reference object 34 is detected by the sensor 22. This is done on the basis of a sensor's own color index system, such as the RGB system.
- the image processing unit 14 is designed to extract (detect) the image coordinate indices and the image-side color indices of the image-side reference points Q1 -Q5 from the image data 18.
- FIG. 5 shows a schematic representation of a further reference object 42.
- the object-side reference parts are shown by way of example as reference points J1-J9.
- the reference points J1 -J9 each lie in a reference area M1 -M9 into which the surface of the reference object 42 is divided.
- the reference areas M1 -M9 are shown by way of example in FIG.
- An associated world coordinate index is assigned to each of the reference points J1 -J9 based on their position in the world coordinate system 36.
- the world coordinate system 36 is shown in Fig. 3 by way of example as a Cartesian coordinate system. Alternatively, a different, for example a spherical, coordinate system can be used for this purpose.
- an object-side distance d 1, d5, d7 is assigned to each of the reference points J1-J9. For reasons of clarity, not all object-side distances are marked with a reference symbol in FIG. 5.
- the respective object-side distance d 1, d5, d7 is measured in the world coordinate system 36, with this is the distance between an object-side center point A and the respective object-side reference point J1 -J9.
- the object-side center point A is here, for example, the center of a circle 44 from which the reference areas M1 -M9 extend radially outward to the respective reference point J1 -J9 with decreasing width.
- FIG. 6 shows a schematic representation of the image 27 of the reference object 42 from FIG. 5 recorded by the sensor 22, 24, 26, 28 from FIG. 2.
- the image 27 shows a part of the reference object 42 which is in the field of vision of the sensor 22 on the object side .
- part of the image-side reference parts K1-K7 as reference points and their associated reference areas N1-N7 can be seen in image 27.
- Each of the image-side reference points K1 -K7 corresponds to one of the object-side reference points J1 -J9, each of the image-side reference areas N1 -N7 corresponding to one of the object-side reference areas M1 -M9.
- an image coordinate index is identified in an image coordinate system 38 when the reference object 42 is detected by the sensor 22.
- a coordinate system with three image axes for the image coordinates u, v and w is shown as the image coordinate system.
- this is not limitative of the present invention. Any desired, for example a two-dimensional image coordinate system can be used.
- an image-side distance 11, 15, I7 that goes back to the object-side distances of the object-side reference points J1 -J9 is detected by the image processing unit 14.
- the respective image-side distance 11, I5, 17 is measured in the image coordinate system 38, this being the distance between an image-side center point B and the respective reference point K1 -K7.
- the image-side center point B is shown by way of example as the center point of the circle 46 of the image of the reference object 42.
- the circle 46 here goes back to the circle 44 of the reference object 42 in FIG. 5.
- the image processing unit 14 is designed to extract (detect) the image coordinate indices and the image-side distances of the image-side reference points K1 -K7 from the image data 18.
- FIG. 7 schematically shows a method 100 according to the invention for calibrating the sensor 22, 24, 26, 28.
- image data 18 are entered which contain at least one image 19-1, 2, recorded by a sensor 22, 24, 26, 28 , 3, ..., n of a predefined reference object 34, 42.
- the reference object 34 comprises several object-side reference parts P1 -P1 1, J1 -J9, each of which is assigned a world coordinate index.
- several image-side reference parts Q1 -Q5, K1-K7 are acquired from the image data, which go back to the several object-side reference parts P1-P11, J 1 -J9.
- an image coordinate index and an image-side identification index are detected from the image data for each of the captured image-side reference parts Q1 -Q5, K1 -K7.
- the image-side identification indexes are output.
- a correlation between the image coordinate indices of the image-side reference parts Q1 -Q5, K1 -K7 and the world coordinate indices of the object-side reference parts P1-P1 1, J1 -J9 is then determined.
- the image processing unit 14 is preferably designed to provide an image-side sequence of the image-side identification indices to be determined.
- This image-side sequence is the sequence of the image-side identification indices of the image-side reference points.
- this image-side sequence corresponds, for example, to the (image-side) course of the image-side reference points Q1 -Q2-Q3-Q4-Q5 (in this order).
- the associated image-side identification indices here are image-side color indices FB1, FB2, FB3, FB4, FB5. Therefore it is the image-side Sequence for the example shown in Fig. 4 around the color index sequence FB1 -FB2-FB3-FB4-FB5.
- the image-side sequence corresponds, for example, to the image-side course K1 -K2-K3-K4-K5-K6-K7 (in this order).
- the associated image-side identification indices here are image-side distances 11, 12, I3, 14, 15, I6, I7. Therefore, the image-side sequence for the example shown in FIG. 6 is the distance sequence 11 -I2-I3-I4-I5-I6-I7.
- the image processing unit 14 is also preferably designed to determine an object-side sequence of the object-side identification indices.
- the object-side sequence for the reference object 34 shown in FIG. 3 corresponds, for example, to any (object-side) course of the object-side reference points P1 -P1 1, with the number of object-side reference points P1 -P1 1 being the number of image-side reference points Q1 to Q5 preferably corresponds to five.
- the object-side sequence can correspond to the object-side course P1-P2-P3-P4-P5 (in this order).
- the associated object-side identification indices are object-side color indices F01, F02, F03, F04, F05.
- the exemplary object-side sequence for the example shown in FIG. 3 is therefore the color index sequence F01-F02-F03-F04-F05.
- the object-side sequence for the reference object 42 shown in FIG. 5 corresponds, for example, to any (object-side) course of the object-side reference points J1 -J9, with the number of object-side reference points J1 -J9 preferably corresponding to the number of image-side reference points K1-K7 and thus is seven.
- the object-side sequence can correspond to the object-side course J1 -J2-J3-J4-J5 (in this order).
- the associated object-side identification indices are object-side distances d1, d2, d3, d4, d5, d6, d7.
- the object-side sequence for the example shown in FIG. 3 can be F06-F07-F08-F09-F010.
- the object-side sequence for the example shown in FIG. 5 can be d3-d4-d5-d6-d7-d8-d9.
- the image processing unit 14 is preferably designed to compare the image-side sequence with each of the multiple possible object-side sequences and to determine a correlation value in each case.
- the correlation value is preferably measured by the extent to which an object-side sequence corresponds to the image-side sequence.
- the image-side color index sequence FB1 -FB2-FB3-FB4-FB5 is compared with the object-side color index sequence F01 -F02-F03-F04-F05.
- the image-side and object-side color indices are preferably translated into a common color index system so that a direct comparison is possible. If the order of the two color index sequences is the same for all five color indexes, the correlation value is the highest. If the order of the two color index sequences is the same for four of the five color indexes, the correlation value is lower. The higher the number of color indices in which the two color index sequences match one another, the higher the correlation value.
- the image-side distance sequence 11 -I2-I3-I4-I5-I6-I7 is compared with the object-side distance sequence d3-d4-d5-d6-d7-d8-d9.
- the two distance sequences are preferably compared with one another in terms of absolute value or dimensionlessly, so that a direct comparison between the distance sequences is possible. If the two distance sequences agree with one another for all seven distances in their order except for a factor common to all seven values, the correlation value is the highest. If the two distance sequences in six of the seven distances agree in their order except for the common factor, the correlation value is lower. The higher the number of distances in which the two distance follow each other except for a common factor, the higher the correlation value.
- the image processing unit 14 is preferably designed to change the object-side profile by one or more object-side reference parts after determining the correlation value and then to determine a correlation value corresponding to the changed object-side profile. This process can continue iteratively until a maximum or extreme of the correlation value is determined.
- the object-side sequence with the highest correlation value is preferably used as the basis for determining the correlation.
- the image coordinate indices of the image-side reference parts are related to the world coordinate indices of the object-side reference parts of this particular object-side sequence in order to obtain a transmission ratio between the two coordinate systems.
- FIG. 8 schematically shows a sensor device 50 comprising the sensor system 25 shown in FIG. 2 with the multiple sensors 22, 24, 26, 28 and the calibration device 10 shown in FIG. 1 for calibrating the sensors 22, 24, 26, 28.
- the sensor device 50 is attached to a calibration platform 23, which preferably includes a vehicle. An offline and / or online calibration is thus possible by means of the calibration device 10 according to the invention.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
Kalibrierung eines Sensors für ein Fahrzeug basierend auf obiektseitiqen und bildsei- tiqen Identifikationsindizes eines Referenzobiektes Calibration of a sensor for a vehicle based on object-side and image-side identification indices of a reference object
Die vorliegende Erfindung betrifft eine Vorrichtung zum Kalibrieren eines Sensors für ein Fahrzeug nach Anspruch 1. Ferner betrifft die Erfindung eine Sensoreinrichtung zum Erfassen eines Umfelds eines Fahrzeugs nach Anspruch 13. Die Erfindung be trifft zusätzlich die Verwendung einer solchen Vorrichtung oder einer solchen Sen soreinrichtung in einem Fahrzeug nach Anspruch 14. Außerdem betrifft die Erfindung ein Verfahren zum Kalibrieren eines Sensors für ein Fahrzeug nach Anspruch 15. Schließlich betrifft die Erfindung ein Computerprogrammprodukt nach Anspruch 17. The present invention relates to a device for calibrating a sensor for a vehicle according to claim 1. Furthermore, the invention relates to a sensor device for detecting the surroundings of a vehicle according to claim 13. The invention also relates to the use of such a device or such a sensor device in one Vehicle according to claim 14. The invention also relates to a method for calibrating a sensor for a vehicle according to claim 15. Finally, the invention relates to a computer program product according to claim 17.
Sensorsysteme, die einen oder mehrere Sensoren umfassen, werden zunehmend in Fahrzeugen, insbesondere in deren Fahrerassistenzsystemen und Sicherheitssyste men, eingesetzt, um das Umfeld des Fahrzeugs zu erfassen. Derartige Sensoren können beispielsweise Kameras, Radare und/oder Light Detection and Ranging De vices (nachfolgend: Lidare) sein. Ein solcher Sensor dient dazu, Bilder vom Umfeld des Fahrzeugs aufzunehmen und anhand einer Bildauswertung Objekte zu erken nen, die für das Fahrzeug ein potentielles Hindernis beim Fahren darstellen. Es kann anhand einer solchen Objekterkennung der Abstand zwischen dem Fahrzeug und dem Objekt ermittelt werden, um gegebenenfalls beim Unterschreiten eines kriti schen Abstandes eine Gegenmaßnahme zu ergreifen, beispielsweise das Fahrzeug zu bremsen oder ein Warnsignal auszulösen. Auf diese Weise können Kollisionen zwischen dem Fahrzeug und Objekten, etwa Personen, Bebauungen, anderen Fahr zeugen oder Vegetationen, vermieden oder zumindest das Risiko hierfür reduziert werden. Sensor systems that include one or more sensors are increasingly being used in vehicles, especially in their driver assistance systems and security systems, in order to detect the surroundings of the vehicle. Such sensors can, for example, be cameras, radars and / or light detection and ranging devices (hereinafter: lidars). Such a sensor is used to take pictures of the surroundings of the vehicle and to use an image evaluation to recognize objects that represent a potential obstacle for the vehicle when driving. The distance between the vehicle and the object can be determined on the basis of such an object detection in order to take a countermeasure if the distance falls below a critical rule, for example to brake the vehicle or to trigger a warning signal. In this way, collisions between the vehicle and objects, such as people, buildings, other vehicles or vegetation, can be avoided or at least the risk thereof can be reduced.
Um jedoch eine zuverlässige Objekterkennung zu bewerkstelligen, sind die Sensoren zu kalibrieren. Unter Kalibration wird ein Prozess verstanden, in dem die Korrelation zwischen einem Bildkoordinatensystem, in dem die vom jeweiligen Sensor aufge nommenen Bilder angezeigt werden und das für jeden Sensor spezifisch ist, und ei nem Weltkoordinatensystem, das sensorunspezifisch und für alle Sensoren allge mein gültig ist, ermittelt wird. Das jeweilige Bildkoordinatensystem wird daher mit dem Weltkoordinatensystem in ein Übersetzungsverhältnis gesetzt, anhand dessen jede Bildkoordinate mittels einer entsprechenden Weltkoordinate darstellbar ist. However, in order to achieve reliable object detection, the sensors must be calibrated. Calibration is a process in which the correlation between an image coordinate system, in which the images recorded by the respective sensor are displayed and which is specific for each sensor, and a world coordinate system, which is sensor-unspecific and generally valid for all sensors, is determined. The respective image coordinate system is therefore with the world coordinate system is set in a transmission ratio, based on which each image coordinate can be represented by means of a corresponding world coordinate.
Kalibriervorrichtungen und -verfahren sind beispielsweise aus WO 2018/000037 A1 bekannt, die ein System und Verfahren zur Bestimmung einer Kamerahaltung inner halb einer Fahrzeugszene offenbart. Das dortige Verfahren umfasst einen ersten Schritt, in dem ein Bild der Fahrzeugszene durch die Kamera aufgenommen wird.Calibration devices and methods are known, for example, from WO 2018/000037 A1, which discloses a system and method for determining a camera position within a vehicle scene. The method there includes a first step in which an image of the vehicle scene is recorded by the camera.
Das Verfahren umfasst ferner einen zweiten Schritt, in dem Referenzdaten geladen werden, die auf die Fahrzeugszene hindeuten, wobei die Referenzdaten Positionen und Ausrichtungen von bekannten Merkmalen innerhalb der Fahrzeugszene umfas sen. Das bekannte Verfahren umfasst außerdem einen dritten Schritt, in dem die ge ometrische Erscheinung eines oder mehrerer der bekannten Merkmale innerhalb des Bildes identifiziert werden. Schließlich umfasst das bekannte Verfahren einen vierten Schritt, in dem die dreidimensionale Position und Ausrichtung der Kamera relativ zu den bekannten Merkmalen, die im dritten Schritt identifiziert wurden, ausgehend von der geometrischen Erscheinung bestimmt werden und eine Kamerahaltung innerhalb der Fahrzeugszene berechnet wird. The method further comprises a second step in which reference data are loaded which indicate the vehicle scene, the reference data comprising positions and orientations of known features within the vehicle scene. The known method also includes a third step in which the geometric appearance of one or more of the known features within the image are identified. Finally, the known method includes a fourth step in which the three-dimensional position and orientation of the camera relative to the known features that were identified in the third step are determined based on the geometric appearance and a camera position is calculated within the vehicle scene.
Die bekannten Kalibriervorrichtungen und -verfahren sind jedoch mit dem Nachteil behaftet, dass die Kalibrierung der Sensoren mittels dieser Vorrichtungen bzw. Ver fahren den in immer steigenden hohen Anforderungen an die Genauigkeit und Zuver lässigkeit nicht gerecht werden können. Beispielsweise sind diese Kalibriervorrich tungen und -verfahren anfällig gegen Verdeckungen von Objektteilen, bei denen die Referenzobjekte aufgrund ihrer Lage oder anderer im Sichtfeld der Sensoren befind lichen Objekte nicht vollständig vom Sensor erfasst werden können. Dies kann zu fehlerhaften Abstandsmessungen führen, die die Funktionalität der Fahrerassistenz- und Sicherheitssysteme beeinträchtigen und sicherheitskritische Situationen verursa chen. The known calibration devices and methods, however, have the disadvantage that the calibration of the sensors by means of these devices or processes cannot meet the ever-increasing demands on accuracy and reliability. For example, these calibration devices and methods are susceptible to obscuring object parts in which the reference objects cannot be completely detected by the sensor due to their position or other objects located in the field of view of the sensors. This can lead to incorrect distance measurements, which impair the functionality of the driver assistance and safety systems and cause safety-critical situations.
Aufgabe der vorliegenden Erfindung ist daher, die bekannten Kalibriervorrichtungen - und Verfahren dahingehend zu verbessern, dass deren Genauigkeit und Zuverläs sigkeit erhöht sind. Die Aufgabe wird gelöst durch eine Vorrichtung zum Kalibrieren eines Sensors für ein Fahrzeug mit den Merkmalen des Anspruchs 1. Ferner wird die Aufgabe gelöst durch eine Sensoreinrichtung zum Erfassen eines Umfelds eines Fahrzeugs mit den Merk malen des Anspruchs 13. Zusätzlich wird die Aufgabe gelöst durch die Verwendung einer solchen Vorrichtung in einem Fahrzeug mit den Merkmalen des Anspruchs 14. Außerdem wird die Aufgabe gelöst durch ein Verfahren zum Kalibrieren eines Sen sors für ein Fahrzeug mit den Merkmalen des Anspruchs 15. Schließlich wird die Aufgabe gelöst durch ein Com puterprogramm produkt mit den Merkmalen des An spruchs 16. The object of the present invention is therefore to improve the known calibration devices and methods in such a way that their accuracy and reliability are increased. The object is achieved by a device for calibrating a sensor for a vehicle having the features of claim 1. Furthermore, the object is achieved by a sensor device for detecting the surroundings of a vehicle with the characteristics of claim 13. In addition, the object is achieved by Use of such a device in a vehicle with the features of claim 14. In addition, the object is achieved by a method for calibrating a sensor for a vehicle with the features of claim 15. Finally, the object is achieved by a computer program product with the features of claim 16.
Der Sensor, der vorzugsweise am Fahrzeug angebracht ist, ist dazu ausgebildet, ein Bild des Referenzobjektes aufzunehmen. Der Sensor ist beispielsweise eine Kamera, ein Radarsensor, ein Lidarsensor, ein Ultraschallsensor oder ein anderes bildgeben des Gerät. Der Sensor kann in einem Sensorsystem umfassend mehrere Sensoren integriert sein, die beispielsweise an verschiedenen Positionen des Fahrzeugs ange bracht sind. Die mehreren Sensoren umfassen eine Kamera, einen Radarsensor, einen Lidarsensor, einen Ultraschallsensor und/oder ein anderes bildgebendes Ge rät. In diesem Fall ist die erfindungsgemäße Vorrichtung vorzugsweise dazu ausge bildet, das Sensorsystem zu kalibrieren. The sensor, which is preferably attached to the vehicle, is designed to record an image of the reference object. The sensor is, for example, a camera, a radar sensor, a lidar sensor, an ultrasonic sensor or another imaging device of the device. The sensor can be integrated in a sensor system comprising a plurality of sensors that are, for example, placed in different positions of the vehicle. The multiple sensors include a camera, a radar sensor, a lidar sensor, an ultrasound sensor and / or another imaging device. In this case, the device according to the invention is preferably designed to calibrate the sensor system.
Die vom Sensor erzeugten Bilddaten enthalten zumindest ein Bild des vordefinierten Referenzobjektes. Das Referenzobjekt weist eine bestimmte geometrische Form, beispielsweise eine zweidimensionale oder dreidimensionale Form, und/oder ein be stimmtes zweidimensionales oder dreidimensionales Muster auf. Vorzugsweise ist das Referenzobjekt kreisförmig, ellipsenförmig, quadratisch, hexagonal oder sichel förmig ausgebildet. Weiter vorzugsweise weist das Referenzobjekt einen kreisförmi gen, ellipsenförmigen oder quadratischen Kernbereich auf, der einen zick -zack- förmigen Randbereich mit mehreren Eckbereichen umfasst, die jeweils durch zwei sich in einem Eckpunkt schneidenden Seiten radial begrenzt sind. The image data generated by the sensor contain at least one image of the predefined reference object. The reference object has a certain geometric shape, for example a two-dimensional or three-dimensional shape, and / or a certain two-dimensional or three-dimensional pattern. The reference object is preferably circular, elliptical, square, hexagonal or sickle-shaped. Furthermore, the reference object preferably has a circular, elliptical or square core area which comprises a zigzag-shaped edge area with several corner areas which are each radially delimited by two sides intersecting at a corner point.
Das Referenzobjekt kann vollständig oder teilweise im Bild (bzw. in den Bildern) ent halten sein. Dies bedeutet, dass die jeweiligen Bilder zeigen das Referenzobjekt von einer bestimmten Perspektive der jeweiligen Sensoren heraus vollständig oder teil weise. The reference object can be wholly or partially contained in the image (or in the images). This means that the respective images show the reference object of a certain perspective of the respective sensors out completely or partially.
Die objektseitigen Referenzteile sind auf dem Referenzobjekt räumlich beziehungs weise flächig (im Fall eines zweidimensionalen Referenzobjektes) verteilt. Die objekt seitigen Referenzteile sind beispielsweise mehrere Referenzbereiche der Oberfläche des dreidimensionalen Referenzobjektes beziehungsweise mehrere Referenzberei che des zweidimensionalen Referenzobjektes. Alternativ oder zusätzlich kann zu mindest eines der objektseitigen Referenzteile einen Referenzpunkt umfassen, der in einem der Referenzbereiche angeordnet ist. Dies schließt auch den Fall ein, dass ein Referenzpunkt in einem Randabschnitt eines Referenzbereichs oder auf einer Kante eines Referenzbereichs angeordnet ist. Vorzugsweise umfasst zumindest ein Refe renzpunkt einen Eckpunkt der vorgenannten Zick-Zack-Form. The object-side reference parts are spatially or flatly distributed on the reference object (in the case of a two-dimensional reference object). The object-side reference parts are, for example, several reference areas of the surface of the three-dimensional reference object or several reference areas of the two-dimensional reference object. Alternatively or additionally, at least one of the object-side reference parts can comprise a reference point which is arranged in one of the reference areas. This also includes the case that a reference point is arranged in an edge section of a reference area or on an edge of a reference area. At least one reference point preferably comprises a corner point of the aforementioned zigzag shape.
Der Weltkoordinatenindex umfasst eine Koordinateninformation der jeweiligen ob jektseitigen Referenzteile. Hierbei bezieht sich die Koordinateninformation auf ein Weltkoordinatensystem. Das Weltkoordinatensystem ist ein vom Bildkoordinatensys tem des Sensors verschiedenes Bezugssystem. Das Weltkoordinatensystem kann beispielsweise ein Koordinatensystem des Fahrzeugs, der Umgebung des Fahr zeugs, des Sensorgehäuses oder eines anderen Gehäuses sein. Das Weltkoordina tensystem kann ein kartesisches oder ein sphärisches Koordinatensystem sein. Das Weltkoordinatensystem ist vorzugsweise so gewählt, dass für mehrere der objektsei tigen Referenzteile des Referenzobjektes eine der Koordinaten, beispielsweise ent lang der z-Achse, den Wert Null annimmt (z=0). The world coordinate index comprises coordinate information of the respective object-side reference parts. Here, the coordinate information relates to a world coordinate system. The world coordinate system is a reference system that differs from the image coordinate system of the sensor. The world coordinate system can be, for example, a coordinate system of the vehicle, the surroundings of the vehicle, the sensor housing or another housing. The world coordinate system can be a Cartesian or a spherical coordinate system. The world coordinate system is preferably selected such that one of the coordinates, for example along the z-axis, assumes the value zero for several of the object-side reference parts of the reference object (z = 0).
Für den Fall, dass ein objektseitiges Referenzteil ein Referenzbereich ist, umfasst der Weltkoordinatenindex beispielsweise eine Koordinateninformation eines in die sem Referenzbereich liegenden Punktes respektive des Weltkoordinatensystems.In the event that an object-side reference part is a reference area, the world coordinate index includes, for example, coordinate information of a point located in this reference area or of the world coordinate system.
Für den Fall, dass ein objektseitiges Referenzteil ein Referenzpunkt ist, umfasst der Weltkoordinatenindex eine Koordinateninformation des Referenzpunktes respektive des Weltkoordinatensystems. Der objektseitige Identifikationsindex dient dazu, die objektseitigen Referenzteile zu sätzlich zu ihrem Weltkoordinatenindex zu spezifizieren. Der objektseitige Identifika tionsindex bezieht sich auf eine oder mehrere Eigenschaften der jeweiligen objektsei tigen Referenzteile. Beispielsweise kann sich der objektseitige Identifikationsindex auf eine Position, Orientierung, Form und/oder eine Erscheinungseigenschaft der jeweiligen objektseitigen Referenzteile beziehen. In the event that an object-side reference part is a reference point, the world coordinate index includes coordinate information of the reference point or the world coordinate system. The object-side identification index is used to specify the object-side reference parts in addition to their world coordinate index. The object-side identification index relates to one or more properties of the respective object-side reference parts. For example, the object-side identification index can relate to a position, orientation, shape and / or an appearance property of the respective object-side reference parts.
Der Weltkoordinatenindex und/oder der objektseitige Identifikationsindex können zumindest teilweise zu den Bilddaten gehören. Alternativ oder zusätzlich können der Weltkoordinatenindex und/oder der objektseitige Identifikationsindex zu einem von den Bilddaten separaten Datenpaket gehören, das der Bildprozessiereinheit bei spielsweise über die Eingangsschnittstelle zugeführt werden kann. The world coordinate index and / or the object-side identification index can at least partially belong to the image data. Alternatively or additionally, the world coordinate index and / or the object-side identification index can belong to a data packet which is separate from the image data and which can be fed to the image processing unit, for example, via the input interface.
Durch die Aufnahme des vordefinierten Referenzobjektes mittels des Sensors wer den die objektseitigen Referenzteile in die bildseitigen Referenzteile abgebildet. Inso fern entsprechen die bildseitigen Referenzteile den objektseitigen Referenzteilen. By recording the predefined reference object by means of the sensor, the object-side reference parts are mapped into the image-side reference parts. In this respect, the reference parts on the image side correspond to the reference parts on the object side.
Die Bildprozessiereinheit ist dazu ausgebildet, das vordefinierte Referenzobjekt, ins besondere die bildseitigen Referenzteile aus den Bilddaten zu entnehmen. Die ob jektseitigen Referenzteile sind durch das Design des Referenzobjektes festgelegt.The image processing unit is designed to take the predefined reference object, in particular the image-side reference parts, from the image data. The object-side reference parts are determined by the design of the reference object.
Die bildseitigen Referenzteile können je nach Perspektive des verwendeten Sensors und äußeren Parametern wie Helligkeit vom Bild zum Bild verschieden sein. The image-side reference parts can be different from image to image depending on the perspective of the sensor used and external parameters such as brightness.
Der Bildkoordinatenindex umfasst eine Koordinateninformation der jeweiligen bildsei tigen Referenzteile. Die Koordinateninformation bezieht sich hierbei auf ein Bildkoor dinatensystem. Das Bildkoordinatensystem ist ein Bezugssystem, relativ zu dem die Bildpunkte des vom Sensor aufgenommenen Bildes, beispielsweise Pixel und/oder Voxel, auf einer Bildanzeigeoberfläche räumlich beziehungsweise flächig definiert sind. Die Koordinateninformation im Bildkoordinatensystem kann eine oder mehrere Koordinaten des Bildkoordinatensystems umfassen. The image coordinate index comprises coordinate information of the respective reference parts on the image side. The coordinate information relates to an image coordinate system. The image coordinate system is a reference system relative to which the image points of the image recorded by the sensor, for example pixels and / or voxels, are spatially or flatly defined on an image display surface. The coordinate information in the image coordinate system can include one or more coordinates of the image coordinate system.
Für den Fall, dass ein bildseitiges Referenzteil ein Referenzbereich ist, umfasst der Bildkoordinatenindex beispielsweise eine Koordinateninformation eines in diesem Referenzbereich liegenden Punktes im Bildkoordinatensystem. Für den Fall, dass ein bildseitiges Referenzteil ein Referenzpunkt ist, umfasst der Bildkoordinatenindex eine Koordinateninformation des Referenzpunktes im Bildkoordinatensystem. In the event that a reference part on the image side is a reference area, the image coordinate index includes, for example, coordinate information of one in this Reference area of the lying point in the image coordinate system. In the event that a reference part on the image side is a reference point, the image coordinate index includes coordinate information of the reference point in the image coordinate system.
Die Korrelation zwischen den Weltkoordinatenindizes und den Bildkoordinatenindizes entspricht dem Übersetzungsverhältnis zwischen dem Weltkoordinatensystem und dem Bildkoordinatensystem. Die erfindungsgemäße Kalibriervorrichtung ist also dazu ausgebildet, eine Korrelation zwischen dem Weltkoordinatensystem und dem Bildko ordinatensystem zu ermitteln, anhand derer Koordinaten eines der beiden Koordina tensysteme in das jeweils andere der beiden Koordinatensysteme übersetzt werden können und/oder umgekehrt. The correlation between the world coordinate indices and the image coordinate indices corresponds to the transmission ratio between the world coordinate system and the image coordinate system. The calibration device according to the invention is thus designed to determine a correlation between the world coordinate system and the image coordinate system, based on which coordinates of one of the two coordinate systems can be translated into the other of the two coordinate systems and / or vice versa.
Die Korrelation kann von der Bildprozessiereinheit ermittelt werden. Alternativ oder zusätzlich kann die Korrelation von einer externen Recheneinheit, etwa einem Cloud- System, dem die objektseitigen und bildseitigen Identifikationsindizes zugeführt wer den können, basierend auf diesen die Korrelation ermitteln. The correlation can be determined by the image processing unit. Alternatively or additionally, the correlation can be determined by an external processing unit, for example a cloud system, to which the object-side and image-side identification indices can be supplied, based on these.
Die ermittelte Korrelation kann dazu dienen, Raumparameter wie Positionen und/oder Orientierungen des Sensors beziehungsweise der Sensoren im Weltkoordi natensystem (so genannte extrinsische Parameter) zu bestimmen. Beispielsweise kann die ermittelte Korrelation in einem weiteren Informationsverarbeitungsschritt mittels der von der Bildprozessiereinheit oder einer zusätzlichen Recheneinheit durchzuführenden nicht-linearen Optimierung weiter optimiert werden. Alternativ oder zusätzlich können so genannte intrinsische Parameter von der Bildprozessiereinheit oder der zusätzlichen Recheneinheit verwendet werden, um die extrinsischen Para meter des Sensors zu bestimmen. The determined correlation can be used to determine spatial parameters such as positions and / or orientations of the sensor or the sensors in the world coordinate system (so-called extrinsic parameters). For example, the determined correlation can be further optimized in a further information processing step by means of the non-linear optimization to be carried out by the image processing unit or an additional processing unit. As an alternative or in addition, so-called intrinsic parameters can be used by the image processing unit or the additional computing unit in order to determine the extrinsic parameters of the sensor.
Durch die Berücksichtigung der Identifikationsindizes der Referenzteile ist die Kalib rierung des Sensors verbessert. Insbesondere ist eine Kalibrierung selbst dann mit hinreichender Genauigkeit und Zuverlässigkeit durchführbar, wenn das Referenzob jekt teilweise verdeckt ist bzw. nur ein kleiner Teil der Referenzteile des Referenzob jektes vom Sensor erfassbar sind. In diesem Fall können die verdeckten Referenztei le nicht bei der Kalibrierung berücksichtigt werden. Dieses Informationsdefizit kann durch die in den Identifikationsindizes enthaltenen zusätzlichen Informationen der nicht verdeckten Referenzteile vorteilhafterweise kompensiert werden. The calibration of the sensor is improved by taking into account the identification indices of the reference parts. In particular, calibration can be carried out with sufficient accuracy and reliability even if the reference object is partially covered or only a small part of the reference parts of the reference object can be detected by the sensor. In this case, the hidden reference parts cannot be taken into account in the calibration. This information deficit can can be advantageously compensated by the additional information contained in the identification indexes of the non-covered reference parts.
Die erfindungsgemäße Kalibriervorrichtung ist dazu ausgebildet, in einer Offline- Kalibrierung verwendet zu werden. Dabei wird eine Kalibrierbühne (beispielsweise ein Fahrzeug), die mit einem zu kalibrierenden Sensorsystem versehen ist, in einem Ort angeordnet, in dem sich zumindest ein Referenzobjekt im Blickfeld des Sensor systems befindet. Die vom Sensorsystem erzeugten Bilddaten können der erfin dungsgemäßen Vorrichtung zwecks Kalibrierung zugeführt werden. Die Kalibriervor richtung kann an der Kalibrierbühne angebracht sein. Alternativ kann die Kalibriervor richtung extern angeordnet sein. The calibration device according to the invention is designed to be used in an offline calibration. A calibration platform (for example a vehicle), which is provided with a sensor system to be calibrated, is arranged in a location in which at least one reference object is in the field of view of the sensor system. The image data generated by the sensor system can be fed to the device according to the invention for the purpose of calibration. The calibration device can be attached to the calibration platform. Alternatively, the calibration device can be arranged externally.
Alternativ oder zusätzlich kann die erfindungsgemäße Kalibriervorrichtung in einer Online-Kalibrierung verwendet werden. Dabei handelt es sich bei der der Kalibrier bühne um das Fahrzeug, an dem das zu kalibrierende Sensorsystem angebracht ist. Das Fahrzeug kann entlang einer Strecke fahren, in deren Umgebung zumindest ein Referenzobjekt im Blickfeld des Sensorsystems angeordnet ist. Alternatively or in addition, the calibration device according to the invention can be used in an online calibration. The calibration platform is the vehicle on which the sensor system to be calibrated is attached. The vehicle can travel along a route in the vicinity of which at least one reference object is arranged in the field of view of the sensor system.
Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den Unteransprüchen an gegeben. Advantageous refinements and developments are given in the subclaims.
In einer bevorzugten Ausgestaltung umfasst der objektseitige Identifikationsindex einen im Weltkoordinatensystem gemessenen objektseitigen Abstand der jeweiligen objektseitigen Referenzteile zu einem vordefinierten objektseitigen Bezugspunkt, wobei der bildseitige Identifikationsindex einen im Bildkoordinatensystem gemesse nen bildseitigen Abstand der jeweiligen bildseitigen Referenzteile zu einem von der Bildprozessiereinheit bestimmten bildseitigen Bezugspunkt umfasst. In a preferred embodiment, the object-side identification index comprises an object-side distance, measured in the world coordinate system, of the respective object-side reference parts to a predefined object-side reference point, the image-side identification index comprising an image-side distance measured in the image coordinate system between the respective image-side reference parts and an image-side reference point determined by the image processing unit.
Der vordefinierte objektseitige Bezugspunkt ist ein Bezugspunkt im Weltkoordinaten system, von dem ausgehend der objektseitige Abstand für die jeweiligen objektseiti gen Referenzteile gemessen ist. Der objektseitige Bezugspunkt ist vorzugsweise am Referenzobjekt markiert, sodass im Bild des Referenzobjektes der bildseitige Be zugspunkt von der Bildprozessiereinheit vereinfacht bestimmbar ist. Wenn das Refe- renzobjekt eine Kreisform, eine Ellipsenform oder eine quadratische Form annimmt (beispielsweise mit zick-zack-förmigen Randbereichen), ist der objektseitige Bezugs punkt vorzugsweise der Mittelpunkt der Kreis-, Ellipsenform beziehungsweise der quadratischen Form. The predefined object-side reference point is a reference point in the world coordinate system from which the object-side distance for the respective object-side reference parts is measured. The object-side reference point is preferably marked on the reference object, so that the image-side reference point can be determined in a simplified manner by the image processing unit in the image of the reference object. If the ref- reference object assumes a circular shape, an elliptical shape or a square shape (for example with zigzag-shaped edge areas), the object-side reference point is preferably the center of the circular, elliptical or square shape.
Wenn ein objektseitiges Referenzteil ein Referenzpunkt ist, ist der objektseitige Ab stand vorzugsweise der Abstand vom Referenzpunkt zum objektseitigen Bezugs punkt. Wenn ein objektseitiges Referenzteil ein Referenzbereich ist, ist der objektsei tige Abstand vorzugsweise der Abstand von einem Mittelpunkt, etwa dem geografi schen Mittelpunkt, oder einem Schwerpunkt des Referenzbereichs zum objektseiti gen Bezugspunkt. If an object-side reference part is a reference point, the object-side distance is preferably the distance from the reference point to the object-side reference point. If an object-side reference part is a reference area, the object-side distance is preferably the distance from a center point, for example the geographical center point, or a focus of the reference area to the object-side reference point.
Der bildseitige Bezugspunkt ist ein Bezugspunkt im Bildkoordinatensystem, von dem aus der bildseitige Abstand für die jeweiligen bildseitigen Referenzteile gemessen ist. Der bildseitige Bezugspunkt kann beispielsweise durch Vergleichen des Bildes des Referenzobjektes mit einer von der Bildprozessiereinheit oder einer mit dieser zu sammenwirkenden Recheneinheit erzeugten Kreisform, einer Ellipsenform oder ei nes Quadrates im Bildkoordinatensystem erfolgen. Dies ist vorteilhaft, wenn das Re ferenzobjekt eine Kreis-, Ellipsenform oder eine quadratische Form aufweist, deren Außenrand beispielsweise zick-zack-förmig ist. Dabei kann durch Variieren der Grö ße und/oder Position der Kreis-, Ellipsen- beziehungsweise quadratischen Form der bildseitige Bezugspunkt besonders einfach identifiziert werden. Beispielsweise kann der bildseitige Bezugspunkt als der Mittelpunkt der Kreis-, Ellipsen- beziehungsweise quadratischen Form identifiziert werden, bei dem die Kreis-, Ellipsen- beziehungs weise quadratische Form der Form des Bildes des Referenzobjektes am meisten entspricht. The image-side reference point is a reference point in the image coordinate system from which the image-side distance for the respective image-side reference parts is measured. The image-side reference point can be made, for example, by comparing the image of the reference object with a circular shape, an elliptical shape or a square in the image coordinate system generated by the image processing unit or a computing unit that interacts with it. This is advantageous if the reference object has a circular, elliptical or square shape, the outer edge of which is, for example, zigzag-shaped. By varying the size and / or position of the circular, elliptical or square shape, the image-side reference point can be identified particularly easily. For example, the image-side reference point can be identified as the center point of the circular, elliptical or square shape, in which the circular, elliptical or square shape corresponds most to the shape of the image of the reference object.
Vorteilhafterweise liefern die objektseitigen und bildseitigen Abstände geometrische Informationen über das Referenzobjekt, die zur Kalibrierung des Sensors genauig keitserhöhend genutzt werden. In einer weiteren bevorzugten Ausgestaltung ist die Bildprozessiereinheit dazu aus gebildet, eine homographische Transformation an den erfassten bildseitigen Refe renzteilen durchzuführen. Advantageously, the object-side and image-side distances provide geometric information about the reference object that is used to calibrate the sensor to increase the accuracy. In a further preferred embodiment, the image processing unit is designed to carry out a homographic transformation on the captured image-side reference parts.
Die homographische Transformation der bildseitigen Referenzteile dient dazu, ein neues Bild des Referenzobjektes zu erhalten, und zwar derart, als wäre das Bild un ter einer anderen Perspektive aufgenommen worden. Beispielsweise werden die bildseitigen Referenzteile auf eine von der Bildprozessiereinheit zu bestimmende Ebene projiziert. Auf diese Weise können ungewollte visuelle Effekte wie Verzerrun gen und/oder Verdrehungen des Referenzobjektes im Bild zumindest reduziert wer den. Vorzugsweise kann die homographische Transformation durchgeführt werden, bevor die bildseitigen Identifikationsindizes und/oder die Bildkoordinaten der bildsei tigen Referenzteile detektiert werden. Dies ist besonders vorteilhaft, da beispielswei se das Festlegen des bildseitigen Bezugspunktes vereinfacht ist, indem die Form des Referenzobjektes im neuen Bild aufgrund des Wegfallens der Verzerrungen bezie hungsweise Verdrehungen erhalten bleibt. The homographic transformation of the reference parts on the image side serves to obtain a new image of the reference object, specifically in such a way as if the image had been recorded from a different perspective. For example, the image-side reference parts are projected onto a plane to be determined by the image processing unit. In this way, unwanted visual effects such as distortions and / or rotations of the reference object in the image can at least be reduced. The homographic transformation can preferably be carried out before the image-side identification indices and / or the image coordinates of the image-side reference parts are detected. This is particularly advantageous because, for example, the definition of the reference point on the image side is simplified in that the shape of the reference object is retained in the new image due to the elimination of the distortions or rotations.
In einer weiteren bevorzugten Ausgestaltung trägt das vordefinierte Referenzobjekt mehrere, vorzugsweise zumindest vier Farben. In a further preferred embodiment, the predefined reference object has several, preferably at least four, colors.
Vorteilhafterweise können die Farbinformationen des Referenzobjektes zusätzlich zu den Weltkoordinaten zur Kalibrierung des Sensors genauigkeitserhöhend genutzt werden. Die Verwendung von vier Farben ermöglicht eine Kalibrierung mit reduzier tem Rechenaufwand bei gleichzeitig erhaltener Zuverlässigkeit. In addition to the world coordinates, the color information of the reference object can advantageously be used to calibrate the sensor to increase the accuracy. The use of four colors enables calibration with reduced computing effort while maintaining reliability.
In einer weiteren bevorzugten Ausgestaltung umfasst der objektseitige Identifikati onsindex einen objektseitigen Farbindex der jeweiligen objektseitigen Referenzteile, wobei der bildseitige Identifikationsindex einen in einem Farbindexsystem des Sen sors bestimmten bildseitigen Farbindex der jeweiligen bildseitigen Referenzteile um fasst. In a further preferred embodiment, the object-side identification index comprises an object-side color index of the respective object-side reference parts, the image-side identification index including an image-side color index of the respective image-side reference parts determined in a color index system of the sensor.
Das Referenzobjekt trägt mehrere Farben, sodass jedem objektseitigen Referenzteil eine spezifische Farbe zugeordnet ist. Beispielsweise ist das Referenzobjekt bezie- hungsweise dessen Oberfläche in mehrere Referenzbereiche unterteilt, wobei jedem Referenzbereich eine Farbe zugeordnet ist. Für den Fall, dass ein Referenzteil ein Referenzbereich ist, ist der objektseitige Farbindex dieses Referenzteils die Farbe des zugehörigen Referenzbereichs. Für den Fall, dass ein Referenzteil ein Referenz punkt ist, ist der objektseitige Farbindex dieses Referenzteils die Farbe des Refe renzbereichs, in dem der Referenzpunkt (beispielsweise ein Eckpunkt) liegt. Der ob jektseitige Farbindex kann beispielsweise eine Farbbezeichnung sein (beispielsweise "rot", "grün" oder "blau"). Alternativ oder zusätzlich kann der objektseitige Farbindex auf einem objektseitigen Farbindexsystem (etwa dem RGB-System) basieren. Die Farben sind dabei so zu verstehen, dass zwei verschiedene Ausgestaltungen einer selben übergeordneten Farbe mit unterschiedlichen Kontrastwerten (beispielsweise Farbausgestaltungen "dunkelblau" und "hellblau" zur übergeordneten Farbe "blau") als zwei unterschiedliche Farben anzusehen sind. Die bildseitigen Farbindizes ent stehen vorzugsweise bei der Erfassung der objektseitigen Farbindizes durch den Sensor. Die bildseitigen Farbindizes basieren somit vorzugsweise auf einem Farbin dexsystem des Sensors, etwa einem RGB-System. Die Kalibrierung des Sensors ist somit dank der Farbinformationen präziser. The reference object has several colors so that a specific color is assigned to each object-side reference part. For example, the reference object is related or its surface is divided into several reference areas, each reference area being assigned a color. In the event that a reference part is a reference area, the object-side color index of this reference part is the color of the associated reference area. In the event that a reference part is a reference point, the object-side color index of this reference part is the color of the reference area in which the reference point (for example a corner point) is located. The object-related color index can, for example, be a color designation (for example “red”, “green” or “blue”). Alternatively or additionally, the object-side color index can be based on an object-side color index system (such as the RGB system). The colors are to be understood in such a way that two different configurations of the same superordinate color with different contrast values (for example color configurations “dark blue” and “light blue” for the superordinate color “blue”) are to be regarded as two different colors. The image-side color indices are preferably created when the object-side color indices are detected by the sensor. The color indices on the image side are thus preferably based on a color index system of the sensor, for example an RGB system. The calibration of the sensor is therefore more precise thanks to the color information.
In einer weiteren bevorzugten Ausgestaltung ist die Bildprozessiereinheit dazu aus gebildet, eine bildseitige Abfolge der bildseitigen Identifikationsindizes entlang eines Verlaufs der bildseitigen Referenzteile zu bestimmen. In a further preferred embodiment, the image processing unit is designed to determine an image-side sequence of the image-side identification indices along a course of the image-side reference parts.
Die Bildprozessiereinheit ist beispielsweise dazu ausgebildet, zunächst den Verlauf der bildseitigen Referenzteile festzulegen und danach die bildseitige Abfolge der bildseitigen Identifikationsindizes zu bestimmen. Hierbei ergeben beispielsweise die Bildkoordinatenindizes der bildseitigen Referenzteile den Verlauf im Bildkoordinaten system. Alternativ oder zusätzlich kann der Verlauf in Form einer Nummerierung der bildseitigen Referenzteile vorliegen. The image processing unit is designed, for example, to first define the course of the image-side reference parts and then to determine the image-side sequence of the image-side identification indices. Here, for example, the image coordinate indices of the image-side reference parts result in the course in the image coordinate system. Alternatively or additionally, the course can be in the form of a numbering of the image-side reference parts.
In einer weiteren bevorzugten Ausgestaltung ist die Bildprozessiereinheit dazu aus gebildet, eine objektseitige Abfolge der objektseitigen Identifikationsindizes entlang eines Verlaufs der objektseitigen Referenzteile zu erhalten. Hierbei ergeben beispielsweise die Weltkoordinatenindizes der objektseitigen Refe renzteile den Verlauf im Weltkoordinatensystem. Alternativ oder zusätzlich kann der Verlauf in Form einer Nummerierung der objektseitigen Referenzteile vorliegen. In a further preferred embodiment, the image processing unit is designed to receive an object-side sequence of the object-side identification indices along a course of the object-side reference parts. Here, for example, the world coordinate indices of the object-side reference parts result in the course in the world coordinate system. Alternatively or additionally, the course can be present in the form of a numbering of the object-side reference parts.
In einer weiteren bevorzugten Ausgestaltung ist die Bildprozessiereinheit dazu aus gebildet, die bildseitige Abfolge mit der objektseitigen Abfolge zu vergleichen, um einen Korrelationswert zwischen der bildseitigen und objektseitigen Abfolge zu ermit teln. In a further preferred embodiment, the image processing unit is designed to compare the image-side sequence with the object-side sequence in order to determine a correlation value between the image-side and object-side sequence.
Der Korrelationswert gibt an, inwieweit die objektseitigen Identifikationsindizes der objektseitigen Abfolge den bildseitigen Identifikationsindizes der bildseitigen Abfolge entsprechen. Der Korrelationswert beruht beispielsweise auf der Anzahl der objekt seitigen Identifikationsindizes in der objektseitigen Abfolge, deren Reihenfolge einer Reihenfolge der bildseitigen Identifikationsindizes der bildseitigen Abfolge entspricht. The correlation value indicates the extent to which the object-side identification indices of the object-side sequence correspond to the image-side identification indices of the image-side sequence. The correlation value is based, for example, on the number of object-side identification indices in the object-side sequence, the sequence of which corresponds to a sequence of the image-side identification indices of the image-side sequence.
Für den Fall, dass der objektseitige Identifikationsindex ein objektseitiger Abstand ist, gibt der Korrelationswert an, inwieweit die bildseitige Abfolge der bildseitigen Abstän de betragsmäßig (also dimensionslos) durch Multiplizieren der objektseitigen Abfolge der objektseitigen Abstände mit einem gemeinsamen Faktor erhalten werden kön nen. Die Bildprozessiereinheit ist vorzugsweise dazu ausgebildet, die objektseitigen und bildseitigen Abstände jeweils in Einheit eines objektseitigen beziehungsweise bildseitigen Abstandes darzustellen. In diesem Fall ist ein Vergleich zwischen den objektseitigen Abständen und den bildseitigen Abständen dimensionslos und verein facht. In the event that the object-side identification index is an object-side distance, the correlation value indicates the extent to which the image-side sequence of the image-side distances can be obtained in terms of amount (i.e. dimensionless) by multiplying the object-side sequence of the object-side distances by a common factor. The image processing unit is preferably designed to display the object-side and image-side distances in each case as a unit of an object-side or image-side distance. In this case, a comparison between the object-side distances and the image-side distances is dimensionless and simplified.
In einer weiteren bevorzugten Ausgestaltung ist die Bildprozessiereinheit dazu aus gebildet, den Korrelationswert für mehrere objektseitige Abfolgen jeweils entlang ei nes zugehörigen Verlaufs der objektseitigen Referenzteile zu ermitteln, um ein Ma ximum und/oder ein Extremum des Korrelationswertes zu identifizieren. In a further preferred embodiment, the image processing unit is designed to determine the correlation value for several object-side sequences in each case along an associated course of the object-side reference parts in order to identify a maximum and / or an extreme of the correlation value.
Unter Umständen kann die Anzahl der bildseitigen Referenzteile geringer als die An zahl der objektseitigen Referenzteile sein. Dies ist beispielsweise der Fall, wenn das Referenzobjekt bei der Bildaufnahme durch den Sensor aufgrund der Positionierung des Sensors oder des Referenzobjektes durch ein Hindernis teilweise verdeckt ist. In diesem Fall kann es mehr objektseitige Abfolgen mit der gleichen Anzahl an Identifi kationsindizes wie in der bildseitigen Abfolge geben, mit denen die bildseitige Abfol ge verglichen werden können. Der Korrelationswert kann je nach objektseitiger Ab folge variieren. Das Maximum beziehungsweise Extremum deutet auf einen hohen Grad der Entsprechung zwischen der bildseitigen Abfolge und der objektseitigen Ab folge hin. Dies reduziert das Risiko einer fehlerhaften Wahl der objektseitigen Abfol ge, die der zu ermittelnden Korrelation zwischen dem Weltkoordinatensystem und dem Bildkoordinatensystem zugrunde gelegt wird. Die Kalibrierung ist somit zuver lässiger. Under certain circumstances, the number of reference parts on the image side can be less than the number of reference parts on the object side. This is the case, for example, when the reference object is positioned during the image acquisition by the sensor of the sensor or the reference object is partially covered by an obstacle. In this case, there can be more object-side sequences with the same number of identification indices as in the image-side sequence with which the image-side sequence can be compared. The correlation value can vary depending on the sequence on the property side. The maximum or extreme indicates a high degree of correspondence between the sequence on the image side and the sequence on the object side. This reduces the risk of an incorrect choice of the object-side sequence on which the correlation to be determined between the world coordinate system and the image coordinate system is based. The calibration is therefore more reliable.
In einer weiteren bevorzugten Ausgestaltung ist die Bildprozessiereinheit dazu aus gebildet, die Korrelation zwischen den Bildkoordinatenindizes und den Weltkoordina tenindizes basierend auf einem odometrischen Korrekturfaktor zu ermitteln. In a further preferred embodiment, the image processing unit is designed to determine the correlation between the image coordinate indices and the world coordinate indices based on an odometric correction factor.
Diese Maßnahme liefert eine Bezugsgröße, mit der das Ergebnis der Kalibrierung verglichen werden kann, um etwaige Fehler bei der Kalibrierung des Sensors zu re duzieren. Vorzugsweise werden odometrische Daten parallel zu den Bilddaten oder als Teil der Bilddaten über die Eingabeschnittstelle der Bildprozessiereinheit zuge führt. In diesem Fall kann die Erfassung des Referenzobjektes aus den Bilddaten die odometrischen Daten mit berücksichtigen, sodass die Kalibrierung von einer frühen Phase an fehlersicher ist. This measure provides a reference variable with which the result of the calibration can be compared in order to reduce any errors in the calibration of the sensor. Odometric data are preferably fed in parallel to the image data or as part of the image data via the input interface of the image processing unit. In this case, the detection of the reference object from the image data can also take into account the odometric data, so that the calibration is fail-safe from an early phase on.
In einer weiteren bevorzugten Ausgestaltung enthalten die Bilddaten mehrere Bilder, die vom Sensor und von zumindest einem weiteren Sensor zu mehreren Zeitpunkten jeweils synchron aufgenommen sind. In a further preferred embodiment, the image data contain a plurality of images which are each recorded synchronously by the sensor and by at least one further sensor at a plurality of times.
Zu jedem der mehreren Zeitpunkte nehmen die Sensoren jeweils ein Bild synchron auf. Hierdurch entstehen eine Bildsequenz, die mehrere Gruppen von Bildern enthal ten, wobei die Bilder jeder dieser Gruppen zu einem bestimmten Zeitpunkt von den Sensoren synchron aufgenommen sind und die Gruppen zueinander zeitlich versetzt sind. Die Bildprozessiereinheit ist vorzugsweise dazu ausgebildet, die mehreren Bil der derart zu prozessieren, um unter Berücksichtigung der zeitlichen Abfolge der Bil- der die Kalibrierung durchzuführen. Gegenüber nur zu einem einzigen Zeitpunkt auf genommenen Bildern liefert die zeitlich Abfolge der Bilder zusätzliche Informationen, die bei der Erkennung der bildseitigen Referenzteile und deren räumlichen und zeitli chen Informationen genutzt werden kann. At each of the multiple points in time, the sensors take an image synchronously. This creates an image sequence which contains several groups of images, the images of each of these groups being recorded synchronously by the sensors at a specific point in time and the groups being offset in time with respect to one another. The image processing unit is preferably designed to process the plurality of images in such a way that, taking into account the time sequence of the images, to perform the calibration. Compared to images recorded only at a single point in time, the temporal sequence of the images provides additional information that can be used when recognizing the reference parts on the image side and their spatial and temporal information.
In einer weiteren bevorzugten Ausgestaltung umfasst die Bildprozessiereinheit ein künstliches neuronales Netzwerkmodul. In a further preferred embodiment, the image processing unit comprises an artificial neural network module.
Das künstliche neuronale Netzwerkmodul (KNN-Modul) basiert auf einem künstlichen neuronalen Netzwerk (KNN), welches einen oder mehrere Algorithmen umfasst. Die Algorithmen sind derart mit Daten trainiert, dass es dazu geeignet ist, in der Bildpro zessiereinheit verwendet zu werden. Dies ermöglicht ein zuverlässiges Kalibrierver fahren. The artificial neural network module (ANN module) is based on an artificial neural network (ANN), which comprises one or more algorithms. The algorithms are trained with data in such a way that it is suitable to be used in the image processing unit. This enables a reliable calibration method.
In einer weiteren bevorzugten Ausgestaltung ist das künstliche neuronale Netzwerk modul dazu ausgebildet, das Referenzobjekt gegenüber einem Hintergrund im Bild zu klassifizieren. In a further preferred embodiment, the artificial neural network module is designed to classify the reference object against a background in the image.
Dies erfolgt beispielsweise mittels Bildsegmentierung, vorzugsweise semantischer Segmentierung, was besonders einfach und präzise ist. This is done for example by means of image segmentation, preferably semantic segmentation, which is particularly simple and precise.
In einer weiteren bevorzugten Ausgestaltung ist das künstliche neuronale Netzwerk modul dazu ausgebildet, die bildseitigen Identifikationsindizes und/oder die Bildkoor dinatenindizes zu detektieren und/oder die Korrelation zwischen den Bildkoordinaten indizes und den Weltkoordinatenindizes zu ermitteln. In a further preferred embodiment, the artificial neural network module is designed to detect the image-side identification indices and / or the image coordinate indices and / or to determine the correlation between the image coordinate indices and the world coordinate indices.
Dies ermöglicht ein zumindest teils automatisiertes Kalibrierverfahren, was bei zu mindest gleichbleibender Genauigkeit das Kalibrieren des Sensors vereinfacht. This enables an at least partially automated calibration method, which simplifies the calibration of the sensor with at least the same accuracy.
Die erfindungsgemäße Trainiervorrichtung ist dazu ausgebildet, ein KNN zu trainie ren, sodass dieses in der Lage ist, basierend auf Bilddaten, die zumindest ein sen- sor-generiertes Bild eines vordefinierten Referenzobjektes enthalten mehrere bildsei tige Referenzteile zu erfassen, zu diesen jeweils einen bildseitigen Identifikationsin- dex und einen Bildkoordinatenindex zu detektieren, und/oder basierend auf den ob jektseitigen und bildseitigen Identifikationsindizes eine Korrelation zwischen den Bildkoordinatenindizes und den Weltkoordinatenindizes zu ermitteln. The training device according to the invention is designed to train an ANN so that it is able to capture several image-side reference parts based on image data that contain at least one sensor-generated image of a predefined reference object, with one image-side identification in each case - dex and an image coordinate index, and / or based on the object-side and image-side identification indices to determine a correlation between the image coordinate indices and the world coordinate indices.
Das erfindungsgemäße Computerprogrammprodukt ist ausgeführt, in einen Speicher eines Computers geladen zu werden und umfasst Softwarecodeabschnitte, mit de nen die Verfahrensschritte des erfindungsgemäßen Verfahrens zum Kalibrieren eines Sensors oder die Verfahrensschritte des erfindungsgemäßen Verfahrens zum Tainie- ren eines künstlichen neuronalen Netzwerks ausgeführt werden, wenn das Compu terprogrammprodukt auf dem Computer läuft. The computer program product according to the invention is designed to be loaded into a memory of a computer and comprises software code sections with which the method steps of the method according to the invention for calibrating a sensor or the method steps of the method according to the invention for training an artificial neural network are carried out when the compu program product is running on the computer.
Ein Programm gehört zur Software eines Daten verarbeitenden Systems, zum Bei spiel einer Auswerteeinrichtung oder einem Computer. Software ist ein Sammelbe griff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hard ware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems. Ein Computer ist eine Auswerteeinrichtung. A program is part of the software of a data processing system, for example an evaluation device or a computer. Software is a collective term for programs and associated data. The complement to software is hardware. Hardware describes the mechanical and electronic alignment of a data processing system. A computer is an evaluation device.
Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfah ren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogramm produkt einen technischen Effekt hervor, nämlich die Genauigkeit und Zuverlässigkeit des Kalibrierens des Sensors zu erhöhen Computer program products usually comprise a sequence of instructions which, when the program is loaded, cause the hardware to carry out a specific method that leads to a specific result. If the program in question is used on a computer, the computer program product produces a technical effect, namely to increase the accuracy and reliability of the calibration of the sensor
Das erfindungsgemäße Computerprogrammprodukt ist Plattform unabhängig. Das heißt, es kann auf jeder beliebigen Rechenplattform ausgeführt werden. Bevorzugt wird das Computerprogrammprodukt auf einer erfindungsgemäßen Vorrichtung zum Kalibrieren eines Sensors für ein Fahrzeug oder auf einer erfindungsgemäßen Vor richtung zum Trainieren eines künstlichen neuronalen Netzwerks ausgeführt. The computer program product according to the invention is platform independent. That means it can run on any computing platform. The computer program product is preferably executed on a device according to the invention for calibrating a sensor for a vehicle or on a device according to the invention for training an artificial neural network.
Die Softwarecodeabschnitte sind in einer beliebigen Programmiersprache geschrie ben, zum Beispiel in Python. Die Erfindung wird in den Figuren beispielhaft erläutert. Es zeigen: The software code sections are written in any programming language, for example in Python. The invention is illustrated by way of example in the figures. Show it:
Fig. 1 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zum Kalibrieren eines Sensors für ein Fahrzeug gemäß einem Ausführungsbei spiel; 1 shows a schematic representation of an inventive device for calibrating a sensor for a vehicle according to an exemplary embodiment;
Fig. 2 eine schematische Darstellung eines Sensorsystems umfassend mehrere Sensoren; 2 shows a schematic representation of a sensor system comprising a plurality of sensors;
Fig. 3 eine schematische Darstellung eines Referenzobjektes umfassend mehrere Referenzpunkte; 3 shows a schematic representation of a reference object comprising a plurality of reference points;
Fig. 4 eine schematische Darstellung eines von einem der Sensoren aus Fig. 2 auf genommenen Bildes des Referenzobjektes aus Fig. 3; FIG. 4 shows a schematic representation of an image of the reference object from FIG. 3 taken by one of the sensors from FIG. 2;
Fig. 5 eine schematische Darstellung eines Referenzobjektes umfassend mehrere Referenzpunkte; 5 shows a schematic representation of a reference object comprising a plurality of reference points;
Fig. 6 eine schematische Darstellung eines von einem der Sensoren aus Fig. 2 auf genommenen Bildes des Referenzobjektes aus Fig. 5; 6 shows a schematic illustration of an image of the reference object from FIG. 5 taken by one of the sensors from FIG. 2;
Fig. 7 eine schematische Darstellung eines Verfahrens zum Kalibrieren des Sensors gemäß einem Ausführungsbeispiel; und 7 shows a schematic representation of a method for calibrating the sensor according to an exemplary embodiment; and
Fig. 8 eine schematische Darstellung einer Sensoreinrichtung gemäß einem Ausfüh rungsbeispiel. Fig. 8 is a schematic representation of a sensor device according to an Ausfüh approximately example.
In den Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder funktionsähnli che Bezugsteile. In den einzelnen Figuren sind die jeweils relevanten Bezugsteile gekennzeichnet. In the figures, the same reference symbols relate to the same or functionally similar reference parts. The relevant reference parts are identified in the individual figures.
Fig. 1 zeigt eine schematische Darstellung einer erfindungsgemäßen Vorrichtung 10 zum Kalibrieren eines Sensors 22, 24, 26, 28 für ein Fahrzeug 21 gemäß einem Aus- führungsbeispiel. Der Sensor 22, 24, 26, 28 und das Fahrzeug 21 sind in Fig. 2 schematisch gezeigt. 1 shows a schematic representation of a device 10 according to the invention for calibrating a sensor 22, 24, 26, 28 for a vehicle 21 according to an embodiment leadership example. The sensor 22, 24, 26, 28 and the vehicle 21 are shown schematically in FIG. 2.
Die Vorrichtung 10 weist eine Eingangsschnittstelle 12 zum Eingeben von Bilddaten 18 auf, die zumindest ein Bild, hier beispielhaft jedoch mehrere Bilder 19-1 , 19-2, 19- 3, ... 19-n, enthalten. Das Bild 19-1 , 19-2, 1 9-3, ... 19-n ist vom Sensor 22, 24, 26, 28 aufgenommen und umfasst ein vordefiniertes farbiges Referenzobjekt 34, 42 mit mehreren objektseitigen Referenzteilen P1 -P1 1 , J1 -J9, wie in Fig. 3 und 5 beispiel haft schematisch dargestellt ist. Jedem der objektseitigen Referenzteile P1 -P1 1 , J1 - J9 sind ein Weltkoordinatenindex und ein objektseitiger Identifikationsindex zugeord net. The device 10 has an input interface 12 for inputting image data 18 which contain at least one image, but here, for example, several images 19-1, 19-2, 19-3,... 19-n. The image 19-1, 19-2, 19-3, ... 19-n is recorded by the sensor 22, 24, 26, 28 and comprises a predefined colored reference object 34, 42 with several object-side reference parts P1 -P1 1, J1-J9, as shown schematically in FIGS. 3 and 5 by way of example. Each of the object-side reference parts P1 -P1 1, J1-J9 are assigned a world coordinate index and an object-side identification index.
Die Vorrichtung 10 weist ferner eine Bildprozessiereinheit 14 auf, die dazu ausgebil det ist, mehrere, auf die objektseitigen Referenzteile P1 -P11 , J1 -J9 zurückgehende bildseitige Referenzteile Q1 -Q5, K1 -K7 (siehe Fig. 4 und 6) zu erfassen. Außerdem ist die Bildprozessiereinheit 14 dazu ausgebildet, für jedes der bildseitigen Referenz teile Q1 -Q5, K1 -K7 einen Bildkoordinatenindex und einen bildseitigen Identifikations index zu detektieren, um basierend auf den objektseitigen Identifikationsindizes und den bildseitigen Identifikationsindizes eine Korrelation zwischen den Bildkoordinaten indizes der bildseitigen Referenzteile Q1 -Q5, K1 -K7 und den Weltkoordinatenindizes der zugehörigen objektseitigen Referenzteile P1 -P1 1 , J1 -J9 zu ermitteln. The device 10 also has an image processing unit 14 which is designed to detect several image-side reference parts Q1 -Q5, K1-K7 (see FIGS. 4 and 6) going back to the object-side reference parts P1-P11, J1 -J9. In addition, the image processing unit 14 is designed to detect an image coordinate index and an image-side identification index for each of the image-side reference parts Q1 -Q5, K1 -K7 in order to establish a correlation between the image coordinate indices of the image-side reference parts based on the object-side identification indices and the image-side identification indices Q1 -Q5, K1 -K7 and the world coordinate indices of the associated object-side reference parts P1 -P1 1, J1 -J9 to be determined.
Die Vorrichtung 10 weist des Weiteren eine Ausgabeschnittstelle 16 zum Ausgeben der ermittelten Korrelation an eine externe Entität auf. Die externe Entität, die in Fig.The device 10 furthermore has an output interface 16 for outputting the determined correlation to an external entity. The external entity shown in Fig.
1 nicht gezeigt ist, kann eine weitere Einheit zum Durchführen weiterer Informations verarbeitungsschritte sein. Beispielsweise kann die weitere Einheit dazu ausgebildet sein, eine nicht-lineare Optimierung der ermittelten Korrelation durchzuführen und/oder mittels intrinsischer Parameter aus der ermittelten Korrelation extrinsische Parameter für den zu kalibrierenden Sensor 22, 24, 26, 28 zu erhalten. 1 is not shown, a further unit for performing further information processing steps can be. For example, the further unit can be designed to carry out a non-linear optimization of the determined correlation and / or to obtain extrinsic parameters for the sensor 22, 24, 26, 28 to be calibrated from the determined correlation using intrinsic parameters.
Fig. 2 zeigt eine schematische Darstellung eines Sensorsystems 25 umfassend mehrere Sensoren 22, 24, 26, 28. Die Sensoren 22, 24, 26, 28 können eine Kamera, einen Radarsensor, einen Lidarsensor und/oder einen Ultraschallsensor umfassen. Wie in Fig. 2 schematisch und beispielhaft gezeigt, befindet sich das Referenzobjekt 34 teilweise im Blickfeld des Sensors 22. Die Erfassung des Referenzobjektes 34, 42 ergibt ein Bild 19 des Referenzobjektes 34, 42, das in Fig. 4 näher schematisch ge zeigt ist. 2 shows a schematic representation of a sensor system 25 comprising a plurality of sensors 22, 24, 26, 28. The sensors 22, 24, 26, 28 can comprise a camera, a radar sensor, a lidar sensor and / or an ultrasonic sensor. As shown schematically and by way of example in FIG. 2, the reference object 34 is partially in the field of view of the sensor 22. The detection of the reference object 34, 42 results in an image 19 of the reference object 34, 42, which is shown schematically in more detail in FIG.
Fig. 3 zeigt eine schematische Darstellung eines Referenzobjektes 34. Hier sind die objektseitigen Referenzteile beispielhaft als Referenzpunkte P1 -P11 gezeigt. Die Re ferenzpunkte P1 -P1 1 liegen jeweils in einem Referenzbereich R1 -R1 1 , in die die Oberfläche des Referenzobjektes 34 unterteilt ist. In Fig. 3 sind die Referenzbereiche R1 -R1 1 beispielhaft gezeigt. Es können mindestens vier Farben verwendet werden, wobei benachbarte Referenzbereiche R1 -R1 1 gleiche oder unterschiedliche Farben tragen können. 3 shows a schematic representation of a reference object 34. Here, the object-side reference parts are shown as reference points P1-P11 by way of example. The reference points P1 -P1 1 are each located in a reference area R1 -R1 1 into which the surface of the reference object 34 is divided. In Fig. 3, the reference areas R1 -R1 1 are shown by way of example. At least four colors can be used, whereby adjacent reference areas R1 -R1 1 can have the same or different colors.
Jedem der Referenzpunkte P1 -P11 ist aufgrund ihrer Position in einem Weltkoordina tensystem 36 ein zugehöriger Weltkoordinatenindex zugeordnet. Das Weltkoordina tensystem 36 ist in Fig. 3 beispielhaft als kartesisches Koordinatensystem gezeigt. Alternativ kann auch ein anderes, etwa ein sphärisches, Koordinatensystem hierzu verwendet werden. An associated world coordinate index is assigned to each of the reference points P1 -P11 based on their position in a world coordinate system 36. The world coordinate system 36 is shown by way of example in FIG. 3 as a Cartesian coordinate system. Alternatively, another, for example a spherical, coordinate system can also be used for this purpose.
Des Weiteren ist jedem der Referenzpunkte P1 -P1 1 zusätzlich ein objektseitiger Far- bindex zugeordnet. Beispielsweise ist die Farbe eines Referenzbereichs R1 -R1 1 dem zugehörigen Referenzpunkt P1 -P1 1 zugeordnet. In addition, an object-side color index is assigned to each of the reference points P1 -P1 1. For example, the color of a reference area R1 -R1 1 is assigned to the associated reference point P1 -P1 1.
Fig. 4 zeigt eine schematische Darstellung des vom Sensor 22, 24, 26, 28 aus Fig. 2 aufgenommenen Bildes 19 des Referenzobjektes 34 aus Fig. 3. Das Bild 19 zeigt einen Teil des Referenzobjektes 34, welcher objektseitig im Blickfeld des Sensors 22 liegt. Im Bild 19 sind entsprechend ein Teil der bildseitigen Referenzteile Q1 -Q5 als Referenzpunkte und ihre zugehörigen Referenzbereiche T1 -T5 zu sehen. Jeder der bildseitigen Referenzpunkte Q1 -Q5 entspricht einem der objektseitigen Referenz punkte P1 -P1 1 , wobei jeder der bildseitigen Referenzbereiche T 1 -T5 einem der ob jektseitigen Referenzbereiche R1 -R1 1 entspricht. Für jeden der bildseitigen Referenzpunkte Q1 -Q5 wird ein Bildkoordinatenindex in einem Bildkoordinatensystem 38 bei der Erfassung des Referenzobjektes 34 durch den Sensor 22 identifiziert. In Fig. 4 ist als Bildkoordinatensystem ein Koordinaten system mit drei Bildachsen für die Bildkoordinaten u, v und w gezeigt. Dies ist jedoch nicht einschränkend für die vorliegende Erfindung. Es kann ein beliebiges, beispiels weise ein zweidimensionales, Bildkoordinatensystem verwendet werden. FIG. 4 shows a schematic representation of the image 19 of the reference object 34 from FIG. 3 recorded by the sensor 22, 24, 26, 28 from FIG. 2 . Correspondingly, a part of the reference parts Q1 -Q5 on the image side can be seen as reference points and their associated reference areas T1 -T5 in image 19. Each of the image-side reference points Q1 -Q5 corresponds to one of the object-side reference points P1 -P1 1, each of the image-side reference areas T 1 -T5 corresponding to one of the object-side reference areas R1 -R1 1. For each of the image-side reference points Q1 -Q5, an image coordinate index is identified in an image coordinate system 38 when the reference object 34 is detected by the sensor 22. In Fig. 4, a coordinate system with three image axes for the image coordinates u, v and w is shown as the image coordinate system. However, this is not limitative of the present invention. Any desired, for example a two-dimensional image coordinate system can be used.
Für jeden der bildseitigen Referenzpunkte Q1 -Q5 wird außerdem ein auf die objekt seitigen Farbindizes der objektseitigen Referenzpunkte P1 -P1 1 zurückgehender bild seitiger Farbindex bei der Erfassung des Referenzobjektes 34 durch den Sensor 22 identifiziert. Dies geschieht auf Basis eines sensoreigenen Farbindexsystems, etwa dem RGB-System. For each of the image-side reference points Q1 -Q5, an image-side color index that goes back to the object-side color indices of the object-side reference points P1 -P1 1 is identified when the reference object 34 is detected by the sensor 22. This is done on the basis of a sensor's own color index system, such as the RGB system.
Die Bildprozessiereinheit 14 ist dazu ausgebildet, die Bildkoordinatenindizes und die bildseitigen Farbindizes der bildseitigen Referenzpunkte Q1 -Q5 aus den Bilddaten 18 zu entnehmen (detektieren). The image processing unit 14 is designed to extract (detect) the image coordinate indices and the image-side color indices of the image-side reference points Q1 -Q5 from the image data 18.
Fig. 5 zeigt eine schematische Darstellung eines weiteren Referenzobjektes 42. Hier sind die objektseitigen Referenzteile beispielhaft als Referenzpunkte J1 -J9 gezeigt. Die Referenzpunkte J1 -J9 liegen jeweils in einem Referenzbereich M1 -M9, in die die Oberfläche des Referenzobjektes 42 unterteilt ist. In Fig. 3 sind die Referenzbereiche M1 -M9 beispielhaft gezeigt. 5 shows a schematic representation of a further reference object 42. Here, the object-side reference parts are shown by way of example as reference points J1-J9. The reference points J1 -J9 each lie in a reference area M1 -M9 into which the surface of the reference object 42 is divided. The reference areas M1 -M9 are shown by way of example in FIG.
Jedem der Referenzpunkte J1 -J9 ist aufgrund ihrer Position im Weltkoordinatensys tem 36 ein zugehöriger Weltkoordinatenindex zugeordnet. Das Weltkoordinatensys tem 36 ist in Fig. 3 beispielhaft als kartesisches Koordinatensystem gezeigt. Alterna tiv kann auch ein anderes, etwa ein sphärisches, Koordinatensystem hierzu verwen det werden. An associated world coordinate index is assigned to each of the reference points J1 -J9 based on their position in the world coordinate system 36. The world coordinate system 36 is shown in Fig. 3 by way of example as a Cartesian coordinate system. Alternatively, a different, for example a spherical, coordinate system can be used for this purpose.
Des Weiteren ist jedem der Referenzpunkte J1 -J9 zusätzlich ein objektseitiger Ab stand d 1 , d5, d7 zugeordnet. In Fig. 5 ist aus übersichtlichkeitsgründen nicht alle ob jektseitigen Abstände mit einem Bezugszeichen gekennzeichnet. Der jeweilige ob jektseitige Abstand d 1 , d5, d7 wird im Weltkoordinatensystem 36 gemessen, wobei es sich hierbei um den Abstand zwischen einem objektseitigen Mittelpunkt A und dem jeweiligen objektseitigen Referenzpunkt J1 -J9 handelt. Der objektseitige Mittel punkt A ist hier beispielsweise der Mittelpunkt eines Kreises 44, von dem aus sich die Referenzbereiche M1 -M9 radial nach außen bis zum jeweiligen Referenzpunkt J1 -J9 mit abnehmender Breite erstrecken. Furthermore, an object-side distance d 1, d5, d7 is assigned to each of the reference points J1-J9. For reasons of clarity, not all object-side distances are marked with a reference symbol in FIG. 5. The respective object-side distance d 1, d5, d7 is measured in the world coordinate system 36, with this is the distance between an object-side center point A and the respective object-side reference point J1 -J9. The object-side center point A is here, for example, the center of a circle 44 from which the reference areas M1 -M9 extend radially outward to the respective reference point J1 -J9 with decreasing width.
Fig. 6 zeigt eine schematische Darstellung des vom Sensor 22, 24, 26, 28 aus Fig. 2 aufgenommenen Bildes 27 des Referenzobjektes 42 aus Fig. 5. Das Bild 27 zeigt einen Teil des Referenzobjektes 42, welcher objektseitig im Blickfeld des Sensors 22 liegt. Im Bild 27 sind entsprechend ein Teil der bildseitigen Referenzteile K1 -K7 als Referenzpunkte und ihre zugehörigen Referenzbereiche N1 -N7 zu sehen. Jeder der bildseitigen Referenzpunkte K1 -K7 entspricht einem der objektseitigen Referenz punkte J1 -J9, wobei jeder der bildseitigen Referenzbereiche N1 -N7 einem der ob jektseitigen Referenzbereiche M1 -M9 entspricht. FIG. 6 shows a schematic representation of the image 27 of the reference object 42 from FIG. 5 recorded by the sensor 22, 24, 26, 28 from FIG. 2. The image 27 shows a part of the reference object 42 which is in the field of vision of the sensor 22 on the object side . Correspondingly, part of the image-side reference parts K1-K7 as reference points and their associated reference areas N1-N7 can be seen in image 27. Each of the image-side reference points K1 -K7 corresponds to one of the object-side reference points J1 -J9, each of the image-side reference areas N1 -N7 corresponding to one of the object-side reference areas M1 -M9.
Für jeden der bildseitigen Referenzpunkte K1 -K7 wird ein Bildkoordinatenindex in einem Bildkoordinatensystem 38 bei der Erfassung des Referenzobjektes 42 durch den Sensor 22 identifiziert. In Fig. 4 ist als Bildkoordinatensystem ein Koordinaten system mit drei Bildachsen für die Bildkoordinaten u, v und w gezeigt. Dies ist jedoch nicht einschränkend für die vorliegende Erfindung. Es kann ein beliebiges, beispiels weise ein zweidimensionales, Bildkoordinatensystem verwendet werden. For each of the image-side reference points K1 -K7, an image coordinate index is identified in an image coordinate system 38 when the reference object 42 is detected by the sensor 22. In Fig. 4, a coordinate system with three image axes for the image coordinates u, v and w is shown as the image coordinate system. However, this is not limitative of the present invention. Any desired, for example a two-dimensional image coordinate system can be used.
Für jeden der bildseitigen Referenzpunkte K1 -K7 wird außerdem ein auf die objekt seitigen Abstände der objektseitigen Referenzpunkte J1 -J9 zurückgehender bildseiti ger Abstand 11 , 15, I7 durch die Bildprozessiereinheit 14 detektiert. Der jeweilige bild seitige Abstand 11 , I5, 17 wird im Bildkoordinatensystem 38 gemessen, wobei es sich hierbei um den Abstand zwischen einem bildseitigen Mittelpunkt B und dem jeweili gen Referenzpunkt K1 -K7 handelt. Der bildseitige Mittelpunkt B ist beispielhaft als der Mittelpunkt des Kreises 46 des Bildes des Referenzobjektes 42 gezeigt. Der Kreis 46 geht hier auf den Kreis 44 des Referenzobjektes 42 in Fig. 5 zurück. Die Bildprozessiereinheit 14 ist dazu ausgebildet, die Bildkoordinatenindizes und die bildseitigen Abstände der bildseitigen Referenzpunkte K1 -K7 aus den Bilddaten 18 zu entnehmen (detektieren). For each of the image-side reference points K1 -K7, an image-side distance 11, 15, I7 that goes back to the object-side distances of the object-side reference points J1 -J9 is detected by the image processing unit 14. The respective image-side distance 11, I5, 17 is measured in the image coordinate system 38, this being the distance between an image-side center point B and the respective reference point K1 -K7. The image-side center point B is shown by way of example as the center point of the circle 46 of the image of the reference object 42. The circle 46 here goes back to the circle 44 of the reference object 42 in FIG. 5. The image processing unit 14 is designed to extract (detect) the image coordinate indices and the image-side distances of the image-side reference points K1 -K7 from the image data 18.
Fig. 7 zeigt schematisch ein erfindungsgemäßes Verfahren 100 zum Kalibrieren des Sensors 22, 24, 26, 28. In einem ersten Schritt S1 werden Bilddaten18 eingegeben, die zumindest ein von einem Sensor 22, 24, 26, 28 aufgenommenes Bild 19- 1 ,2,3, ...,n eines vordefinierten Referenzobjektes 34, 42 enthalten. Das Referenzob jekt 34 umfasst mehrere objektseitige Referenzteile P1 -P1 1 , J1 -J9, denen jeweils ein Weltkoordinatenindex zugeordnet ist. In einem zweiten Schritt S2 werden aus den Bilddaten mehrere bildseitige Referenzteile Q1 -Q5, K1 -K7 erfasst, die auf die mehre ren objektseitigen Referenzteile P1 -P11 , J 1 - J9 zurückgehen. Außerdem wird für je des der erfassten bildseitigen Referenzteile Q1 -Q5, K1 -K7 ein Bildkoordinatenindex und ein bildseitiger Identifikationsindex aus den Bilddaten detektiert. In einem dritten Schritt S3 werden die bildseitigen Identifikationsindizes ausgegeben. 7 schematically shows a method 100 according to the invention for calibrating the sensor 22, 24, 26, 28. In a first step S1, image data 18 are entered which contain at least one image 19-1, 2, recorded by a sensor 22, 24, 26, 28 , 3, ..., n of a predefined reference object 34, 42. The reference object 34 comprises several object-side reference parts P1 -P1 1, J1 -J9, each of which is assigned a world coordinate index. In a second step S2, several image-side reference parts Q1 -Q5, K1-K7 are acquired from the image data, which go back to the several object-side reference parts P1-P11, J 1 -J9. In addition, an image coordinate index and an image-side identification index are detected from the image data for each of the captured image-side reference parts Q1 -Q5, K1 -K7. In a third step S3, the image-side identification indexes are output.
Basierend auf den objektseitigen und bildseitigen Identifikationsindizes wird dann eine Korrelation zwischen den Bildkoordinatenindizes der bildseitigen Referenzteile Q1 -Q5, K1 -K7 und den Weltkoordinatenindizes der objektseitigen Referenzteile P1 - P1 1 , J1 -J9 ermittelt. Based on the object-side and image-side identification indices, a correlation between the image coordinate indices of the image-side reference parts Q1 -Q5, K1 -K7 and the world coordinate indices of the object-side reference parts P1-P1 1, J1 -J9 is then determined.
Um die Korrelation zwischen den Bildkoordinaten der bildseitigen Referenzpunkte Q1 -Q5, K1 -K7 und den Weltkoordinaten der zugehörigen objektseitigen Referenz punkte P1 -P1 1 , J1 -J9 zu ermitteln, ist die Bildprozessiereinheit 14 vorzugsweise da zu ausgebildet, eine bildseitige Abfolge der bildseitigen Identifikationsindizes zu be stimmen. Diese bildseitige Abfolge ist die Abfolge der bildseitigen Identifikationsindi zes der bildseitigen Referenzpunkte. In order to determine the correlation between the image coordinates of the image-side reference points Q1 -Q5, K1 -K7 and the world coordinates of the associated object-side reference points P1 -P1 1, J1 -J9, the image processing unit 14 is preferably designed to provide an image-side sequence of the image-side identification indices to be determined. This image-side sequence is the sequence of the image-side identification indices of the image-side reference points.
Für das in Fig. 4 gezeigte Bild 19 entspricht diese bildseitige Abfolge beispielhaft dem (bildseitigen) Verlauf der bildseitigen Referenzpunkte Q1 -Q2-Q3-Q4-Q5 (in die ser Reihenfolge). Die zugehörigen bildseitigen Identifikationsindizes hier sind bildsei tige Farbindizes FB1 , FB2, FB3, FB4, FB5. Daher handelt es sich bei der bildseitigen Abfolge für das in Fig. 4 gezeigte Beispiel um die Farbindizesabfolge FB1 -FB2-FB3- FB4-FB5. For the image 19 shown in FIG. 4, this image-side sequence corresponds, for example, to the (image-side) course of the image-side reference points Q1 -Q2-Q3-Q4-Q5 (in this order). The associated image-side identification indices here are image-side color indices FB1, FB2, FB3, FB4, FB5. Therefore it is the image-side Sequence for the example shown in Fig. 4 around the color index sequence FB1 -FB2-FB3-FB4-FB5.
Für das in Fig. 6 gezeigte Bild entspricht die bildseitige Abfolge beispielshaft dem bildseitigen Verlauf K1 -K2-K3-K4-K5-K6-K7 (in dieser Reihenfolge). Die zugehörigen bildseitigen Identifikationsindizes hier sind bildseitige Abstände 11 , 12, I3, 14, 15, I6, I7. Daher handelt es sich bei der bildseitigen Abfolge für den in Fig. 6 gezeigte Beispiel um die Abstandsabfolge 11 -I2-I3-I4-I5-I6-I7. For the image shown in FIG. 6, the image-side sequence corresponds, for example, to the image-side course K1 -K2-K3-K4-K5-K6-K7 (in this order). The associated image-side identification indices here are image-side distances 11, 12, I3, 14, 15, I6, I7. Therefore, the image-side sequence for the example shown in FIG. 6 is the distance sequence 11 -I2-I3-I4-I5-I6-I7.
Die Bildprozessiereinheit 14 ist ferner vorzugsweise dazu ausgebildet, eine objektsei tige Abfolge der objektseitigen Identifikationsindizes zu bestimmen. The image processing unit 14 is also preferably designed to determine an object-side sequence of the object-side identification indices.
Die objektseitige Abfolge für das in Fig. 3 gezeigte Referenzobjekt 34 entspricht bei spielhaft jedem beliebigen (objektseitigen) Verlauf der objektseitigen Referenzpunkte P1 -P1 1 , wobei im objektseitigen Verlauf die Anzahl der objektseitigen Referenzpunk te P1 -P1 1 der Anzahl der bildseitigen Referenzpunkte Q1 bis Q5 vorzugsweise ent spricht und somit fünf beträgt. Beispielsweise kann die objektseitige Abfolge dem objektseitigen Verlauf P1 -P2-P3-P4-P5 (in dieser Reihenfolge) entsprechen. Die zu gehörigen objektseitigen Identifikationsindizes sind objektseitige Farbindizes F01 , F02, F03, F04, F05. Daher handelt es sich bei der beispielhaften objektseitigen Abfolge für das in Fig. 3 gezeigte Beispiel um die Farbindizesabfolge F01 -F02-F03- F04-F05. The object-side sequence for the reference object 34 shown in FIG. 3 corresponds, for example, to any (object-side) course of the object-side reference points P1 -P1 1, with the number of object-side reference points P1 -P1 1 being the number of image-side reference points Q1 to Q5 preferably corresponds to five. For example, the object-side sequence can correspond to the object-side course P1-P2-P3-P4-P5 (in this order). The associated object-side identification indices are object-side color indices F01, F02, F03, F04, F05. The exemplary object-side sequence for the example shown in FIG. 3 is therefore the color index sequence F01-F02-F03-F04-F05.
Die objektseitige Abfolge für das in Fig. 5 gezeigte Referenzobjekt 42 entspricht bei spielhaft jedem beliebigen (objektseitigen) Verlauf der objektseitigen Referenzpunkte J1 -J9, wobei im objektseitigen Verlauf die Anzahl der objektseitigen Referenzpunkte J1 -J9 der Anzahl der bildseitigen Referenzpunkte K1 -K7 vorzugsweise entspricht und somit sieben beträgt. Beispielsweise kann die objektseitige Abfolge dem objektseiti gen Verlauf J1 -J2-J3-J4-J5 (in dieser Reihenfolge) entsprechen. Die zugehörigen objektseitigen Identifikationsindizes sind objektseitige Abstände d1 , d2, d3, d4, d5, d6, d7. Daher handelt es sich bei der beispielhaften objektseitigen Abfolge für das in Fig. 5 gezeigte Beispiel um die Abstandsabfolge d1 -d2-d3-d4-d5-d6-d7. Da die Anzahl der objektseitigen Referenzpunkte größer als die Anzahl der bildseiti gen Referenzpunkte ist, kann es mehrere mögliche objektseitige Abfolgen geben. Beispielsweise kann die objektseitige Abfolge für das in Fig. 3 gezeigte Beispiel F06- F07-F08-F09-F010 lauten. Beispielsweise kann die objektseitige Abfolge für das in Fig. 5 gezeigte Beispiel d3-d4-d5-d6-d7-d8-d9 lauten. The object-side sequence for the reference object 42 shown in FIG. 5 corresponds, for example, to any (object-side) course of the object-side reference points J1 -J9, with the number of object-side reference points J1 -J9 preferably corresponding to the number of image-side reference points K1-K7 and thus is seven. For example, the object-side sequence can correspond to the object-side course J1 -J2-J3-J4-J5 (in this order). The associated object-side identification indices are object-side distances d1, d2, d3, d4, d5, d6, d7. The exemplary object-side sequence for the example shown in FIG. 5 is therefore the distance sequence d1-d2-d3-d4-d5-d6-d7. Since the number of reference points on the object side is greater than the number of reference points on the image side, there can be several possible object-side sequences. For example, the object-side sequence for the example shown in FIG. 3 can be F06-F07-F08-F09-F010. For example, the object-side sequence for the example shown in FIG. 5 can be d3-d4-d5-d6-d7-d8-d9.
Die Bildprozessiereinheit 14 ist vorzugsweise dazu ausgebildet, die bildseitige Abfol ge mit jeder der mehreren möglichen objektseitigen Abfolgen zu vergleichen und je weils einen Korrelationswert zu bestimmen. Der Korrelationswert bemisst sich vor zugsweise daran, inwieweit eine objektseitige Abfolge der bildseitigen Abfolge ent spricht. The image processing unit 14 is preferably designed to compare the image-side sequence with each of the multiple possible object-side sequences and to determine a correlation value in each case. The correlation value is preferably measured by the extent to which an object-side sequence corresponds to the image-side sequence.
Für das in Fig. 3-4 gezeigte Beispiel wird die bildseitige Farbindizesabfolge FB1 -FB2- FB3-FB4-FB5 mit der objektseitigen Farbindizesabfolge F01 -F02-F03-F04-F05 verglichen. Vorzugsweise werden die bildseitigen und objektseitigen Farbindizes in ein gemeinsames Farbindexsystem übersetzt, sodass ein direkter Vergleich möglich ist. Wenn die beiden Farbindizesabfolgen miteinander bei allen fünf Farbindizes in deren Reihenfolgen übereinstimmen, ist der Korrelationswert am höchsten. Wenn die beiden Farbindizesabfolgen bei vier von den fünf Farbindizes in deren Reihenfolge übereinstimmen, ist der Korrelationswert niedriger. Je höher die Anzahl der Farbindi zes beträgt, bei denen die beiden Farbindizesabfolgen miteinander übereinstimmen, desto höher beträgt der Korrelationswert. For the example shown in Fig. 3-4, the image-side color index sequence FB1 -FB2-FB3-FB4-FB5 is compared with the object-side color index sequence F01 -F02-F03-F04-F05. The image-side and object-side color indices are preferably translated into a common color index system so that a direct comparison is possible. If the order of the two color index sequences is the same for all five color indexes, the correlation value is the highest. If the order of the two color index sequences is the same for four of the five color indexes, the correlation value is lower. The higher the number of color indices in which the two color index sequences match one another, the higher the correlation value.
Für das in Fig. 5-6 gezeigte Beispiel wird die bildseitige Abstandsabfolge 11 -I2-I3-I4- I5-I6-I7 mit der objektseitigen Abstandsabfolge d3-d4-d5-d6-d7-d8-d9 vergleichen. Vorzugsweise werden die beiden Abstandsabfolgen betragsmäßig beziehungsweise dimensionslos miteinander verglichen, sodass ein direkter Vergleich zwischen den Abstandsabfolgen möglich ist. Wenn die beiden Abstandsabfolgen miteinander bei allen sieben Abständen in deren Reihenfolgen bis auf einen für alle sieben Werte gemeinsamen Faktor übereinstimmen, ist der Korrelationswert am höchsten. Wenn die beiden Abstandsabfolgen bei sechs von den sieben Abständen in deren Reihen folge bis auf den gemeinsamen Faktor übereinstimmen, ist der Korrelationswert nied riger. Je höher die Anzahl der Abstände beträgt, bei denen die beiden Abstandsab- folgen miteinander bis auf einen gemeinsamen Faktor übereinstimmen, desto höher beträgt der Korrelationswert. For the example shown in Fig. 5-6, the image-side distance sequence 11 -I2-I3-I4-I5-I6-I7 is compared with the object-side distance sequence d3-d4-d5-d6-d7-d8-d9. The two distance sequences are preferably compared with one another in terms of absolute value or dimensionlessly, so that a direct comparison between the distance sequences is possible. If the two distance sequences agree with one another for all seven distances in their order except for a factor common to all seven values, the correlation value is the highest. If the two distance sequences in six of the seven distances agree in their order except for the common factor, the correlation value is lower. The higher the number of distances in which the two distance follow each other except for a common factor, the higher the correlation value.
Die Bildprozessiereinheit 14 ist vorzugsweise dazu ausgebildet, nach dem Ermitteln des Korrelationswertes den objektseitigen Verlauf um ein oder mehrere objektseitige Referenzteile zu ändern und anschließend einen Korrelationswert entsprechend dem geänderten objektseitigen Verlauf zu ermitteln. Dieser Prozess kann solange iterativ fortlaufen bis ein Maximum oder Extremum des Korrelationswertes festgestellt ist. The image processing unit 14 is preferably designed to change the object-side profile by one or more object-side reference parts after determining the correlation value and then to determine a correlation value corresponding to the changed object-side profile. This process can continue iteratively until a maximum or extreme of the correlation value is determined.
Die objektseitige Abfolge mit dem höchsten Korrelationswert wird vorzugsweise der Ermittlung der Korrelation zugrunde gelegt. Hierbei werden die Bildkoordinatenindi zes der bildseitigen Referenzteile mit den Weltkoordinatenindizes der objektseitigen Referenzteile dieser bestimmten objektseitigen Abfolge in Relation gesetzt, um ein Übersetzungsverhältnis zwischen den beiden Koordinatensystemen zu erhalten. The object-side sequence with the highest correlation value is preferably used as the basis for determining the correlation. Here, the image coordinate indices of the image-side reference parts are related to the world coordinate indices of the object-side reference parts of this particular object-side sequence in order to obtain a transmission ratio between the two coordinate systems.
Fig. 8 zeigt schematisch eine Sensoreinrichtung 50 umfassend das in Fig. 2 gezeigte Sensorsystem 25 mit den mehreren Sensoren 22, 24, 26, 28 und die in Fig. 1 gezeig te Kalibriervorrichtung 10 zum Kalibrieren der Sensoren 22, 24, 26, 28. Die Sen soreinrichtung 50 ist an einer Kalibrierbühne 23, die vorzugsweise ein Fahrzeug um fasst, angebracht. Somit ist eine Offline- und/oder Online-Kalibrierung mittels der er findungsgemäßen Kalibriervorrichtung 10 möglich. 8 schematically shows a sensor device 50 comprising the sensor system 25 shown in FIG. 2 with the multiple sensors 22, 24, 26, 28 and the calibration device 10 shown in FIG. 1 for calibrating the sensors 22, 24, 26, 28. The sensor device 50 is attached to a calibration platform 23, which preferably includes a vehicle. An offline and / or online calibration is thus possible by means of the calibration device 10 according to the invention.
Bezuqszeichen Reference sign
10 Kalibriervorrichtung 10 calibration device
12 Eingabeschnittstelle 12 input interface
14 Bildprozessiereinheit 14 Image processing unit
16 Ausgabeschnittstelle 16 Output interface
18 Bilddaten 18 image data
19, 27 Bild 19, 27 fig
19-1 ,-2, ... -n Bilder 19-1, -2, ... -n images
21 Fahrzeug 21 vehicle
22, 24, 26, 28 Sensoren 22, 24, 26, 28 sensors
23 Kalibrierbühne 23 calibration platform
25 Sensorsystem 25 sensor system
32 Blickfeld 32 Field of View
34, 42 Referenzobjekt 34, 42 reference object
36 Weltkoordinatensystem 36 World coordinate system
38 Bildkoordinatensystem 38 Image coordinate system
44 Kreisform des Referenzobjektes 44 Circular shape of the reference object
46 Kreisform des Bildes des Referenzobjektes 46 Circular shape of the image of the reference object
50 Sensoreinrichtung 50 sensor device
100 Kalibrierverfahren 100 calibration procedures
P1 bis P11 , J1 bis J9 P1 to P11, J1 to J9
objektseitige Referenzpunkte object-side reference points
R1 bis R11 , M1 bis M9 R1 to R11, M1 to M9
objektseitige Referenzbereiche object-side reference areas
Q1 bis Q5, K1 bis K7 Q1 to Q5, K1 to K7
bildseitige Referenzpunkte reference points on the image side
T1 bis T5, N1 bis N7 T1 to T5, N1 to N7
bildseitige Referenzbereiche Image-side reference areas
S1 bis S3 Verfahrensschritte S1 to S3 process steps
Claims
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102019201633.2 | 2019-02-08 | ||
| DE102019201633.2A DE102019201633A1 (en) | 2019-02-08 | 2019-02-08 | Calibration of a sensor for a vehicle based on object-side and image-side identification indices of a reference object |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020160861A1 true WO2020160861A1 (en) | 2020-08-13 |
Family
ID=69156429
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2020/050343 Ceased WO2020160861A1 (en) | 2019-02-08 | 2020-01-09 | Calibration of a sensor for a vehicle on the basis of object-side and image-side identification indices of a reference object |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102019201633A1 (en) |
| WO (1) | WO2020160861A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112815979A (en) * | 2020-12-30 | 2021-05-18 | 联想未来通信科技(重庆)有限公司 | Calibration method and device of sensor |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2004003586A1 (en) * | 2002-06-29 | 2004-01-08 | Robert Bosch Gmbh | Method and device for calibrating sensors in a motor vehicle |
| WO2016054004A1 (en) * | 2014-09-30 | 2016-04-07 | Sikorsky Aircraft Corporation | Online sensor calibration verification system |
| WO2018000037A1 (en) | 2016-06-29 | 2018-01-04 | Seeing Machines Limited | Systems and methods for identifying pose of cameras in a scene |
| WO2018182737A1 (en) * | 2017-03-31 | 2018-10-04 | Airbus Group Hq, Inc. | Systems and methods for calibrating vehicular sensors |
-
2019
- 2019-02-08 DE DE102019201633.2A patent/DE102019201633A1/en not_active Withdrawn
-
2020
- 2020-01-09 WO PCT/EP2020/050343 patent/WO2020160861A1/en not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2004003586A1 (en) * | 2002-06-29 | 2004-01-08 | Robert Bosch Gmbh | Method and device for calibrating sensors in a motor vehicle |
| WO2016054004A1 (en) * | 2014-09-30 | 2016-04-07 | Sikorsky Aircraft Corporation | Online sensor calibration verification system |
| WO2018000037A1 (en) | 2016-06-29 | 2018-01-04 | Seeing Machines Limited | Systems and methods for identifying pose of cameras in a scene |
| WO2018182737A1 (en) * | 2017-03-31 | 2018-10-04 | Airbus Group Hq, Inc. | Systems and methods for calibrating vehicular sensors |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112815979A (en) * | 2020-12-30 | 2021-05-18 | 联想未来通信科技(重庆)有限公司 | Calibration method and device of sensor |
| CN112815979B (en) * | 2020-12-30 | 2023-11-21 | 联想未来通信科技(重庆)有限公司 | Sensor calibration method and device |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102019201633A1 (en) | 2020-08-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2767925B1 (en) | Method for the detection of objects in a warehouse and/or for spatial orientation in a warehouse | |
| DE112010004767B4 (en) | Point cloud data processing apparatus, point cloud data processing method and point cloud data processing program | |
| DE102011106050B4 (en) | Shadow removal in an image captured by a vehicle-based camera for detection of a clear path | |
| DE102015209822A1 (en) | Detecting means, detecting program, detecting method, vehicle equipped with detecting means, parameter calculating means, parameter calculating parameters, parameter calculating program, and method of calculating parameters | |
| DE102009051826A1 (en) | Method for comparing the similarity of 3D pictorial objects | |
| WO2013178407A1 (en) | Method and device for processing stereoscopic data | |
| DE102018109276A1 (en) | SCREENING BASIC SUPPORT FOR DYNAMIC LIGHTING SCENARIOS | |
| EP2546778A2 (en) | Method for evaluating an object detection device of a motor vehicle | |
| DE102018132805A1 (en) | Procedure for improved object detection | |
| DE102019132996A1 (en) | Estimating a three-dimensional position of an object | |
| DE10148060A1 (en) | Object detection and tracking procedures | |
| DE102018123393A1 (en) | Detection of parking areas | |
| EP3663881B1 (en) | Method for controlling an autonomous vehicle on the basis of estimated movement vectors | |
| DE102008036219A1 (en) | Method for identification of object i.e. traffic sign, in surrounding area of e.g. passenger car, involves determining similarity measure between multiple characteristics of image region and multiple characteristics of characteristic set | |
| DE102022106765B3 (en) | Method for determining a position of an object relative to a detection device, computer program and data carrier | |
| WO2020160861A1 (en) | Calibration of a sensor for a vehicle on the basis of object-side and image-side identification indices of a reference object | |
| EP3931798A1 (en) | Estimating the movement of an image position | |
| DE112022002410T5 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD AND CONTROL PROGRAM | |
| DE112021002598T5 (en) | IMAGE PROCESSING DEVICE | |
| DE102018121317B4 (en) | Method, apparatus and computer program for estimating directional information conveyed by a free space gesture for determining a user input at a human-machine interface | |
| DE102023203164A1 (en) | Method for determining at least one degree of freedom of a camera, computer program, machine-readable storage medium and electronic control unit or automation arrangement | |
| DE102017217063A1 (en) | A recognition system, method of operation and training method for generating a 3D model with reference data | |
| DE102019102423A1 (en) | Method for live annotation of sensor data | |
| DE102024201856A1 (en) | Method and control unit for determining a change in position of a container | |
| DE102017217156B4 (en) | Method and device for controlling a driver assistance system using a stereo camera system with a first and a second camera |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20700358 Country of ref document: EP Kind code of ref document: A1 |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 20700358 Country of ref document: EP Kind code of ref document: A1 |