WO2007002964A2 - Method for lane recognition - Google Patents
Method for lane recognition Download PDFInfo
- Publication number
- WO2007002964A2 WO2007002964A2 PCT/AT2006/000261 AT2006000261W WO2007002964A2 WO 2007002964 A2 WO2007002964 A2 WO 2007002964A2 AT 2006000261 W AT2006000261 W AT 2006000261W WO 2007002964 A2 WO2007002964 A2 WO 2007002964A2
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- lane
- image
- orientation
- determined
- vanishing point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
Definitions
- the invention relates to a method according to the preamble of claim 1.
- the aim of the invention is to recognize with the least possible effort and with the greatest possible accuracy within a short time or with as little recorded images of a vehicle from a lane or a lane marking or other along the road extending markings or attached markings.
- a quick finding of vanishing points is achieved with the features of claim 2!
- a quick and accurate histogram creation is done with the characteristics of the
- the computer program product according to the invention makes it possible for the method according to the invention to be executed on a computer.
- Fig. 1 shows a view of a traffic lane from above.
- Fig. 2 shows a detection of lane markings by determining four lane boundaries.
- Fig. 3 shows edge pixels superimposed on the recorded original image to the lane boundaries.
- FIG. 4 shows the process of voting for a vanishing point based on a pixel with the orientation or inclination angle ⁇ of a connecting line.
- FIGS. 5 and 5a show the calculation of an image division line. 6 shows a 1 D
- Fig. 1 shows schematically a Jardining- or camera system 1, which moves in a lane 2, seen from above in the Euclidean space.
- the lane 2 is marked on the road by white bands or lane markings 3, 4 left and right.
- the right mark is continuous, while the left is piecewise continuous.
- L and R are each the distance measured from the optical center to the left and right lane markers.
- ⁇ L and M describe the width of the left and right
- the lane delimitations that is, the existing of two line segments boundaries of the left and right lane markers, as shown in Figure 2 can be seen. From left to right, the four lane boundaries are labeled LL (left lane marker left boundary), RL (left lane marker, right boundary), LR (right lane marker, left boundary), and RR (right lane marker right boundary). It is assumed that in the present case forward-looking image pickup unit 1, which is aligned substantially parallel to a flat road.
- the width of the lane mark ⁇ Land AR can be calculated; in addition, the error of L, R, ⁇ L and AR can be calculated as a function of the error of the detected slopes a LL , a RL , ⁇ 7 ⁇ and a RR .
- the lane recognition according to the invention comprises the following basic
- Edge detection with known optical image evaluation methods and gradient measurement or determination of the orientation and position of the identified edge pixels 2. Finding vanishing points that are caused by the position and orientation of the edges, preferably using a weighted 2D Hough transform in multiple resolutions and a following 2D maximum search.
- Vanishing Point i. Calculation of a quality measure or parameter for each hypothesis based on advantageously 5 criteria, namely mean orthogonal
- the determined parameters concerning track width (R + L) and / or inclination angle ⁇ are stored and used as a-priori information for the evaluation of the next picture at the next point in time.
- a known edge detection method is used to obtain a binary threshold image. The location and orientation of each edge pixel is measured. It filters out the pixels whose edge orientation is horizontal or nearly horizontal, since horizontal lane boundaries are not interesting, as this would mean that the vehicle is traveling orthogonal to the lane.
- Figure 3. shows an image in which the lane markers edge pixels are superimposed.
- a 2D Hough transformation is advantageously used.
- Other methods are known and usable. It is expedient to use a weighted, multiresolute 2D Hough transformation in order to find vanishing points F in the image.
- One of these vanishing points should correspond to the intersection of four lane boundaries.
- a rectangular Hough space centered around the optical center of the image is assumed. If there is no a-priori knowledge of the position of the vanishing point, the size of the rectangle is defined by the maximum possible values of inclination and horizontal rotation. However, if a-priori knowledge is given from previous measurements or image evaluations and / or values of tilt and / or rotation from other sensor data, the size of the Hough space can be reduced to a smaller area, thus facilitating the evaluation.
- the resulting 2D Hough space can be smoothed by convolution with a Gaussian mask. Then the maxima are detected and the strongest maxima are kept.
- the pitch angle is calculated, as shown in Figure 5 and 5a.
- the intersection of the illustrated horizontal and vertical lines corresponds to the optical center Z (x, y).
- the drawn point is a determined vanishing point F for the
- Image division line divides the image with respect to candidates for the boundaries of the left and right lane markers according to the equation of the tilt angle
- Cy represents the vertical position of the optical center in the image and NumRows represents the number of image pixels in the vertical direction.
- the resulting 1 D Hough space associated with the vanishing point (in Fig. 2) is shown in Fig. 6.
- the 4 maximas in the Hough space or histogram correspond to the lane boundaries of Fig. 2 and are labeled LL, LR, RL and RR.
- the vanishing point is a very robust indication, since it is derived from different information distributed in the image.
- the search problem for straight lines at a given vanishing point is reduced from a 2D to a 1D problem.
- the robustness can be further increased. To find support for each line is for each maximum found
- Inclination angle is given a given line inclination and given edge pixels that support the running through the respective vanishing line, the exact orientation or its course improved by the method of the robust least squares. For this, the tilt angle is calculated, which minimizes the sum of the square, orthogonal distances of the edge pixels to the connecting line.
- a characteristic value or quality measure for each hypothesis 5 criteria can be used. First, separate characteristics and quality measures are calculated for the candidates for the left and right lane marker pairs. The final characteristic value is a combination of the two individual values. The characteristic value of each lane marking is calculated by means of at least one of the following 5 values: 1. middle orthogonal gradient of each pair (gradient)
- Lane marking is applied or calculated in each case a quality measure and the two results obtained are summarized to a final quality measure, which refers to the respective vanishing point and extending through this limitations of the left and right lane markers.
- this procedure is carried out or applied to all vanishing vanishing points found and selected from the candidate pairs for the left and right lane marking those with the best quality measure and that the results of
- the last images can be examined. If an investigation was successful, the result of the last survey step is started as the starting point for the search for the new vanishing point in a given region centered around the previous result. This limitation of the search region limits the duration and the number of detected vanishing points.
- the width of the lane, R + L is a parameter that does not change as fast over time as the vanishing point. Therefore, the average track width is usually considered over a longer period and this value is used for the following evaluations. It is advantageous if, based on the hypotheses of a number of successively recorded images, the width of the lane is calculated and that this value is used to define or narrow down the range of the lane Distance between the left and right lane marking is used and / or for the respective vanishing point of an hypothesis, the inclination angle or the pitch of the image acquisition unit is calculated and that for successive hypotheses determined values of this slope for determining or delimiting the used for finding vanishing points 2D Hough space is used to create hypotheses of a subsequent image.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
Verfahren zur Fahrspurerkennung Lane detection method
Die Erfindung betrifft ein Verfahren gemäß dem Oberbegriff des Patentanspruches 1.The invention relates to a method according to the preamble of claim 1.
Ziel der Erfindung ist es, mit möglichst wenigen Aufwand und mit möglichst großer Genauigkeit innerhalb von kurzer Zeit bzw. mit möglichst wenig aufgenommenen Bildern von einem Fahrzeug aus eine Fahrspur bzw. eine Fahrspurmarkierung oder andere sich längs der Straße erstreckende Markierungen oder angebrachte Kennzeichnungen zu erkennen.The aim of the invention is to recognize with the least possible effort and with the greatest possible accuracy within a short time or with as little recorded images of a vehicle from a lane or a lane marking or other along the road extending markings or attached markings.
Diese Ziele werden mit einem Verfahren der eingangs genannten Art erreicht, in das erfindungsgemäß mit dem im Kennzeichen des Anspruches 1 angegebenen Merkmalen charakterisiert ist. Die Bilder können in beliebiger Richtung zur Fahrbahn aufgenommen werden, insbesondere nach vorne. Mit einer relativ geringen Anzahl von aufgenommenenThese objects are achieved with a method of the type mentioned, is characterized in the present invention with the features specified in the characterizing part of claim 1. The images can be taken in any direction to the roadway, in particular to the front. With a relatively small number of recorded
Bildern wird exakt die Lage der Markierungen ermittelt.Pictures are determined exactly the position of the markers.
Eine rasche Auffindung von Fluchtpunkten wird mit den Merkmalen des Anspruches 2 erreicht! Eine rasche und exakte Erstellung eines Histogramms wird mit den Merkmalen desA quick finding of vanishing points is achieved with the features of claim 2! A quick and accurate histogram creation is done with the characteristics of the
Anspruches 3 erreicht.Claim 3 reached.
Passende Ergebnisse werden rasch und exakt erreicht, wenn die Merkmale des Anspruches 4 zur Anwendung kommen.Suitable results are achieved quickly and accurately when the features of claim 4 are used.
Eine verbesserte und exakte Auswertung der Rechenergebnisse, insbesondere eine exaktere Bestimmung der Lage der Spurmarkierungen wird mit den Merkmalen des Anspruches 5 erreicht.An improved and exact evaluation of the calculation results, in particular a more exact determination of the position of the lane markings is achieved with the features of claim 5.
Für die laufende Auswertung während der Bewegung des Fahrzeuges sind die Merkmale des Anspruches 6 bzw. der Ansprüche 7 und 8 von Vorteil. Damit können erhaltene Werte für folgende Aufnahmen als Parameter bzw. eingrenzende Werte zur Verfügung gestellt werden, womit insbesondere der Rechenaufwand verringert wird.For the ongoing evaluation during the movement of the vehicle, the features of claim 6 and the claims 7 and 8 are advantageous. Thus obtained values for the following images can be made available as parameters or limiting values, which in particular reduces the computational effort.
Das erfindungsgemäße Computerprogrammprodukt ermöglicht es, dass das erfindungsgemäße Verfahren auf einem Computer abgearbeitet werden kann.The computer program product according to the invention makes it possible for the method according to the invention to be executed on a computer.
Im Folgenden wird die Erfindung anhand der Zeichnungen beispielsweise näher erläutert. Fig. 1 zeigt eine Ansicht einer Fahrspur von oben. Fig. 2 zeigt eine Detektion von Spurmarkierungen, indem vier Spurbegrenzungen ermittelt werden. Fig. 3 zeigt Kantenpixel, die auf dem aufgenommenen Originalbild den Spurbegrenzungen überlagert wurden.In the following the invention will be explained in more detail with reference to the drawings, for example. Fig. 1 shows a view of a traffic lane from above. Fig. 2 shows a detection of lane markings by determining four lane boundaries. Fig. 3 shows edge pixels superimposed on the recorded original image to the lane boundaries.
Fig. 4 zeigt beispielsweise den Vorgang des Votierens für einen Fluchtpunkt basierend auf einem Pixel bzw. Datenpunkt mit der Orientierung bzw. dem Neigungswinkel α einer Verbindungslinie. Fig. 5 und 5a zeigen die Berechnung einer Bildteilungslinie. Fig. 6 zeigt einen 1 D-For example, Fig. 4 shows the process of voting for a vanishing point based on a pixel with the orientation or inclination angle α of a connecting line. FIGS. 5 and 5a show the calculation of an image division line. 6 shows a 1 D
Hough-Raum, der aus den Kantenpixel entsprechend Fig. 3 für den Fluchtpunkt aus Fig. 2 ermittelt wurde. Im folgenden wird die Erfindung anhand der Zeichnung beispielsweise näher erläutert.Hough space, which was determined from the edge pixels corresponding to FIG. 3 for the vanishing point of FIG. In the following the invention will be explained in more detail with reference to the drawing, for example.
In Fig. 1 zeigt schematisch ein Bildaufnahme- bzw. Kamerasystem 1 , das sich in einer Fahrspur 2 bewegt, von oben gesehen im Euklidischen Raum. Die Fahrspur 2 wird auf der Straße durch weiße Bänder bzw. Spurmarkierungen 3, 4 links und rechts markiert. Die rechte Markierung ist beispielsweise kontinuierlich, während die linke stückweise kontinuierlich ist. L und R ist jeweils die Distanz gemessen vom optischen Zentrum zur linken und rechten Spurmarkierung. ΔL und M beschreiben die Breite der linken und rechtenIn Fig. 1 shows schematically a Bildaufnahme- or camera system 1, which moves in a lane 2, seen from above in the Euclidean space. The lane 2 is marked on the road by white bands or lane markings 3, 4 left and right. For example, the right mark is continuous, while the left is piecewise continuous. L and R are each the distance measured from the optical center to the left and right lane markers. ΔL and M describe the width of the left and right
Spurmarkierung.Track mark.
Zur Fahrspurerkennung sollen die Spurbegrenzungen, das sind die aus zwei Liniensegmente bestehenden Begrenzungen der linken und rechten Spurmarkierungen, wie aus Fig.2 ersichtlich, erkannt werden. Von links nach rechts werden die vier Spurbegrenzungen mit LL (linke Spurmarkierung linke Begrenzung), RL (linke Spurmarkierung, rechte Begrenzung), LR (rechte Spurmarkierung, linke Begrenzung) und RR (rechte Spurmarkierung rechte Begrenzung) bezeichnet. Es wird von einer im vorliegenden Fall vorwärtsgerichteten Bildaufnahmeeinheit 1 ausgegangen, die im wesentlichen parallel zu einer ebenen Straße ausgerichtet ist. Im folgenden wird mit (xo, yo) der Fluchtpunkt, d.h. der Schnittpunkt der 4 Spurbegrenzungen im aufgenommenen Bild; θ ist der Neigungswinkel der Kamera zur Straße, bezeichnet, φ ist der Rotationswinkel der Kamera nach rechts oder links; / ist die Brennweite der Kamera; H ist die Höhe der Kamera über der Straße. aLL , aRL , a^ und aRR sind die jeweiligen Anstiege der 4 Spurbegrenzungen im Bild. aL und aR sind die mittleren Anstiege der linken und rechten Spurmarkierungen im Bild. L und R sind die Euklidischen Distanzen von der Kamera zur linken und rechten Spurmarkierung. Als Grundformeln gelten:For lane detection, the lane delimitations, that is, the existing of two line segments boundaries of the left and right lane markers, as shown in Figure 2 can be seen. From left to right, the four lane boundaries are labeled LL (left lane marker left boundary), RL (left lane marker, right boundary), LR (right lane marker, left boundary), and RR (right lane marker right boundary). It is assumed that in the present case forward-looking image pickup unit 1, which is aligned substantially parallel to a flat road. In the following, with (x o , y o ) the vanishing point, ie the intersection of the 4 lane boundaries in the recorded image; θ is the inclination angle of the camera to the road, designated, φ is the rotation angle of the camera to the right or left; / is the focal length of the camera; H is the height of the camera above the road. a LL , a RL , a ^ and a RR are the respective slopes of the 4 lane boundaries in the image. a L and a R are the average slopes of the left and right lane markings in the image. L and R are the Euclidean distances from the camera to the left and right lane markers. Basic formulas are:
Aus (2) kann daher die Breite der Spurmarkierung ΔLand AR berechnet werden; zusätzlich kann der Fehler von L, R, ΔL and AR als Funktion des Fehlers der ermittelten Anstiege aLL , aRL , <7ω und aRR berechnet werden. From (2), therefore, the width of the lane mark ΔLand AR can be calculated; in addition, the error of L, R, ΔL and AR can be calculated as a function of the error of the detected slopes a LL , a RL , <7 ω and a RR .
Die erfindungsgemäße Fahrspurerkennung umfasst die folgenden grundlegendenThe lane recognition according to the invention comprises the following basic
Schritte:Steps:
1. Kantendetektion mit bekannten optischen Bildauswertungsverfahren und Gradientenmessung bzw. Feststellung der Orientierung und Lage der identifizierten Kantenpixel 2. Auffinden von Fluchtpunkten, die durch die Lage und Orientierung der Kanten bedingt sind, vorzugsweise unter Verwendung einer gewichteten 2D-Hough- Transformation in mehreren Auflösungen und einer folgenden 2D-Maximum- Suche.1. Edge detection with known optical image evaluation methods and gradient measurement or determination of the orientation and position of the identified edge pixels 2. Finding vanishing points that are caused by the position and orientation of the edges, preferably using a weighted 2D Hough transform in multiple resolutions and a following 2D maximum search.
3. Für jeden gefundenen Fluchtpunkt a. Berechnung des Teilungswinkel bzw. einer Bildteilungslinie zwischen der linken und rechten Spurmarkierung und deren Begrenzung b. Auffinden von Linien bzw. Verbindungslinien, die durch den Fluchtpunkt gehen, vorteilhafterweise unter Verwendung einer 1 D-Hough- Transformation und einer 1-dimensionalen Maximumsuche c. Auffinden der Unterstützung der einzelnen Linien und Bildung eines3. For each vanishing point found a. Calculation of the pitch angle or an image division line between the left and right lane markers and their boundaries b. Locating lines passing through the vanishing point, advantageously using a 1-D Hough transform and a 1-dimensional maximum search c. Finding the support of each line and forming one
Histogrammes mit den Neigungswinkeln der ermittelten Verbindungslinien, d. Verbesserung der Orientierung bzw. des Neigungswinkels jeder Verbindungslinie durch die Methode der robusten kleinsten Abstandsquadrate (Minimierung der Summe der quadratischen, orthogonalen Abstände der Kantenpixele von der durch den Fluchtpunkt gehenden Verbindungslinie e. Berechnung des mittleren orthogonalen Gradienten für jede Verbindungslinie bzw. von Hell-Dunkel- bzw. Dunkel-Hell-Übergängen f. Auffinden von Spurbegrenzungs-Kandidaten LL, RL, LR und RR g. Auffinden von Spurmarkierungs-Kandidaten (Paare LL, RL und LR, RR) h. Suche unter den der linken Spurmarkierung und/oder den der rechten Spurmarkierung zugeordneten linken und rechten Begrenzungs- Kandidaten der beiden Spurmarkierungen nach zusammengehörigen Paaren bzw. Auffinden von Spur-Kandidaten und Erstellung einer kompletten Hypothese von 4 Spurbegrenzungen für den jeweiligenHistogram with the angles of inclination of the determined connecting lines, d. Improvement of the orientation or the angle of inclination of each connecting line by the least squares method (minimizing the sum of the quadratic orthogonal distances of the edge pixel from the connecting line passing through the vanishing point e) Calculating the average orthogonal gradient for each connecting line or chiaroscuro or dark-light transitions for finding lane boundary candidates LL, RL, LR and RR g locating lane marker candidates (pairs LL, RL and LR, RR) h search among those of the left lane marker and / or the left and right boundary candidates associated with the right lane marking the two lane markers for matching pairs or finding track candidates and creating a complete hypothesis of 4 lane delimitations for the respective
Fluchtpunkt. i. Berechnung eines Qualitätsmaßes bzw. Kennwertes für jede Hypothese basierend auf vorteilhafterweise 5 Kriterien, nämlich mittlerer orthogonalerVanishing Point. i. Calculation of a quality measure or parameter for each hypothesis based on advantageously 5 criteria, namely mean orthogonal
Gradient jedes Paares von Spurbegrenzungen und/oder mittlereGradient of each pair of lane boundaries and / or medium
Unterstützungsgröße für jede Begrenzung und/oder Ähnlichkeit innerhalb eines Paares von Begrenzungen und/oder Kontinuität der die Begrenzung stützenden Kantenpixel und/oder mittlerer seitlicher Fehler jedes Paares.Support size for any bounds and / or similarities within a pair of bounds and / or continuity of the boundary-supporting edge pixels and / or mean lateral errors of each pair.
4. Auswahl von Hypothesen mit den höchsten Kennwerten4. Selection of hypotheses with the highest characteristic values
5. Die ermittelten Parameter betreffend Spurbreite (R+L) und/oder Neigungswinkel θ werden gespeichert und als a-priori Information für die Auswertung des nächsten Bildes im nächsten Zeitpunkt weiterverwendet.5. The determined parameters concerning track width (R + L) and / or inclination angle θ are stored and used as a-priori information for the evaluation of the next picture at the next point in time.
Zur Kantendetektion und Gradientenmessung wird ein bekannter Kantendetektionsverfahren eingesetzt, um ein binäres Schwellwertbild zu erhalten. Die Lage und Orientierung jedes Kantenpixels wird gemessen. Es werden die Pixel herausgefiltert, deren Kantenorientierung horizontal oder annähernd horizontal ist, da waagrechte Spurbegrenzungen nicht interessant sind, da dies bedeuten würde, dass das Fahrzeug orthogonal zur Fahrspur fährt. Fig.3. zeigt ein Bild, in den den Spurmarkierungen Kantenpixel überlagert sind.For edge detection and gradient measurement, a known edge detection method is used to obtain a binary threshold image. The location and orientation of each edge pixel is measured. It filters out the pixels whose edge orientation is horizontal or nearly horizontal, since horizontal lane boundaries are not interesting, as this would mean that the vehicle is traveling orthogonal to the lane. Figure 3. shows an image in which the lane markers edge pixels are superimposed.
Zur Auffindung des Fluchtpunktes F wird vorteilhafterweise eine 2D Hough- Transformation eingesetzt. Andere Verfahren sind bekannt und einsetzbar. Zweckmäßig wird eine gewichtete, multiresoluten 2D Hough-Transformation verwendet, um Fluchtpunkte F im Bild zu finden. Einer dieser Fluchtpunkte sollte mit dem Schnittpunkt von vier Spurbegrenzungen korrespondieren. Um diesen zu finden, wird ein rechteckiger, um das optische Zentrum des Bildes zentrierter Hough-Raum angenommen. Wenn kein a-priori Wissen über die Position des Fluchtpunktes gegeben ist, wird die Größe des Rechteckes über die größtmöglichen Werte von Neigung und waagrechter Rotation definiert. Wenn jedoch a-priori Wissen aus vorangehenden Messungen bzw. Bildauswertungen gegeben ist und/oder durch Werte von Neigung und/oder Rotation aus anderen Sensordaten, kann die Größe des Hough-Raumes auf ein kleineres Gebiet reduziert werden, womit die Auswertung erleichtert wird.In order to find the vanishing point F, a 2D Hough transformation is advantageously used. Other methods are known and usable. It is expedient to use a weighted, multiresolute 2D Hough transformation in order to find vanishing points F in the image. One of these vanishing points should correspond to the intersection of four lane boundaries. To find this, a rectangular Hough space centered around the optical center of the image is assumed. If there is no a-priori knowledge of the position of the vanishing point, the size of the rectangle is defined by the maximum possible values of inclination and horizontal rotation. However, if a-priori knowledge is given from previous measurements or image evaluations and / or values of tilt and / or rotation from other sensor data, the size of the Hough space can be reduced to a smaller area, thus facilitating the evaluation.
Jeder Datenpunkt, gemeinsam mit seiner Orientierung, definiert ein Segment,Each data point, together with its orientation, defines a segment,
bι ~ y0 )cos (ßi ) = (*/ ~ *0 )sül (at ) (3)bi ~ y 0 ) cos (bi) = (* / ~ * 0 ) sül ( a t) ( 3 )
und votiert für alle Zellen im Hough-Raum, die sich mit diesem Segment schneiden (siehe Fig.4). Der resultierende 2D-Hough-Raum kann durch Faltung mit einer Gauß-Maske, geglättet werden. Danach werden die Maxima detektiert und die stärksten Maxima werden behalten.and voted for all cells in Hough space that intersect with this segment (see Fig. 4). The resulting 2D Hough space can be smoothed by convolution with a Gaussian mask. Then the maxima are detected and the strongest maxima are kept.
Zum Auffinden der Neigungswinkel für gerade Linien bzw. Verbindungslinien, bei bekanntem Fluchtpunkt zur Unterscheidung zwischen den Begrenzungen der linken und rechten Spurmarkierungen, wird der Teilungswinkel berechnet, wie in Fig.5 und 5a gezeigt.For finding the inclination angles for straight lines or connecting lines, with known vanishing point for distinguishing between the boundaries of the left and right lane markings, the pitch angle is calculated, as shown in Figure 5 and 5a.
Der Schnittpunkt der dargestellten horizontalen und vertikalen Linie korrespondiert mit dem optischen Zentrum Z (x, y). Der eingezeichnete Punkt ist ein ermittelter Fluchtpunkt F für dieThe intersection of the illustrated horizontal and vertical lines corresponds to the optical center Z (x, y). The drawn point is a determined vanishing point F for the
Spurbegrenzungen. Vor der Detektion der vier Begrenzungslinien wird eine Linie zwischen dem Fluchtpunkt F (x0, y0) und dem unteren Ende der vertikalen Linie gezogen. DieseTrack boundaries. Before the detection of the four boundary lines, a line is drawn between the vanishing point F (x 0 , y 0 ) and the lower end of the vertical line. These
Bildteilungslinie teilt das Bild in Hinblick auf Kandidaten für die Begrenzungen der linken und rechten Spurmarkierungen entsprechend der Gleichung der NeigungswinkelImage division line divides the image with respect to candidates for the boundaries of the left and right lane markers according to the equation of the tilt angle
ß = atan2((Cy - NumRows) - yo,-Xo (4)ß = atan2 ((Cy - NumRows) - y o , -Xo (4)
wobei Cy die vertikale Position des optischen Zentrums im Bild und NumRows die Anzahl der Bildpixel in vertikaler Richtung darstellt.where Cy represents the vertical position of the optical center in the image and NumRows represents the number of image pixels in the vertical direction.
Bei gegebenem Fluchtpunkt {χQ, yQ) werden zweckmäßigerweise unter aus vorangehenden Messungen bzw. Bildauswertungen Verwendung einer eindimensionalen Hough-Transformation gerade Liniensegmente gesucht, die durch den Fluchtpunkt F gehen. Die Detektion der Spurbegrenzungen bei gegebenem Fluchtpunkt F ist robuster als die Detektion ohne gegebenem Fluchtpunkt, da die Position des Fluchtpunktes die Interpretation der Datenpunkte als Linien stark einschränkt.For a given Diminishing {χ Q, y Q) of a one-dimensional Hough transform are straight line segments searched conveniently effected under from previous measurements or evaluations using image that pass through the vanishing point F. The detection of the lane boundaries at a given vanishing point F is more robust than the detection without a given vanishing point, since the position of the vanishing point severely restricts the interpretation of the data points as lines.
Bei gegebenem Fluchtpunkt und einem Datenpunkt (*,., )>. ) votiert dieser für eine mögliche Existenz einer Linie mit NeigungFor a given vanishing point and a data point (*,.,)>. ), this vote for a possible existence of a line with inclination
Unter Berücksichtung des Fehlers in der Orientierung (der nicht durch den gemessenen Gradienten der Pixel sondern durch den Lokalisierungsfehler jedes Datenpunktes (*,., )>,.) verursacht wird),Taking into account the error in the orientation (which is not caused by the measured gradient of the pixels but by the localization error of each data point (*,.,)>,.)),
wird, wie in Fig. 5b näher erläutert, für alle Neigungswinkel im Intervall [at - AanOi1 + Aa1] votiert. Danach wird zweckmäßigerweise der 1 D-Hough-Raum is, as explained in more detail in Fig. 5b, for all inclination angles in the interval [a t - Aa n Oi 1 + Aa 1 ] voted. Thereafter, the 1 D-Hough space is expediently
(Histogramm) basierend auf Orientierung bzw. Neigungswinkel der Verbindungslinien beispielsweise mit einer Gauß-Maske geglättet. In diesem Histogramm wird nach Verbindungslinien mit den stärksten Maxima gesucht.(Histogram) based on orientation or inclination angle of the connecting lines, for example, smoothed with a Gaussian mask. This histogram searches for connecting lines with the strongest maxima.
Der resultierende 1 D-Hough-Raum,der mit dem Fluchtpunkt (in Fig.2) assoziiert ist, wird in Fig. 6 gezeigt. Die 4 Maximas im Hough-Raum bzw. Histogramm korrespondieren mit den Spurbegrenzungen von Fig.2 und sind mit LL, LR, RL und RR markiert.The resulting 1 D Hough space associated with the vanishing point (in Fig. 2) is shown in Fig. 6. The 4 maximas in the Hough space or histogram correspond to the lane boundaries of Fig. 2 and are labeled LL, LR, RL and RR.
Das Faktum, dass der Fluchtpunkt zuerst und erst dann die Spurbegrenzungen detektiert werden, macht die Methode robuster. Der Fluchtpunkt ist ein sehr robuster Hinweis, da er von unterschiedlicher, im Bild verteilter Information abgeleitet wird. Das Suchproblem für gerade Linien bei gegebenem Fluchtpunkt wird von einem 2D zu einem 1 D-Problem reduziert. Bei Verwendung einer Top-down Heuristik (Einsatz des geometrischen anstatt des gemessenen Gradienten) kann die Robustheit weiter erhöht werden. Zur Auffindung von Unterstützung für jede Linie wird für jedes gefundene MaximumThe fact that the vanishing point is detected first and then the lane delimitations makes the method more robust. The vanishing point is a very robust indication, since it is derived from different information distributed in the image. The search problem for straight lines at a given vanishing point is reduced from a 2D to a 1D problem. When using a top-down heuristic (use of the geometric instead of the measured gradient), the robustness can be further increased. To find support for each line is for each maximum found
(entspricht einer bestimmten Linienneigung) des 1 D-Hough-Raumes dessen Unterstützung im Bild berechnet. Dazu wird die Anzahl der Kantenpixel ermittelt, die diese Linie unterstützten, wobei eine gewisse orthogonale Abweichung des Pixels von der Linie zugelassen wird. Zur Verbesserung der Bestimmung der Linienneigung, d.h. der Orientierung bzw. des(corresponding to a certain line slope) of the 1 D Hough space whose support is calculated in the image. For this purpose, the number of edge pixels that support this line is determined, allowing some orthogonal deviation of the pixel from the line. To improve the determination of line slope, i. the orientation or the
Neigungswinkels, wird bei gegebener Linienneigung und gegebenen Kantenpixel, die die durch den jeweiligen Fluchtpunkt verlaufende Linie unterstützen, die genaue Orientierung bzw. deren Verlauf durch die Methode der robusten kleinsten Abstandsquadrate verbessert. Dazu wird der Neigungswinkel berechnet, der die Summe der quadratischen, orthogonalen Distanzen der Kantenpixel zur Verbindungslinie minimiert.Inclination angle, is given a given line inclination and given edge pixels that support the running through the respective vanishing line, the exact orientation or its course improved by the method of the robust least squares. For this, the tilt angle is calculated, which minimizes the sum of the square, orthogonal distances of the edge pixels to the connecting line.
Wenn AI und ΔJ das Resultat einer Faltung des Orginalbildes mit der passenden Orientierungsmaske ist, dann ist das Gradientenbild der Kantenpixel gegeben durch - All AJ . Der mittlere orthogonale Gradient einer Linie ist dann gegeben durch die GleichungIf AI and ΔJ is the result of a convolution of the original image with the appropriate orientation mask, then the gradient image of the edge pixels is given by - All AJ. The mean orthogonal gradient of a line is then given by the equation
i » PerpGrad = — J] (- sin (a, ) ■ AI (x, , yt )+ cos (a, ) • ΔJ (x, , y, )) (8) n - ir=\i »PerpGrad = - J] (- sin (a,) ■ AI (x ,, y t ) + cos (a,) • ΔJ (x,, y,)) (8) n - ir = \
Die Spurbegrenzungs-Kandidaten LL, RL, LR und RR werden sodann aufgrund ihres mittleren orthogonalen Gradienten (PerpGrad) ausgewählt (Übergang von dunkel zu hell oder umgekehrt) und nach ihren Neigungswinkeln kleiner oder größer als der Teilungswinkel bzw. Neigungswinkel der Bildteilungslinie klassifiziert: LL = {a, \a(≤ß + Aß A PerpGrad ,. > 0}The lane boundary candidates LL, RL, LR and RR are then selected based on their average orthogonal gradient (PerpGrad) (transition from dark to light or vice versa) and classified according to their inclination angles smaller or larger than the pitch angle of the image splitting line: LL = {a, \ a ( ≤β + Aβ A PerpGrad,.> 0}
LR = {at \at≤ß + Aß Λ PerpGrad t < 0}LR = {a t \ a t ≤β + Aβ Λ PerpGrad t <0}
O)O)
RL = {a, \at≥ß-Aß Λ PerpGrad t > 0}RL = {a, \ a t ≥β -Aß Λ PerpGrad t > 0}
LR = (^1. \at≥ß-Aß A PerpGrad . < 0}LR = (^ 1. \ A t ≥ß-Aß A PerpGrad. <0}
wobei z.B. Aß = \° verwendet werden kann. Zum Auffinden von Paaren von Spurmarkierungs-Kandidaten (Paare LL1RL undwhere eg Aβ = \ ° can be used. To find pairs of lane marker candidates (pairs LL 1 RL and
LR1RR) wird wie folgt vorgegangen:LR 1 RR), the procedure is as follows:
Um die linken Spurmarkierung-Kandidaten zu ermitteln, werden alle LL und RL Kandidaten paarweise gruppiert gemäßTo find the left lane marker candidates, all LL and RL candidates are grouped in pairs according to
ajeLR> a(eLL Λ W≥mϊnW-dW Λ W≤m&xW + dW (10)a j eLR> a (eLL Λ Λ W≥mϊnW-dW W≤m & xW + dW (10)
wobei W die Breite der Spurmarkierung, und dW der ermittelte Fehler von W ist aufgrund Fehler in der Neigung. Auf gleiche Weise werden die rechten Spurmarkierung-Kandidaten berechnet:where W is the width of the lane marker, and dW is the detected error of W due to slope errors. In the same way, the right lane marker candidates are calculated:
ctjGRR > a(G RL Λ W≥minW-dW Λ W≤msixW + dW (11)ct j GRR> a ( G RL Λ W≥minW-dW Λ W≤msixW + dW (11)
wobei beispielsweise praxisgerecht vorgegebene verwendet werden könnten.wherein, for example, practically predetermined ones could be used.
Zum Auffinden der Spurkandidaten, d.h. einer kompletten Hypothese der vier Spurbegrenzungen LL, RL, LR, RR, werden Paare von linken und rechten Spurmarkierungen gruppiert und überprüft, ob die Gesamtbreite der Spur gemäß üblichen Straßenbedingungen sinnvoll ist gemäßTo find the track candidates, i. According to a complete hypothesis of the four lane delineations LL, RL, LR, RR, pairs of left and right lane markers are grouped and it is checked whether the total width of the lane is reasonable according to usual road conditions according to
R+L≥mmLR A R+L≤mzxLR (12)R + L≥mmLR A R + L≤mzxLR (12)
Zur Berechnung eines Kennwertes bzw. Qualitätsmaßes für jede Hypothese können 5 Kriterien herangezogen werden. Zuerst werden separate Kennwerte bzw. Qualitätsmaße für die Kandidaten für die Paare der linken und rechten Spurmarkierung berechnet. Der endgültige Kennwert ist eine Verknüpfung der beiden einzelnen Werte. Der Kennwert jeder Spurmarkierung wird mittels zumindest einem der folgenden 5 Werten berechnet: 1. mittlerer orthogonaler Gradient jedes Paares (Gradient)For the calculation of a characteristic value or quality measure for each hypothesis 5 criteria can be used. First, separate characteristics and quality measures are calculated for the candidates for the left and right lane marker pairs. The final characteristic value is a combination of the two individual values. The characteristic value of each lane marking is calculated by means of at least one of the following 5 values: 1. middle orthogonal gradient of each pair (gradient)
Wie in (8) beschrieben. Es wird der mittleren orthogonale Gradienten für jede der 2 Spurbegrenzungen berechnet und das Mittel errechnet.As described in (8). Calculate the mean orthogonal gradient for each of the 2 lane delineations and calculate the mean.
2. mittlere Unterstützungsgröße für jedes Paar (SupportSize) Es wird die Anzahl der Kantenpixel ermittelt, die jede der beiden Spurbegrenzungen unterstützt und das Mittel berechnet.2. Medium support size for each pair (SupportSize) Determines the number of edge pixels that supports each of the two lane boundaries and calculates the average.
3. Liniengleichheit innerhalb eines Paares (Similarity)3. Line equality within a pair (similarity)
Dazu wird berechnet, wie gleich die Kantendaten von 2 Spurbegrenzungen derselben Spurmarkierung sind. 4. mittlere Kontinuität der Kantenpixel, die ein Paar stützen (continuity)For this, it is calculated how equal the edge data of 2 lane boundaries of the same lane marker are. 4. average continuity of edge pixels supporting a pair (continuity)
5. mittlerer seitlicher Fehler jedes Paares [Lateral Erroή, wozu für jede der 2 Spurbegrenzungen die mittlere orthogonale Distanz der Datenpixel von der Linie und dann das Mittel errechnet wird.5. Lateral lateral error of each pair [Lateral Erroή, for which the average orthogonal distance of the data pixels from the line and then the mean is calculated for each of the 2 lane delineations.
Im folgenden erfolgt eine Auswahl des Spurmarkierungen mit maximalen Kennwert. Es ist femer vorgesehen, dass auf die Kandidaten für die linke als auch für die rechteBelow is a selection of lane markers with maximum characteristic. It is also envisaged that candidates for the left as well as the right
Spurmarkierung jeweils für sich ein Qualitätsmaß angewendet bzw. errechnet wird und die beiden erhaltenen Resultate zu einem End-Qualitätsmaß zusammengefasst werden, das sich auf den jeweiligen Fluchtpunkt und die durch diesen verlaufende Begrenzungen der linken und rechten Spurmarkierungen bezieht. Vorteilhafterweise ist vorgesehen, dass diese Vorgangsweise für alle aufgefundenen Fluchtpunkte vorgenommen bzw. angewendet wird und aus den erhaltenen Kandidatenpaaren für die linke und rechte Spurmarkierung diejenigen mit den besten Qualitätsmaßes ausgewählt werden und dass die Ergebnisse desLane marking is applied or calculated in each case a quality measure and the two results obtained are summarized to a final quality measure, which refers to the respective vanishing point and extending through this limitations of the left and right lane markers. Advantageously, it is provided that this procedure is carried out or applied to all vanishing vanishing points found and selected from the candidate pairs for the left and right lane marking those with the best quality measure and that the results of
Qualitätsmaßes zur Bewertung der Relevanz der erhaltenen Paare von Spurmarkierungen eingesetzt werden. Schließlich erfolgt eine Speicherung und Weiterverwendung der erhaltenen Werte bzw. Parameter.Quality measure used to assess the relevance of the obtained pairs of lane markers. Finally, storage and further use of the values or parameters obtained take place.
Zur Verfolgung des Fluchtpunktes können die jeweils letzten Bilder untersucht werden. Sofern eine Ermittlung erfolgreich war, wird das Resultat des letzten Erhebungsschrittes als Startpunkt für die Suche nach dem neuen Fluchtpunkt in einer vorgegebenen Region zentriert um das vorhergehende Resultat gestartet. Diese Eingrenzung der Suchregion limitiert die Laufzeit und die Anzahl der detektierten Fluchtpunkte.To trace the vanishing point, the last images can be examined. If an investigation was successful, the result of the last survey step is started as the starting point for the search for the new vanishing point in a given region centered around the previous result. This limitation of the search region limits the duration and the number of detected vanishing points.
Die Breite der Fahrspur, R + L , ist ein Parameter der sich über die Zeit nicht so schnell ändert, wie der Fluchtpunkt. Deshalb wird die durchschnittliche Spurbreite üblicherweise über einen längeren Zeitraum betrachtet und dieser Wert für folgende Auswertungen herangezogen. Von Vorteil ist es dazu, wenn basierend auf den Hypothesen einer Anzahl von aufeinanderfolgend aufgenommenen Bildern die Breite der Fahrspur berechnet wird und dass dieser Wert zur Festlegung bzw. Eingrenzung des Bereiches der Distanz zwischen der linken und rechten Spurmarkierung herangezogen wird und/oder für den jeweiligen Fluchtpunkt einer Hypothese der Neigungswinkel bzw. die Nickneigung der Bildaufnahmeeinheit berechnet wird und dass die für aufeinanderfolgende Hypothesen festgestellten Werte dieser Neigung zur Festlegung bzw. Eingrenzung des für das Auffinden von Fluchtpunkten eingesetzte 2D-Hough-Raumes für die Erstellung von Hypothesen eines folgenden Bildes herangezogen wird.The width of the lane, R + L, is a parameter that does not change as fast over time as the vanishing point. Therefore, the average track width is usually considered over a longer period and this value is used for the following evaluations. It is advantageous if, based on the hypotheses of a number of successively recorded images, the width of the lane is calculated and that this value is used to define or narrow down the range of the lane Distance between the left and right lane marking is used and / or for the respective vanishing point of an hypothesis, the inclination angle or the pitch of the image acquisition unit is calculated and that for successive hypotheses determined values of this slope for determining or delimiting the used for finding vanishing points 2D Hough space is used to create hypotheses of a subsequent image.
Patentansprüche claims
Claims
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ATA1130/2005 | 2005-07-04 | ||
| AT0113005A AT502320B1 (en) | 2005-07-04 | 2005-07-04 | METHOD FOR DRIVING TRAVEL IDENTIFICATION |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| WO2007002964A2 true WO2007002964A2 (en) | 2007-01-11 |
| WO2007002964A3 WO2007002964A3 (en) | 2007-04-12 |
Family
ID=37429310
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/AT2006/000261 Ceased WO2007002964A2 (en) | 2005-07-04 | 2006-06-26 | Method for lane recognition |
Country Status (2)
| Country | Link |
|---|---|
| AT (1) | AT502320B1 (en) |
| WO (1) | WO2007002964A2 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102007033887A1 (en) | 2007-07-20 | 2008-09-04 | Vdo Automotive Ag | Controller for driver assistance system with recommendation for lane change has decision device for deciding about outputting of lane change signal to the driver taking into account further lane and vehicle detection results |
| DE102007017293A1 (en) | 2007-04-12 | 2008-10-16 | Continental Automotive Gmbh | Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle |
| WO2008132130A1 (en) | 2007-04-25 | 2008-11-06 | Continental Automotive Gmbh | Driving lane detection using cameras having different focal lengths |
| DE102007051967A1 (en) * | 2007-10-31 | 2009-05-07 | Adc Automotive Distance Control Systems Gmbh | Detector and method for detecting a lane boundary |
| CN109255316A (en) * | 2018-08-30 | 2019-01-22 | 深圳市路畅科技股份有限公司 | A kind of lane shift detection method and system |
| CN111079598A (en) * | 2019-12-06 | 2020-04-28 | 深圳市艾为智能有限公司 | Lane line detection method based on image texture and machine learning |
| DE102011107190B4 (en) | 2010-07-20 | 2022-03-17 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Method for determining the position of a vehicle in a lane |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7444156B2 (en) * | 2021-12-22 | 2024-03-06 | トヨタ自動車株式会社 | Driving support devices, vehicles, driving support methods, and driving support programs |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4016735B2 (en) * | 2001-11-30 | 2007-12-05 | 株式会社日立製作所 | Lane mark recognition method |
| JP3729141B2 (en) * | 2002-02-27 | 2005-12-21 | 日産自動車株式会社 | Road white line recognition device |
-
2005
- 2005-07-04 AT AT0113005A patent/AT502320B1/en not_active IP Right Cessation
-
2006
- 2006-06-26 WO PCT/AT2006/000261 patent/WO2007002964A2/en not_active Ceased
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102007017293A1 (en) | 2007-04-12 | 2008-10-16 | Continental Automotive Gmbh | Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle |
| WO2008132130A1 (en) | 2007-04-25 | 2008-11-06 | Continental Automotive Gmbh | Driving lane detection using cameras having different focal lengths |
| DE102007019531A1 (en) | 2007-04-25 | 2008-11-13 | Continental Automotive Gmbh | Lane detection with cameras of different focal lengths |
| DE102007033887A1 (en) | 2007-07-20 | 2008-09-04 | Vdo Automotive Ag | Controller for driver assistance system with recommendation for lane change has decision device for deciding about outputting of lane change signal to the driver taking into account further lane and vehicle detection results |
| DE102007051967A1 (en) * | 2007-10-31 | 2009-05-07 | Adc Automotive Distance Control Systems Gmbh | Detector and method for detecting a lane boundary |
| US8355540B2 (en) | 2007-10-31 | 2013-01-15 | Adc Automotive Distance Controls Systems Gmbh | Detector and method for identifying a road lane boundary |
| DE102011107190B4 (en) | 2010-07-20 | 2022-03-17 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Method for determining the position of a vehicle in a lane |
| CN109255316A (en) * | 2018-08-30 | 2019-01-22 | 深圳市路畅科技股份有限公司 | A kind of lane shift detection method and system |
| CN111079598A (en) * | 2019-12-06 | 2020-04-28 | 深圳市艾为智能有限公司 | Lane line detection method based on image texture and machine learning |
| CN111079598B (en) * | 2019-12-06 | 2023-08-08 | 深圳市艾为智能有限公司 | Lane line detection method based on image texture and machine learning |
Also Published As
| Publication number | Publication date |
|---|---|
| AT502320B1 (en) | 2007-07-15 |
| WO2007002964A3 (en) | 2007-04-12 |
| AT502320A1 (en) | 2007-02-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69625423T2 (en) | Device for recognizing an object in which the position of a flat object is estimated using a Hough transformation | |
| DE69624614T2 (en) | Stereo matching and inequality measurement method | |
| DE69635569T2 (en) | Device for determining the local position of a car on a road | |
| DE102006057552B4 (en) | System and method for measuring the distance of a preceding vehicle | |
| DE602004004911T2 (en) | OBJECT DETECTION SYSTEM AND OBJECT DETECTION METHOD | |
| DE68925091T2 (en) | Method and device for estimating the route | |
| DE60117348T2 (en) | Lane Detection Device for Vehicles | |
| DE102004043794B4 (en) | Method and apparatus for determining the lane of a vehicle, and a computer product | |
| EP2629243A1 (en) | Method for detecting and tracking lane markings | |
| DE102013205950A1 (en) | Detection and tracking of a road structure | |
| EP2206075B1 (en) | Detector and method for detecting a lane boundary | |
| DE102006005512B4 (en) | System and method for measuring the distance of a preceding vehicle | |
| DE102018129388A1 (en) | DETECTION DEVICE FOR THE EXTERNAL ENVIRONMENT OF VEHICLES | |
| DE102005035746B4 (en) | Method for determining a relative position of a mobile unit by comparing scans of an environment and mobile unit | |
| DE102014212866A1 (en) | Method for determining a parking space from a number of measuring points | |
| DE102022209990A1 (en) | Proper position deriving device | |
| AT502320B1 (en) | METHOD FOR DRIVING TRAVEL IDENTIFICATION | |
| DE102021203796A1 (en) | ROAD SURFACE DETECTION DEVICE, ROAD SURFACE DETECTION SYSTEM, VEHICLE, AND ROAD SURFACE DETECTION METHOD | |
| DE102015010514B4 (en) | A method of determining map information for a map data set of a navigation environment and computing device | |
| DE102019209473A1 (en) | Method and device for the rapid detection of repetitive structures in the image of a street scene | |
| DE102008059551B4 (en) | Method for determining the change in position of a camera system and device for capturing and processing images | |
| WO2021239326A1 (en) | Method for estimating an intrinsic speed | |
| DE19627938B4 (en) | Method for dynamic tracking in moving picture sequences | |
| DE102022207295A1 (en) | Method and device for monitoring a field of view of a stationary sensor | |
| EP3214602B1 (en) | Method for three-dimensional recording of objects |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application | ||
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| WWW | Wipo information: withdrawn in national office |
Country of ref document: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 06741056 Country of ref document: EP Kind code of ref document: A2 |