[go: up one dir, main page]

EP2932434A1 - Method and device for anaylzing trafficability - Google Patents

Method and device for anaylzing trafficability

Info

Publication number
EP2932434A1
EP2932434A1 EP13826921.2A EP13826921A EP2932434A1 EP 2932434 A1 EP2932434 A1 EP 2932434A1 EP 13826921 A EP13826921 A EP 13826921A EP 2932434 A1 EP2932434 A1 EP 2932434A1
Authority
EP
European Patent Office
Prior art keywords
trafficability
image data
vehicle
segmentation
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP13826921.2A
Other languages
German (de)
French (fr)
Inventor
Ralph GREWE
Stefan Hegemann
Matthias Zobel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Publication of EP2932434A1 publication Critical patent/EP2932434A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Definitions

  • the invention relates to a method and a device for trafficability analysis, which are particularly suitable for use in driver assistance systems.
  • Camera-based driver assistance systems which recognize the course of their own lane on the basis of the lane markings, are now established in the market, and their use is already required by law in certain application areas.
  • these driver assistance systems recognize the course of the markings of the own and the neighboring lanes and estimate therefrom the position of the own vehicle relative to the lane markings. Unintentional leaving the lane can thus be detected early and the system can initiate a suitable reaction, the z. B. warns the driver before leaving or prevented by driving the steering a leaving the lane.
  • driver assistance systems which warn not only when leaving a lane or prevent the departure, but to support a driver, for example in an evasive maneuver need for such a function more information about the possible path of the own vehicle than by the above-mentioned pure lane marking detecting systems is determined. If, for example, the goal of a driver assistance system is to prevent an accident by means of suitable automatic evasion, such a system also requires reliable information about whether a possible avoidance path is passable at all, in addition to information about one's own traffic lane, so that the vehicle is no longer damaged by the evasion or caused, as it would be by an accident in case of non-evasion. The determination of such information is referred to herein as trafficability analysis.
  • the object of the present invention is now to propose a method and a device for trafficability analysis. This object is solved by the subject matters of the independent claims. Further embodiments of the invention will become apparent from the dependent claims.
  • image data is understood to mean not only data generated by the camera-based system, but also those of all environmental detection systems, for example radar, lidar-based systems, which can supply data to an environment.
  • the detection of different areas is performed on the basis of an estimated ground level of the environment, whereby computing time can be saved and thus, as a rule, faster analysis results are obtained.
  • driving activities recognized in the trafficability analysis are taken into account in different areas, as a result of which a more reliable analysis result can be obtained.
  • An embodiment of the invention now relates to a trafficability analysis method using a computer comprising the steps of: receiving image data of an environment in front of a vehicle, analyzing the image data to recognize different areas in an environment image, and analyzing detected different areas with respect to the trafficability the vehicle. Analyzing the image data to detect different regions may include the following steps:
  • a method based on environmental images acquired with a plurality of camera optics or camera beams may be employed or a method based on recording with a camera optics at various positions utilizing motion stereo may be employed.
  • the segmentation of the estimated ground plane on the relevant pixels can be performed on the basis of color, saturation, intensity and / or texture information.
  • the segmentation of the estimated ground plane on the relevant pixels can be performed on the basis of variance information of the calculated positions of pixels in space.
  • the analysis of detected different areas with regard to the trafficability by the vehicle may include the detection of obstacles, in particular raised objects, and / or the detection of driving activities.
  • a driving activity is understood in particular to mean that a vehicle other than its own is currently driving in an area or has already traveled.
  • the driving activity can Include information about the direction of travel of the other vehicle, which counter or cross traffic can be considered.
  • an area can be excluded from trafficability. This applies, for example, to oncoming traffic even if driving in principle would be possible, but actual driving offers a great risk of a frontal accident.
  • the recognition of driving activities may include receiving and evaluating data of a camera-, radar- and / or lidar-based object recognition and / or receiving and evaluating an object list generated with a camera, radar and / or lidar-based object recognition.
  • the recognition of driving activities can also have a long-term observation of driving activities to increase the recognition reliability, the transfer of a trafficability classification to similar image areas and / or a dynamic exclusion of trafficability when detected danger by driving activity observation.
  • a further embodiment of the invention relates to a trafficability analysis apparatus using a computer having first means for receiving image data of an environment in front of a vehicle, second means for analyzing the image data for detecting different areas in an environment image, and third means for analyzing detected different ones Areas with regard to vehicle passability.
  • the second means may be arranged to carry out a method according to the invention and as described above, and the third means may be designed to carry out a method according to the invention and as described above.
  • Another embodiment of the invention relates to a driver assistance system having a device according to the invention and as described herein. Further advantages and possible applications of the present invention will become apparent from the following description in conjunction with the / in the drawing (s) illustrated embodiment (s).
  • FIG. 1 shows a flow chart of an embodiment of a method for trafficability analysis according to the invention.
  • Fig. 2 shows an example of a detected with a digital camera
  • Fig. 3 shows another example of a detected with a digital camera
  • An environmental image in front of a vehicle segmented by a trafficability analysis method according to the present invention a block diagram of an embodiment of an apparatus for Trafficability analysis according to the invention.
  • the flowchart of a program executed by a computer, shown in FIG. 1, is used to analyze image data generated, for example, by a stereovision camera which captures images of the surroundings in front of a vehicle and may belong to a camera-based driver assistance system with regard to vehicle driveability For example, to be able to quickly determine a suitable alternative route in the event of an evasive maneuver.
  • step S10 digital image data of the surroundings in front of the vehicle are received by the stereovision camera for the drivability analysis. for example via a special image data transmission line, a vehicle bus or a radio link.
  • the received image data is then analyzed in subsequent steps S12-S20 to detect different regions in the environment image.
  • steps S22-S24 the different areas identified in the preceding steps are analyzed with regard to their trafficability by the vehicle and trafficable areas are recognized.
  • the recognized as passable areas can then be issued to be processed by a driver assistance system, which should assist a driver in an evasive maneuver and to signal him drivable alternative routes.
  • a drivable range can typically be determined by analysis of changing or consistent textures, e.g. B. be detected by detecting a transition from a tar track to a turf at the roadside.
  • an assessment of the trafficability of the areas adjacent to the own roadway from image information alone is often not reliably possible. So could one adjacent lane be equipped with a different surface than its own lane, but in the image as an unattached strip of sand.
  • This problem of separation and detection of different areas can also occur in the stereovision methods which are often used today, which calculate a spatial (3D) coordinate for each pixel of images captured with a 3D camera. With the aid of these methods, it is basically possible to separate raised objects from the ground level, as is indicated by way of example in FIG.
  • raised objects 20 and 22 can be separated from the ground plane 12.
  • ground plane 12 for example an asphalt road 14 bounded by meadows (right and left side area 16 or 18), then reliable separation of the areas is often impossible (separation into trafficable / not passable).
  • a separation of different areas even within a plane such as the ground plane 12 could in principle be carried out by means of, for example, color, intensity or texture-based segmentation of mono images, ie the separation of different areas within the ground plane 12 such as the asphalt road 14 and the adjacent meadows 16 and 18 and the right object / obstacle 20 (FIG. 2) and 30, 32 (FIG. 3), which do not protrude beyond the horizontal line of the ground plane 12.
  • a major disadvantage of this method is the required high computational effort, which speaks so far against a series application, especially in driver assistance systems.
  • the method according to the invention now combines in the following steps a texture-based segmentation with stereo vision in order to obtain the advantages of both methods with reduced computational complexity.
  • the segmentation can be carried out only on the area which can not be subdivided by the stereo-vision or stereo method (only the ground plane 12 in FIG. 2 instead of the complete, framed area including the objects).
  • a segmented ground plane in which passable areas are separated from non-drivable areas is obtained, the computational outlay being reduced compared to a segmentation of the full screen.
  • step S12 the position of pixels in space is calculated from a plurality of images captured by the stereo-vision camera with the aid of a stereo-vision approach. Based on the space points, an estimate of the ground plane 12 is made in the next step S14. With the help of the determined ground level, the relevant pixels for the segmentation of the ground level 12 can be determined in step S16. On these pixels, a segmentation of the ground plane 12 is performed in step S18. Since the number of pixels to be segmented is significantly lower than in the original image, the computational outlay for the segmentation step S18 can be significantly reduced. The result is a segmentation of the ground plane 12, which provides additional information about passable / non-drivable areas.
  • the segmentation of the selected pixels can be performed by color, intensity or texture.
  • additional information for a segmentation for example, the variance of the height of the spatial points (the variance is eg for a meadow in addition to the road surface higher than for a flat road surface) or a small height deviation can be used.
  • the technical advantage of this procedure is a segmentation of points in the ground plane on the basis of features in the image (eg intensity, color, texture), compared to a segmentation of the frame by a suitable selection of pixels (stereo ground level) computing time is saved and also additional information for the segmentation (eg variance of the height of the space points) are made available.
  • Decisive here is the selection of pixels to be segmented from the image with the aid of an estimate of the (relevant) ground plane, which is carried out with the aid of a stereo method.
  • the different regions 14, 16, 18 of the ground plane 12 (see FIGS. 2 and 3) obtained by the segmentation in step S18 are output in a subsequent step S20 for further processing by a driver assistance system.
  • the output different areas are analyzed in subsequent steps S22 and S24 with regard to their trafficability.
  • step S22 for example, obstacles 20 and 22 in the right and left side regions 16 and 18 of the road 14 (FIG. 2) and obstacles 30 and 32 in the right side region 16 of the road 14 (FIG. 3) are recognized, for example by a texture , Color or intensity analysis. If obstacles 20 and 22 or 30 and 32 are detected in one area, the corresponding area 16 and 18 with an obstacle 20 or 22 (FIG. 2) and the area 16 with obstacles 30 and 32 (FIG. not passable ", areas without obstacles are marked as" passable ".
  • the trafficability assessment or analysis of areas around the vehicle contains information as to whether a driving activity has already been or will be perceived in the areas investigated.
  • driving activity could be determined by a vehicle-own sensor, for. B. by a camera-based object recognition, or else by the merger with other sensors, eg. B. with the object list of a radar-based sensor.
  • a driving activity 28 has been detected in a region 18 in the image, then this region can with high probability be drivable be considered.
  • An observation of the area over a longer period of time can contribute to a correspondingly higher security of this assessment.
  • step S24 is not limited to camera-based systems, but the analysis and fused consideration of driving activity can be used in all traffic assessment systems.
  • the marked as "not passable” and "passable” areas can be further processed by the driver assistance system, in particular they can be used to determine a possible alternative route in an on-road obstacle 14. If an evasive maneuver is necessary, a determined alternative route can either be passively signaled to the driver, for example by a visual display or by a voice output similar to a navigation system, or a determined alternative route can be used for an active intervention in the vehicle control, for example Generate autonomous steering interventions for initiating and possibly performing an evasive maneuver.
  • 4 shows a block diagram of a trafficability analysis device 100 according to the invention, which processes data from a stereo-vision camera with a first and second camera 102 or 104. The two cameras 102 and 104 provide image data of the surroundings in front of a vehicle.
  • This image data is supplied to a stereo vision processing unit 106, which calculates the position of pixels in the space, that is, executes the above-explained process step S12.
  • the calculated pixel positions in the space are transmitted to a ground level estimation unit 108, which estimates a ground level in the surrounding images based on the obtained space points in accordance with method step S14 explained above.
  • a relevant pixel selection unit 1 1 0 determined on the basis of the unit 108 estimated ground level and the image data from the two cameras 1 02 and 1 04 relevant pixels for a segmentation of the ground plane (corresponding to the above-explained method step S1 6).
  • an image segmentation unit 1 1 2 Based on the relevant pixels determined by the unit 1 1 0, an image segmentation unit 1 1 2 performs a segmentation of the ground plane (method step S1 8).
  • the different areas of the ground level determined by the unit 1 1 2 are output from a ground level area output unit 1 14 in a form suitable for further processing to a trafficability analysis unit 1 1 6 which analyzes each of the output different areas in terms of drivability (corresponding the method steps S22 and S24 explained above and outputs the result of the analysis, for example in the form of a list, as follows:
  • the above lists can be further processed by a driver assistance system as described above.
  • the device shown in Fig. 4 may be implemented in hardware and / or software.
  • it may be implemented in the form of an Application Specific Integrated Circuit (ASIC) or Programmable Gate Array (FPGA) or a microprocessor or controller that executes a firmware implementing the method shown in FIG.
  • ASIC Application Specific Integrated Circuit
  • FPGA Programmable Gate Array
  • microprocessor or controller that executes a firmware implementing the method shown in FIG.
  • the present invention enables a computationally efficient audibility analysis, especially for use in driver assistance systems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method for analyzing trafficability using a computer, said method comprising the following steps: • - receiving image data of surroundings (10) in front of a vehicle (S10); • - analyzing the image data to identify different zones (12, 14, 16, 18, 24) in an image of the surroundings (S12, S14, S16, S18, S20); and • - analyzing identified different zones (16, 18) in terms of trafficability for the vehicle (S22, S24); • - stereo images being used for image analysis, and only the pixels of the estimated ground plane being segmented.

Description

VERFAHREN UND VORRICHTUNG ZUR BEFAHRBARKEITSANALYSE  PROCESS AND DEVICE FOR PROCESSABILITY ANALYSIS
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Befahrbarkeitsanalyse, die insbesondere für den Einsatz in Fahrerassistenzsystemen geeignet sind. The invention relates to a method and a device for trafficability analysis, which are particularly suitable for use in driver assistance systems.
Kamerabasierte Fahrerassistenzsysteme, die den Verlauf der eigenen Fahrspur anhand der Fahrbahnmarkierungen erkennen, sind mittlerweile im Markt etabliert, und ihr Einsatz ist in bestimmten Anwendungsgebieten bereits gesetzlich vorgeschrieben. Typischerweise erkennen diese Fahrerassistenzsysteme den Verlauf der Markierungen der eigenen und der benachbarten Fahrspuren und schätzen daraus die Lage des eigenen Fahrzeugs relativ zu den Spurmarkierungen. Ein unbeabsichtigtes Verlassen der Spur kann somit frühzeitig erkannt werden und das System kann eine geeignete Reaktion einleiten, die z. B. den Fahrer vor dem Verlassen warnt oder durch Ansteuerung der Lenkung ein Verlassen der Fahrspur verhindert. Camera-based driver assistance systems, which recognize the course of their own lane on the basis of the lane markings, are now established in the market, and their use is already required by law in certain application areas. Typically, these driver assistance systems recognize the course of the markings of the own and the neighboring lanes and estimate therefrom the position of the own vehicle relative to the lane markings. Unintentional leaving the lane can thus be detected early and the system can initiate a suitable reaction, the z. B. warns the driver before leaving or prevented by driving the steering a leaving the lane.
Weiter entwickelte Fahrerassistenzsysteme, die nicht nur beim Verlassen einer Fahrspur warnen oder das Verlassen verhindern, sondern einen Fahrer beispielsweise bei einem Ausweichmanöver unterstützen sollen, benötigen für eine derartige Funktion mehr Informationen über den möglichen Fahrweg des eigenen Fahrzeugs als dies durch die oben erwähnten rein Spurmarkierungs- erkennenden Systeme ermittelt wird. Ist beispielsweise das Ziel eines Fahrerassistenzsystems die Verhinderung eines Unfalls durch geeignetes automatisches Ausweichen, so benötigt ein derartiges System zusätzlich zu Informationen über die eigene Fahrspur auch zuverlässige Information darüber, ob ein möglicher Ausweichpfad überhaupt befahrbar ist, damit das Fahrzeug durch das Ausweichen nicht mehr Schaden nimmt oder verursacht, als es durch einen Unfall bei Nichtausweichen der Fall wäre. Das Ermitteln solcher Informationen wird hierin als Befahrbarkeitsanalyse bezeichnet. Further developed driver assistance systems, which warn not only when leaving a lane or prevent the departure, but to support a driver, for example in an evasive maneuver need for such a function more information about the possible path of the own vehicle than by the above-mentioned pure lane marking detecting systems is determined. If, for example, the goal of a driver assistance system is to prevent an accident by means of suitable automatic evasion, such a system also requires reliable information about whether a possible avoidance path is passable at all, in addition to information about one's own traffic lane, so that the vehicle is no longer damaged by the evasion or caused, as it would be by an accident in case of non-evasion. The determination of such information is referred to herein as trafficability analysis.
Aufgabe der vorliegenden Erfindung ist es nun, ein Verfahren und eine Vorrichtung zur Befahrbarkeitsanalyse vorzuschlagen. Diese Aufgabe wird durch die Gegenstände der unabhängigen Ansprüche gelöst. Weitere Ausgestaltungen der Erfindung ergeben sich aus den abhängigen Ansprüchen. The object of the present invention is now to propose a method and a device for trafficability analysis. This object is solved by the subject matters of the independent claims. Further embodiments of the invention will become apparent from the dependent claims.
Ein der Erfindung zugrunde liegender Gedanke besteht darin, bei der Analyse von Bilddaten bzw. Daten einer Umgebung vor einem Fahrzeug unterschiedliche Bereiche zu erkennen und diese hinsichtlich einer Befahrbarkeit durch das eigene Fahrzeug zu analysieren. Unter Bilddaten werden im Sinne der vorliegenden Erfindung nicht nur von Kamera-basierten System erzeugte Daten verstanden, sondern die von allen Systemen zur Umgebungserfassung, also beispielsweise auch Radar-, Lidar-basierte Systeme, die Daten einer Umgebung liefern können. Gemäß einem besonderen Aspekt wird die Erkennung von unterschiedlichen Bereichen auf Basis einer geschätzten Bodenebene der Umgebung durchgeführt, wodurch Rechenzeit eingespart werden kann und damit in der Regel schneller Analyseergebnisse erhalten werden. Gemäß einem weiteren besonderen Aspekt der Erfindung werden bei der Befahrbarkeitsanalyse erkannte Fahraktivitäten in unterschiedlichen Bereichen berücksichtigt, wodurch ein zuverlässigeres Analyseergebnis erhalten werden kann. Diese beiden besonderen Aspekte der vorliegenden Erfindung können beispielsweise in einem Fahrerassistenzsystem gemeinsam implementiert sein, was das System zu einer relativ zuverlässigen und schnellen Befahrbarkeitsanalyse befähigen kann. An idea on which the invention is based is to identify different areas in the analysis of image data or data of an environment in front of a vehicle and to analyze these with regard to being navigable by one's own vehicle. For the purposes of the present invention, image data is understood to mean not only data generated by the camera-based system, but also those of all environmental detection systems, for example radar, lidar-based systems, which can supply data to an environment. According to a particular aspect, the detection of different areas is performed on the basis of an estimated ground level of the environment, whereby computing time can be saved and thus, as a rule, faster analysis results are obtained. According to a further particular aspect of the invention, driving activities recognized in the trafficability analysis are taken into account in different areas, as a result of which a more reliable analysis result can be obtained. These two particular aspects of the present invention may, for example, be jointly implemented in a driver assistance system, which may enable the system to provide a relatively reliable and rapid trafficability analysis.
Eine Ausführungsform der Erfindung betrifft nun ein Verfahren zur Befahrbarkeitsanalyse unter Einsatz eines Rechners mit den folgenden Schritten: Empfangen von Bilddaten einer Umgebung vor einem Fahrzeug, Analysieren der Bilddaten zum Erkennen von unterschiedlichen Bereichen in einem Umgebungsbild, und Analysieren von erkannten unterschiedlichen Bereichen hinsichtlich der Befahrbarkeit durch das Fahrzeug. Das Analysieren der Bilddaten zum Erkennen von unterschiedlichen Bereichen kann folgende Schritte aufweisen: An embodiment of the invention now relates to a trafficability analysis method using a computer comprising the steps of: receiving image data of an environment in front of a vehicle, analyzing the image data to recognize different areas in an environment image, and analyzing detected different areas with respect to the trafficability the vehicle. Analyzing the image data to detect different regions may include the following steps:
Berechnen der Position von Bildpunkten im Raum aus den empfangenen Bilddaten mehrerer Bilder mit Hilfe eines Stereo-Vision-Verfahrens,  Calculating the position of pixels in space from the received image data of multiple images using a stereo vision method,
Schätzen einer Bodenebene basierend auf den berechneten Positionen von Bildpunkten im Raum, Estimating a ground plane based on the calculated positions of pixels in the space,
Bestimmen von für eine Segmentierung der geschätzten Bodenebene relevanten Bildpunkten,  Determining pixels relevant to a segmentation of the estimated groundplane,
Durchführen einer Segmentierung der geschätzten Bodenebene auf den relevanten Bildpunkten, und  Performing segmentation of the estimated ground plane on the relevant pixels, and
Ausgeben von durch die Segmentierung erkannten unterschiedlichen Bereichen.  Outputting different areas recognized by the segmentation.
Als Stereo-Vision-Verfahren kann ein auf mit mehreren Kamera-Optiken oder Kamera-I magern erfassten Umgebungsbildern beruhendes Verfahren oder ein auf der Aufnahme mit einer Kamera-Optik an verschiedenen Positionen unter Ausnutzung der Eigenbewegung (Motion Stereo) beruhendes Verfahren eingesetzt werden. Die Segmentierung der geschätzten Bodenebene auf den relevanten Bildpunkten kann anhand von Färb-, Sättigungs-, Intensitäts- und/oder Textur- Informationen durchgeführt werden. As a stereo-vision method, a method based on environmental images acquired with a plurality of camera optics or camera beams may be employed or a method based on recording with a camera optics at various positions utilizing motion stereo may be employed. The segmentation of the estimated ground plane on the relevant pixels can be performed on the basis of color, saturation, intensity and / or texture information.
Die Segmentierung der geschätzten Bodenebene auf den relevanten Bildpunkten kann anhand von Varianz-Information der berechneten Positionen von Bildpunkten im Raum durchgeführt werden. The segmentation of the estimated ground plane on the relevant pixels can be performed on the basis of variance information of the calculated positions of pixels in space.
Das Analysieren von erkannten unterschiedlichen Bereichen hinsichtlich der Befahrbarkeit durch das Fahrzeug kann das Erkennen von Hindernissen, insbesondere erhabenen Objekten, und/oder das Erkennen von Fahraktivitäten aufweisen. Unter einer Fahraktivität wird hierbei insbesondere verstanden, dass ein anderes Fahrzeug als das eigene in einen Bereich aktuell fährt oder bereits gefahren ist. Die Fahraktivität kann insbesondere Informationen über die Fahrtrichtung des anderen Fahrzeugs umfassen, wodurch Gegen- oder auch Querverkehr berücksichtigt werden kann. Insbesondere kann aufgrund einer erkannten Fahraktivität ein Bereich von einer Befahrbarkeit ausgeschlossen werden. Dies gilt z.B. bei Gegenverkehr selbst dann, wenn das Befahren prinzipiell möglich wäre, ein tatsächliches Befahren aber ein großes Risiko eines Frontalunfalls bietet. The analysis of detected different areas with regard to the trafficability by the vehicle may include the detection of obstacles, in particular raised objects, and / or the detection of driving activities. In this context, a driving activity is understood in particular to mean that a vehicle other than its own is currently driving in an area or has already traveled. In particular, the driving activity can Include information about the direction of travel of the other vehicle, which counter or cross traffic can be considered. In particular, due to a detected driving activity, an area can be excluded from trafficability. This applies, for example, to oncoming traffic even if driving in principle would be possible, but actual driving offers a great risk of a frontal accident.
Möglich ist auch ein temporäres Ausschließen eines derartigen Bereichs aus einer generellen Freigabe, wenn aktuell eine Gefahr erkannt wurde. Das Erkennen von Fahraktivitäten kann das Empfangen und Auswerten von Daten einer kamera-, radar- und/oder lidarbasierten Objekterkennung und/oder das Empfangen und Auswerten einer mit einer kamera-, radar- und/oder lidarbasierten Objekterkennung erzeugten Objektliste aufweisen. Das Erkennen von Fahraktivitäten kann ferner eine Langzeitbeobachtung von Fahraktivitäten zur Erhöhung der Erkennungssicherheit, das Übertragen einer Befahrbarkeits-Klassifikation auf ähnliche Bildbereiche und/oder ein dynamisches Ausschließen der Befahrbarkeit bei erkannter Gefahr durch Fahraktivitätsbeobachtung aufweisen. Also possible is a temporary exclusion of such a range from a general release, if a danger was currently detected. The recognition of driving activities may include receiving and evaluating data of a camera-, radar- and / or lidar-based object recognition and / or receiving and evaluating an object list generated with a camera, radar and / or lidar-based object recognition. The recognition of driving activities can also have a long-term observation of driving activities to increase the recognition reliability, the transfer of a trafficability classification to similar image areas and / or a dynamic exclusion of trafficability when detected danger by driving activity observation.
Eine weitere Ausführungsform der Erfindung betrifft eine Vorrichtung zur Befahrbarkeitsanalyse unter Einsatz eines Rechners mit ersten Mitteln zum Empfangen von Bilddaten einer Umgebung vor einem Fahrzeug, zweiten Mitteln zum Analysieren der Bilddaten zum Erkennen von unterschiedlichen Bereichen in einem Umgebungsbild, und dritten Mitteln zum Analysieren von erkannten unterschiedlichen Bereichen hinsichtlich der Befahrbarkeit durch das Fahrzeug. A further embodiment of the invention relates to a trafficability analysis apparatus using a computer having first means for receiving image data of an environment in front of a vehicle, second means for analyzing the image data for detecting different areas in an environment image, and third means for analyzing detected different ones Areas with regard to vehicle passability.
Die zweiten Mittel können ausgebildet sein, ein Verfahren nach der Erfindung und wie oben beschrieben auszuführen, und die dritten Mittel können ausgebildet sein, ein Verfahren nach der Erfindung und wie oben beschrieben auszuführen. Eine weitere Ausführungsform der Erfindung betrifft ein Fahrerassistenzsystem mit einer Vorrichtung nach der Erfindung und wie hierin beschrieben. Weitere Vorteile und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung in Verbindung mit dem/den in der/den Zeichnung(en) dargestellten Ausführungsbeispiel(en). The second means may be arranged to carry out a method according to the invention and as described above, and the third means may be designed to carry out a method according to the invention and as described above. Another embodiment of the invention relates to a driver assistance system having a device according to the invention and as described herein. Further advantages and possible applications of the present invention will become apparent from the following description in conjunction with the / in the drawing (s) illustrated embodiment (s).
In der Beschreibung, in den Ansprüchen, in der Zusammenfassung und in der/den Zeichnung(en) werden die in der hinten angeführten Liste der Bezugszeichen verwendeten Begriffe und zugeordneten Bezugszeichen verwendet. In the description, in the claims, in the abstract and in the drawing (s), the terms and associated reference numerals used in the list of reference numerals recited below are used.
Die Zeichnung(en) zeigt/zeigen in The drawing (s) show / show in
Fig. 1 ein Flussdiagramm eines Ausführungsbeispiels eines Verfahrens zur Befahrbarkeitsanalyse gemäß der Erfindung; und 1 shows a flow chart of an embodiment of a method for trafficability analysis according to the invention; and
Fig. 2 ein Beispiel eines mit einer digitalen Kamera erfassten Fig. 2 shows an example of a detected with a digital camera
Umgebungsbildes vor einem Fahrzeug, das mit einem Verfahren gemäß der vorliegenden Erfindung für eine Befahrbarkeitsanalyse segmentiert ist;  An environmental image in front of a vehicle segmented by a trafficability analysis method according to the present invention;
Fig. 3 ein weiteres Beispiel eines mit einer digitalen Kamera erfassten Fig. 3 shows another example of a detected with a digital camera
Umgebungsbildes vor einem Fahrzeug, das mit einem Verfahren gemäß der vorliegenden Erfindung für eine Befahrbarkeitsanalyse segmentiert ist; ein Blockschaltbild eines Ausführungsbeispiels einer Vorrichtung zur Befahrbarkeitsanalyse gemäß der Erfindung. An environmental image in front of a vehicle segmented by a trafficability analysis method according to the present invention; a block diagram of an embodiment of an apparatus for Trafficability analysis according to the invention.
In der folgenden Beschreibung können gleiche, funktional gleiche und funktional zusammenhängende Elemente mit den gleichen Bezugszeichen versehen sein. Absolute Werte sind im Folgenden nur beispielhaft angegeben und sind nicht als die Erfindung einschränkend zu verstehen. In the following description, the same, functionally identical and functionally connected elements with the same reference numerals be provided. Absolute values are given below by way of example only and are not to be construed as limiting the invention.
Das in Fig. 1 gezeigte Flussdiagramm eines von einem Rechner ausgeführten Programms dient zur Analyse von Bilddaten, die beispielsweise mit einer Stereovisionskamera erzeugt wurden, welche Bilder von der Umgebung vor einem Fahrzeug erfasst und zu einem kamerabasierten Fahrerassistenzsystem gehören kann, hinsichtlich einer Befahrbarkeit durch das Fahrzeug, beispielsweise um im Falle eines Ausweichmanövers schnell eine geeignete Ausweichroute ermitteln zu können. The flowchart of a program executed by a computer, shown in FIG. 1, is used to analyze image data generated, for example, by a stereovision camera which captures images of the surroundings in front of a vehicle and may belong to a camera-based driver assistance system with regard to vehicle driveability For example, to be able to quickly determine a suitable alternative route in the event of an evasive maneuver.
Bei dem durch das Programm implementierten Verfahren werden zunächst in einem Schritt S10 digitale Bilddaten der Umgebung vor dem Fahrzeug von der Stereovisionskamera für die Befahrbarkeitsanalyse empfangen. beispielsweise über eine spezielle Bilddaten-Übertragungsleitung, einen Fahrzeugbus oder eine Funkverbindung. In the method implemented by the program, first, in a step S10, digital image data of the surroundings in front of the vehicle are received by the stereovision camera for the drivability analysis. for example via a special image data transmission line, a vehicle bus or a radio link.
Die empfangenen Bilddaten werden dann in nachfolgenden Schritten S12- S20 analysiert, um unterschiedliche Bereiche im Umgebungsbild zu erkennen. Mit einer weiteren Analyse in den Schritten S22-S24 werden die in den vorhergehenden Schritten erkannten unterschiedlichen Bereiche hinsichtlich ihrer Befahrbarkeit durch das Fahrzeug analysiert und befahrbare Bereiche erkannt. Die als befahrbar erkannten Bereiche können dann ausgegeben werden, um durch ein Fahrerassistenzsystem verarbeitet zu werden, das einen Fahrer bei einem Ausweichmanöver unterstützen und ihn befahrbare Ausweichrouten signalisieren soll. The received image data is then analyzed in subsequent steps S12-S20 to detect different regions in the environment image. With a further analysis in steps S22-S24, the different areas identified in the preceding steps are analyzed with regard to their trafficability by the vehicle and trafficable areas are recognized. The recognized as passable areas can then be issued to be processed by a driver assistance system, which should assist a driver in an evasive maneuver and to signal him drivable alternative routes.
Für eine Befahrbarkeitsanalyse kann ein befahrbarer Bereich typischerweise über die Analyse von sich ändernden oder gleichbleibenden Texturen, z. B. durch Erkennen eines Übergangs von einer Teerfahrbahn zu einer Grasnarbe am Fahrbahnrand ermittelt werden. Allerdings ist eine Beurteilung der Befahrbarkeit der an die eigene Fahrbahn grenzenden Bereiche aus Bildinformationen alleine oftmals nicht zuverlässig möglich. So könnte eine angrenzende Fahrspur mit einem anderen Belag ausgestattet sein als die eigene Fahrspur, sich im Bild aber wie ein nicht befestigter Sandstreifen abbilden. Dieses Problem der Trennung und Erkennung von unterschiedlichen Bereichen kann auch bei den heutzutage oftmals eingesetzten Stereovisions-Verfahren auftreten, die zu jedem Bildpunkt von mit einer 3D-Kamera erfassten Bildern eine räumliche (3D-)Koordinate berechnen. Mit Hilfe dieser Verfahren ist es grundsätzlich möglich, erhabene Objekte von der Bodenebene zu trennen, wie es in Fig. 2 exemplarisch an einem Beispielbild 10 einer typischen Szenerie des Umfelds vor einem Fahrzeug angedeutet ist. Erhabene Objekte 20 und 22 können hierbei von der Bodenebene 12 getrennt werden. Falls sich jedoch innerhalb der Bodenebene 12 verschiedene Bereiche befinden, beispielsweise eine von Wiesen (rechter und linker Seitenbereich 16 bzw. 18) begrenzte Asphaltstraße 14, ist häufig keine zuverlässige Trennung der Bereiche möglich (Trennung in befahrbar / nicht befahrbar). For driveability analysis, a drivable range can typically be determined by analysis of changing or consistent textures, e.g. B. be detected by detecting a transition from a tar track to a turf at the roadside. However, an assessment of the trafficability of the areas adjacent to the own roadway from image information alone is often not reliably possible. So could one adjacent lane be equipped with a different surface than its own lane, but in the image as an unattached strip of sand. This problem of separation and detection of different areas can also occur in the stereovision methods which are often used today, which calculate a spatial (3D) coordinate for each pixel of images captured with a 3D camera. With the aid of these methods, it is basically possible to separate raised objects from the ground level, as is indicated by way of example in FIG. 2 on an exemplary image 10 of a typical scene of the environment in front of a vehicle. In this case, raised objects 20 and 22 can be separated from the ground plane 12. However, if different areas are located within the ground plane 12, for example an asphalt road 14 bounded by meadows (right and left side area 16 or 18), then reliable separation of the areas is often impossible (separation into trafficable / not passable).
Eine Trennung von verschiedenen Bereichen auch innerhalb einer Ebene wie der Bodenebene 12 könnte grundsätzlich mittels einer beispielsweise Färb-, Intensitäts- oder Textur-basierten Segmentierung von Mono-Bildern durchgeführt werden, also der Trennung verschiedener Bereich innerhalb der Bodenebene 12 wie der Asphaltstrasse 14 und der angrenzenden Wiesen 16 und 18 und des rechten Objekts/Hindernisses 20 (Fig. 2) bzw. 30, 32 (Fig. 3), das bzw. die nicht über die Horizontallinie der Bodenebene 12 herausragt bzw. herausragen. Ein wesentlicher Nachteil dieser Verfahren besteht allerdings in dem erforderlichen hohen Rechenaufwand, der bisher gegen einen Serieneinsatz vor allem in Fahrerassistenzsystemen spricht. A separation of different areas even within a plane such as the ground plane 12 could in principle be carried out by means of, for example, color, intensity or texture-based segmentation of mono images, ie the separation of different areas within the ground plane 12 such as the asphalt road 14 and the adjacent meadows 16 and 18 and the right object / obstacle 20 (FIG. 2) and 30, 32 (FIG. 3), which do not protrude beyond the horizontal line of the ground plane 12. A major disadvantage of this method, however, is the required high computational effort, which speaks so far against a series application, especially in driver assistance systems.
Das erfindungsgemäße Verfahren kombiniert nun in den folgenden Schritten eine texturbasierte Segmentierung mit Stereovision, um die Vorteile beider Verfahren bei reduziertem Rechenaufwand zu erhalten. Die Segmentierung kann dazu nur auf dem Bereich, der mit dem Stereovisions- bzw. Stereoverfahren nicht weiter unterteilt werden kann, durchgeführt werden (nur die Bodenebene 12 in Fig. 2 statt des kompletten, umrahmten Bereiches inklusive der Objekte). Gegenüber einem reinen Stereoverfahren wird eine segmentierte Bodenebene, in der befahrbare von nicht befahrbaren Bereichen getrennt werden, erhalten, wobei der Rechenaufwand gegenüber eine Segmentierung des Vollbildes reduziert ist. The method according to the invention now combines in the following steps a texture-based segmentation with stereo vision in order to obtain the advantages of both methods with reduced computational complexity. For this purpose, the segmentation can be carried out only on the area which can not be subdivided by the stereo-vision or stereo method (only the ground plane 12 in FIG. 2 instead of the complete, framed area including the objects). In contrast to a pure stereo method, a segmented ground plane in which passable areas are separated from non-drivable areas is obtained, the computational outlay being reduced compared to a segmentation of the full screen.
Dazu wird im Schritt S12 aus mehreren mit der Stereovisionskamera erfassten Bildern mit Hilfe eines Stereovision-Ansatzes die Position von Bildpunkten im Raum berechnet. Basierend auf den Raumpunkten wird eine Schätzung der Bodenebene 12 im nächsten Schritt S14 durchgeführt. Mit Hilfe der bestimmten Bodenebene lassen sich die relevanten Pixel bzw. Bildpunkte für eine Segmentierung der Bodenebene 12 im Schritt S16 bestimmen. Auf diesen Pixeln wird im Schritt S18 eine Segmentierung der Bodenebene 12 durchgeführt. Da die Zahl der zu segmentierenden Pixel deutlich geringer als im Originalbild ist, lässt sich der Rechenaufwand für den Segmentierungsschritt S18 deutlich reduzieren. Als Ergebnis erhält man eine Segmentierung der Bodenebene 12, die zusätzliche Informationen über befahrbare / nicht befahrbare Bereiche zur Verfügung stellt. For this purpose, in step S12, the position of pixels in space is calculated from a plurality of images captured by the stereo-vision camera with the aid of a stereo-vision approach. Based on the space points, an estimate of the ground plane 12 is made in the next step S14. With the help of the determined ground level, the relevant pixels for the segmentation of the ground level 12 can be determined in step S16. On these pixels, a segmentation of the ground plane 12 is performed in step S18. Since the number of pixels to be segmented is significantly lower than in the original image, the computational outlay for the segmentation step S18 can be significantly reduced. The result is a segmentation of the ground plane 12, which provides additional information about passable / non-drivable areas.
Als Stereoverfahren können Verfahren, die auf mehreren Optiken/I magern beruhen oder Motion-Stereo-Ansätze verwendet werden. Die Segmentierung der ausgewählten Pixel kann anhand von Farbe, Intensität oder Textur durchgeführt werden. Neben diesen aus dem Mono-Bild verfügbaren Merkmalen für eine Segmentierung (z.B. Farbe, Sättigung, Intensität, Textur) können aus dem Stereoverfahren zusätzliche Informationen für eine Segmentierung gewonnen werden, z.B. kann die Varianz der Höhe der Raumpunkte (die Varianz ist z.B. für eine Wiese neben der Fahrbahn höher als für einen ebenen Fahrbahnbelag) oder eine geringe Höhenabweichung verwendet werden. Der technische Vorteil dieser Vorgehensweise ist eine Segmentierung von Punkten in der Bodenebene anhand von Merkmalen im Bild (z.B. Intensität, Farbe, Textur), bei der gegenüber einer Segmentierung des Vollbildes durch eine geeignete Auswahl der Pixel (Stereo-Bodenebene) Rechenzeit eingespart wird und zudem zusätzliche Informationen für die Segmentierung (z.B. Varianz der Höhe der Raumpunkte) zur Verfügung gestellt werden. Entscheidend ist hierbei die Auswahl zu segmentierenden Pixel aus dem Bild mit Hilfe einer Schätzung der (relevanten) Bodenebene, die mit Hilfe eines Stereoverfahrens durchgeführt wird. As a stereo method, methods based on multiple optics / lumens or motion stereo approaches may be used. The segmentation of the selected pixels can be performed by color, intensity or texture. In addition to these features available from the mono image for a segmentation (eg color, saturation, intensity, texture) can be obtained from the stereo method additional information for a segmentation, for example, the variance of the height of the spatial points (the variance is eg for a meadow in addition to the road surface higher than for a flat road surface) or a small height deviation can be used. The technical advantage of this procedure is a segmentation of points in the ground plane on the basis of features in the image (eg intensity, color, texture), compared to a segmentation of the frame by a suitable selection of pixels (stereo ground level) computing time is saved and also additional information for the segmentation (eg variance of the height of the space points) are made available. Decisive here is the selection of pixels to be segmented from the image with the aid of an estimate of the (relevant) ground plane, which is carried out with the aid of a stereo method.
Die durch die Segmentierung im Schritt S18 erhaltenen unterschiedlichen Bereiche 14, 16, 18 der Bodenebene 12 (siehe Fig. 2 und 3) werden in einem nachfolgenden Schritt S20 für eine weitere Verarbeitung durch ein Fahrerassistenzsystem ausgegeben. Im Rahmen der weiteren Verarbeitung werden die ausgegebenen unterschiedlichen Bereiche in nachfolgenden Schritten S22 und S24 hinsichtlich ihrer Befahrbarkeit analysiert. The different regions 14, 16, 18 of the ground plane 12 (see FIGS. 2 and 3) obtained by the segmentation in step S18 are output in a subsequent step S20 for further processing by a driver assistance system. As part of the further processing, the output different areas are analyzed in subsequent steps S22 and S24 with regard to their trafficability.
Im Schritt S22 werden beispielsweise Hindernisse 20 und 22 im rechten und linken Seitenbereich 16 bzw. 18 der Strasse 14 (Fig. 2) bzw. Hindernisse 30 und 32 im rechten Seitenbereich 16 der Strasse 14 (Fig. 3) erkannt, beispielsweise durch eine Textur-, Färb- oder Intensitätsanalyse. Werden in einem Bereich Hindernisse 20 und 22 bzw. 30 und 32 erkannt, wird der entsprechende Bereich 16 und 18 mit einem Hindernis 20 bzw. 22 (Fig. 2) und der Bereich 16 mit Hindernissen 30 und 32 (Fig. 3) als „nicht befahrbar" markiert. Bereiche ohne Hindernisse werden dagegen als „befahrbar" markiert. In step S22, for example, obstacles 20 and 22 in the right and left side regions 16 and 18 of the road 14 (FIG. 2) and obstacles 30 and 32 in the right side region 16 of the road 14 (FIG. 3) are recognized, for example by a texture , Color or intensity analysis. If obstacles 20 and 22 or 30 and 32 are detected in one area, the corresponding area 16 and 18 with an obstacle 20 or 22 (FIG. 2) and the area 16 with obstacles 30 and 32 (FIG. not passable ", areas without obstacles are marked as" passable ".
Im weiteren Schritt S24 zur Befahrbarkeitsanalyse fließt in die Befahrbarkeitseinschätzung oder -analyse von Bereichen um das Fahrzeug Information darüber ein, ob in den untersuchten Gebieten bereits eine Fahraktivität wahrgenommen wurde oder wird. Solche Fahraktivität könnte durch einen Fahrzeug-eigenen Sensor ermittelt werden, z. B. durch eine kamerabasierte Objekterkennung, oder aber auch durch die Fusion mit anderen Sensoren, z. B. mit der Objektliste eines radarbasierten Sensors. In step S24 on the trafficability analysis, the trafficability assessment or analysis of areas around the vehicle contains information as to whether a driving activity has already been or will be perceived in the areas investigated. Such driving activity could be determined by a vehicle-own sensor, for. B. by a camera-based object recognition, or else by the merger with other sensors, eg. B. with the object list of a radar-based sensor.
Wurde wie in Fig. 3 gezeigt in einem Bereich 18 im Bild Fahraktivität 28 erkannt, so kann dieser Bereich mit hoher Wahrscheinlichkeit als befahrbar angesehen werden. Eine Beobachtung des Bereichs über einen längeren Zeitraum kann dabei zu einer entsprechend höheren Sicherheit dieser Einschätzung beitragen. Darüber hinaus ist es möglich, eine vorhandene Einschätzung auf ähnliche Bildregionen zu übertragen, ohne dass dort explizit eine Fahraktivität erkannt wurde. Ergibt die Analyse, dass der Bereich 18 befahrbar ist, wird dieser Bereich als Ergebnis als„befahrbar" markiert. If, as shown in FIG. 3, a driving activity 28 has been detected in a region 18 in the image, then this region can with high probability be drivable be considered. An observation of the area over a longer period of time can contribute to a correspondingly higher security of this assessment. In addition, it is possible to transfer an existing assessment to similar image regions without explicitly recognizing a driving activity there. If the analysis reveals that the area 18 is passable, this area is marked as "passable" as the result.
Es ist natürlich denkbar, auf Basis der Beobachtung von Fahraktivität auch Regionen von einer Befahrbarkeit explizit auszuschließen, wenn zwar das Befahren des Bereichs prinzipiell möglich wäre, das tatsächliche Befahren aber ein zu hohes Risiko oder eine Gefahr darstellen würde, z. B. weil dort Gegenverkehr erkannt wurde. Dies könnte auch nur temporär passieren, d. h. generelle Freigabe der Befahrbarkeit aber zwischenzeitliches Sperren, wenn Gefahr erkannt wurde. It is of course conceivable, based on the observation of driving activity, to explicitly exclude regions from trafficability, even though driving in the area would in principle be possible, but actual driving would be too great a risk or a danger, eg. B. because there was detected oncoming traffic. This could happen only temporarily, d. H. general release of trafficability but interim locking if danger was detected.
Generell ist der Ansatz gemäß Schritt S24 nicht auf kamerabasierte Systeme begrenzt, sondern die Analyse und fusionierte Berücksichtigung von Fahraktivtät kann in allen Systemen zur Befahrbarkeitseinschätzung verwendet werden. In general, the approach according to step S24 is not limited to camera-based systems, but the analysis and fused consideration of driving activity can be used in all traffic assessment systems.
Die als „nicht befahrbar" und „befahrbar" markierten Bereiche können vom Fahrerassistenzsystem weiter verarbeitet werden, insbesondere können sie zum Ermitteln einer möglichen Ausweichroute bei einem auf der Strasse 14 befindlichen Hindernis herangezogen werden. Falls ein Ausweichmanöver notwendig ist, kann eine ermittelte Ausweichroute entweder passiv dem Fahrer signalisiert werden, beispielsweise durch eine visuelle Anzeige oder durch eine Sprachausgabe ähnlich wie bei einem Navigationssystem, oder kann eine ermittelte Ausweichroute kann für einen aktiven Eingriff in die Fahrzeugsteuerung genutzt werden, beispielsweise zum Generieren autonomer Lenkeingriffe zum Einleiten und ggf. Durchführen eines Ausweichmanövers. Fig. 4 zeigt ein Blockschaltbild einer Befahrbarkeitsanalysevorrichtung 100 gemäß der Erfindung, die Daten einer Stereovisions-Kamera mit einer ersten und zweiten Kamera 102 bzw. 104 verarbeitet. Die beiden Kameras 102 und 104 liefern Bilddaten von der Umgebung vor einem Fahrzeug. Diese Bilddaten werden einer Stereovisionsverarbeitungseinheit 106 zugeführt, welche die Position von Bildpunkten im Raum berechnet, d.h. den oben erläuterten Verfahrensschritt S12 ausführt. Die berechneten Bildpunktpositionen im Raum werden an eine Bodenebene-Schätzeinheit 108 übermittelt, welche anhand der erhaltenen Raumpunkte eine Bodenebene in den Umgebungsbildern schätzt entsprechend dem oben erläuterten Verfahrensschritt S14. Eine Relevante-Pixel-Auswahleinheit 1 1 0 bestimmt anhand der von der Einheit 108 geschätzten Bodenebene und den Bilddaten von den beiden Kameras 1 02 und 1 04 relevante Bildpunkte für eine Segmentierung der Bodenebene (entsprechend dem oben erläuterten Verfahrensschritt S1 6). Basierend auf den von der Einheit 1 1 0 ermittelten relevanten Bildpunkten führt eine Bild-Segmentierungseinheit 1 1 2 eine Segmentierung der Bodenebene durch (Verfahrensschritt S1 8). Die von der Einheit 1 1 2 ermittelten unterschiedlichen Bereiche der Bodenebene werden von einer Bodenebene-Bereichs-Ausgabeeinheit 1 14 in einer für die weitere Verarbeitung geeigneten Form an eine Befahrbarkeitsanalyseeinheit 1 1 6 ausgegeben, die jeden der ausgegebenen unterschiedlichen Bereiche hinsichtlich seiner Befahrbarkeit analysiert (entsprechend den oben erläuterten Verfahrensschritten S22 und S24 und das Ergebnis der Analyse beispielsweise in Form einer Liste wie folgt ausgibt: The marked as "not passable" and "passable" areas can be further processed by the driver assistance system, in particular they can be used to determine a possible alternative route in an on-road obstacle 14. If an evasive maneuver is necessary, a determined alternative route can either be passively signaled to the driver, for example by a visual display or by a voice output similar to a navigation system, or a determined alternative route can be used for an active intervention in the vehicle control, for example Generate autonomous steering interventions for initiating and possibly performing an evasive maneuver. 4 shows a block diagram of a trafficability analysis device 100 according to the invention, which processes data from a stereo-vision camera with a first and second camera 102 or 104. The two cameras 102 and 104 provide image data of the surroundings in front of a vehicle. This image data is supplied to a stereo vision processing unit 106, which calculates the position of pixels in the space, that is, executes the above-explained process step S12. The calculated pixel positions in the space are transmitted to a ground level estimation unit 108, which estimates a ground level in the surrounding images based on the obtained space points in accordance with method step S14 explained above. A relevant pixel selection unit 1 1 0 determined on the basis of the unit 108 estimated ground level and the image data from the two cameras 1 02 and 1 04 relevant pixels for a segmentation of the ground plane (corresponding to the above-explained method step S1 6). Based on the relevant pixels determined by the unit 1 1 0, an image segmentation unit 1 1 2 performs a segmentation of the ground plane (method step S1 8). The different areas of the ground level determined by the unit 1 1 2 are output from a ground level area output unit 1 14 in a form suitable for further processing to a trafficability analysis unit 1 1 6 which analyzes each of the output different areas in terms of drivability (corresponding the method steps S22 and S24 explained above and outputs the result of the analysis, for example in the form of a list, as follows:
Fig. 1 : Fig. 1:
Bereich 14 -> befahrbar  Area 14 -> passable
Bereich 1 6 -> nicht befahrbar Area 1 6 -> not passable
Bereich 1 8 -> nicht befahrbar Area 1 8 -> not passable
Fig. 2: Fig. 2:
Bereich 14 -> befahrbar  Area 14 -> passable
Bereich 1 6 -> nicht befahrbar Bereich 1 8 -> befahrbar. Area 1 6 -> not passable Area 1 8 -> passable.
Die obigen Listen können wie bereits oben beschrieben von einem Fahrerassistenzsystem weiter verarbeitet werden. The above lists can be further processed by a driver assistance system as described above.
Die in Fig. 4 gezeigte Vorrichtung kann in Hard- und/oder Software implementiert sein. Beispielsweise kann sie in Form eines ASIC (Application Specific Integrated Circuit) oder PGA/FPGA (Programable Gate Arrey/Field Programable Gate Array) oder eines Mikroprozessors oder - kontrollers, der eine das in Fig. 1 gezeigte Verfahren implementierende Firmware ausführt, implementiert sein. The device shown in Fig. 4 may be implemented in hardware and / or software. For example, it may be implemented in the form of an Application Specific Integrated Circuit (ASIC) or Programmable Gate Array (FPGA) or a microprocessor or controller that executes a firmware implementing the method shown in FIG.
Die vorliegende Erfindung ermöglicht eine rechen-effiziente Befahrbarkeitsanalyse insbesondere für den Einsatz in Fahrerassistenzsystemen. The present invention enables a computationally efficient audibility analysis, especially for use in driver assistance systems.
Bezugszeichen reference numeral
1 0 Umgebungsbild 1 0 Environment image
1 2 Bodenebene 1 2 ground level
14 Asphaltstrasse mit zwei Fahrspuren 14 asphalt road with two lanes
1 6 Wiese/rechter Seitenbereich der Strasse 14 1 8 Wiese/linker Seitenbereich der Strasse 14 20 Hindernis im rechten Seitenbereich 1 6 22 Hindernis im linken Seitenbereich 1 8 24 Horizontalbereich  1 6 Meadow / right-hand side of the road 14 1 8 Meadow / left-hand side of the road 14 20 Obstacle in the right-hand side area 1 6 22 Obstacle in the left-hand side area 1 8 24 Horizontal area
28 Fahraktivität im linken Seitenbereich 30 Hindernis auf im rechten Seitenbereich 32 Hindernis auf im rechten Seitenbereich 1 00 Vorrichtung zur Befahrbarkeitsanalyse 1 02 erste Kamera  28 Driving activity in the left-hand side area 30 Obstacle in the right-hand side area 32 Obstacle in the right-hand side area 1 00 Device for trafficability analysis 1 02 first camera
1 04 zweite Kamera 1 04 second camera
1 06 Stereovisionsverarbeitungseinheit 1 06 Stereovision processing unit
1 08 Bodenebene-Schätzeinheit 1 08 Ground plane estimation unit
1 10 Relevante-Pixel-Auswahleinheit 1 10 Relevant pixel selector
1 12 Bild-Segmentierungseinheit 1 12 image segmentation unit
1 14 Bodenebene-Bereichs-Ausgabeeinheit 1 16 Befahrbarkeitsanalyseeinheit  1 14 Ground level area output unit 1 16 Trafficability analysis unit

Claims

Patentansprüche claims
1 . Verfahren zur Befahrbarkeitsanalyse unter Einsatz eines Rechners mit den folgenden Schritten: 1 . Method for trafficability analysis using a computer with the following steps:
- Empfangen von Bilddaten einer Umgebung (10) vor einem  - Receiving image data of an environment (10) before one
Fahrzeug (S10),  Vehicle (S10),
- Analysieren der Bilddaten zum Erkennen von unterschiedlichen Bereichen (12, 14, 16, 18, 24) in einem Umgebungsbild (S12, S14, S16, S18, S20), und  Analyzing the image data to detect different regions (12, 14, 16, 18, 24) in a surrounding image (S12, S14, S16, S18, S20), and
- Analysieren von erkannten unterschiedlichen Bereichen (16, 18) hinsichtlich der Befahrbarkeit durch das Fahrzeug (S22, S24).  - Analyzing recognized different areas (16, 18) with respect to the vehicle passability (S22, S24).
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass das Analysieren der Bilddaten zum Erkennen von unterschiedlichen Bereichen folgende Schritte aufweist: 2. The method according to claim 1, characterized in that analyzing the image data for recognizing different regions comprises the following steps:
- Berechnen der Position von Bildpunkten im Raum aus den  - Compute the position of pixels in the space of the
empfangenen Bilddaten mehrerer Bilder mit Hilfe eines Stereo- Vision-Verfahrens (S12),  received image data of multiple images using a stereo vision method (S12),
- Schätzen einer Bodenebene (12) basierend auf den berechneten Positionen von Bildpunkten im Raum (S14),  Estimating a ground plane (12) based on the calculated positions of pixels in the space (S14),
- Bestimmen von für eine Segmentierung der geschätzten  Determine for a segmentation of the estimated
Bodenebene (12) relevanten Bildpunkten (S16),  Ground plane (12) relevant pixels (S16),
- Durchführen einer Segmentierung der geschätzten Bodenebene auf den relevanten Bildpunkten (S18), und  Performing segmentation of the estimated ground plane on the relevant pixels (S18), and
- Ausgeben von durch die Segmentierung erkannten  - outputting recognized by the segmentation
unterschiedlichen Bereichen (14, 16, 18, 20, 22; S20).  different areas (14, 16, 18, 20, 22, S20).
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass als Stereo-Vision-Verfahren ein auf mit mehreren Kamera-Optiken oder Kamera-Imagern erfassten Umgebungsbildern beruhendes Verfahren oder ein auf der Aufnahme mit einer Kamera-Optik an verschiedenen Positionen unter Ausnutzung der Eigenbewegung beruhendes 3. The method according to claim 2, characterized in that as a stereo-vision method based on an environment images recorded with a plurality of camera optics or camera imagers based method or based on the recording with a camera optics at various positions by utilizing the proper motion
Verfahren eingesetzt wird.  Method is used.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die Segmentierung der geschätzten Bodenebene auf den relevanten Bildpunkten anhand von Färb-, Sättigungs-, Intensitäts- und/oder Textur-Informationen durchgeführt wird. 4. The method according to claim 2 or 3, characterized in that the segmentation of the estimated ground plane on the relevant pixels on the basis of color, saturation, intensity and / or texture information is performed.
5. Verfahren nach Anspruch 2, 3 oder 4, dadurch gekennzeichnet, dass die Segmentierung der geschätzten Bodenebene auf den relevanten Bildpunkten anhand von Varianz-Information der berechneten 5. The method of claim 2, 3 or 4, characterized in that the segmentation of the estimated ground plane on the relevant pixels on the basis of variance information of the calculated
Positionen von Bildpunkten im Raum durchgeführt wird.  Positions of pixels in space is performed.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Analysieren von erkannten unterschiedlichen Bereichen 6. The method according to any one of the preceding claims, characterized in that the analysis of recognized different areas
hinsichtlich der Befahrbarkeit durch das Fahrzeug das Erkennen von Hindernissen (20, 22; 30, 32; S22), insbesondere erhabenen Objekten, und/oder das Erkennen von Fahraktivitäten (28; S24) aufweist.  with regard to the trafficability by the vehicle, the detection of obstacles (20, 22, 30, 32, S22), in particular raised objects, and / or the recognition of driving activities (28, S24).
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass das Erkennen von Fahraktivitäten das Empfangen und Auswerten von Daten einer kamera-, radar- und/oder lidarbasierten Objekterkennung und/oder das Empfangen und Auswerten einer mit einer kamera-, radar- und/oder lidarbasierten Objekterkennung erzeugten Objektliste aufweist. 7. The method according to claim 6, characterized in that the detection of driving activities comprises receiving and evaluating data of a camera, radar and / or lidar-based object detection and / or receiving and evaluating an object list generated with a camera, radar and / or lidar-based object recognition.
8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass das Erkennen von Fahraktivitäten ferner eine Langzeitbeobachtung von Fahraktivitäten zur Erhöhung der Erkennungssicherheit, das Übertragen einer Befahrbarkeits-Klassifikation auf ähnliche 8. The method of claim 6 or 7, characterized in that the detection of driving activities also a long-term observation of driving activities to increase the detection reliability, the transfer of a trafficability classification to similar
Bildbereiche und/oder ein dynamisches Ausschließen der  Image areas and / or a dynamic exclusion of
Befahrbarkeit bei erkannter Gefahr durch Fahraktivitätsbeobachtung aufweist.  Trafficability when detected danger by driving activity observation has.
9. Vorrichtung zur Befahrbarkeitsanalyse unter Einsatz eines Rechners mit 9. Device for trafficability analysis using a computer with
- ersten Mitteln (106, 1 10) zum Empfangen von Bilddaten einer  - First means (106, 1 10) for receiving image data of a
Umgebung (10) vor einem Fahrzeug,  Environment (10) in front of a vehicle,
- zweiten Mitteln (108, 1 10, 1 12, 1 14) zum Analysieren der Bilddaten zum Erkennen von unterschiedlichen Bereichen (12, 14, 16, 18, 24) in einem Umgebungsbild, und  second means (108, 110, 112, 14) for analyzing the image data to recognize different regions (12, 14, 16, 18, 24) in an environmental image, and
- dritten Mitteln (1 16) zum Analysieren von erkannten  - Third means (1 16) for analyzing recognized
unterschiedlichen Bereichen (16, 18) hinsichtlich der Befahrbarkeit durch das Fahrzeug.  different areas (16, 18) in terms of vehicle passability.
10. Vorrichtung nach Anspruch 9 dadurch gekennzeichnet, dass die zweiten Mittel (108, 1 10, 1 12, 1 14) ausgebildet sind, ein Verfahren nach einem der Ansprüche 2 bis 5 auszuführen, und 10. Apparatus according to claim 9 characterized in that the second means (108, 110, 112, 14) are adapted to carry out a method according to any one of claims 2 to 5, and
die dritten Mittel (1 16) ausgebildet sind, ein Verfahren nach einem derthe third means (1 16) are formed, a method according to one of
Ansprüche 6 bis 7 auszuführen. Claims 6 to 7 execute.
EP13826921.2A 2012-12-11 2013-12-06 Method and device for anaylzing trafficability Ceased EP2932434A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012112104.4A DE102012112104A1 (en) 2012-12-11 2012-12-11 PROCESS AND DEVICE FOR PROCESSABILITY ANALYSIS
PCT/DE2013/200336 WO2014090245A1 (en) 2012-12-11 2013-12-06 Method and device for anaylzing trafficability

Publications (1)

Publication Number Publication Date
EP2932434A1 true EP2932434A1 (en) 2015-10-21

Family

ID=50064320

Family Applications (1)

Application Number Title Priority Date Filing Date
EP13826921.2A Ceased EP2932434A1 (en) 2012-12-11 2013-12-06 Method and device for anaylzing trafficability

Country Status (4)

Country Link
US (1) US9690993B2 (en)
EP (1) EP2932434A1 (en)
DE (2) DE102012112104A1 (en)
WO (1) WO2014090245A1 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6156400B2 (en) * 2015-02-09 2017-07-05 トヨタ自動車株式会社 Traveling road surface detection device and traveling road surface detection method
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US12261990B2 (en) 2015-07-15 2025-03-25 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11783864B2 (en) * 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US20180227482A1 (en) 2017-02-07 2018-08-09 Fyusion, Inc. Scene-aware selection of filters and effects for visual digital media content
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
WO2020146418A1 (en) * 2019-01-07 2020-07-16 Ainstein Ai, Inc. Radar-camera detection system and methods
CN114051631A (en) * 2019-06-27 2022-02-15 哲内提 Method and system for estimating drivable surfaces
CN112396051B (en) * 2019-08-15 2024-05-03 纳恩博(北京)科技有限公司 Determination method and device for passable area, storage medium and electronic device
EP4357944A1 (en) * 2022-10-20 2024-04-24 Zenseact AB Identification of unknown traffic objects

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120070071A1 (en) * 2010-09-16 2012-03-22 California Institute Of Technology Systems and methods for automated water detection using visible sensors

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630806B2 (en) * 1994-05-23 2009-12-08 Automotive Technologies International, Inc. System and method for detecting and protecting pedestrians
US7783403B2 (en) * 1994-05-23 2010-08-24 Automotive Technologies International, Inc. System and method for preventing vehicular accidents
US8140358B1 (en) * 1996-01-29 2012-03-20 Progressive Casualty Insurance Company Vehicle monitoring system
US6104812A (en) * 1998-01-12 2000-08-15 Juratrade, Limited Anti-counterfeiting method and apparatus using digital screening
US20040247157A1 (en) * 2001-06-15 2004-12-09 Ulrich Lages Method for preparing image information
JP3960092B2 (en) * 2001-07-12 2007-08-15 日産自動車株式会社 Image processing apparatus for vehicle
JP4612635B2 (en) * 2003-10-09 2011-01-12 本田技研工業株式会社 Moving object detection using computer vision adaptable to low illumination depth
US20100013615A1 (en) 2004-03-31 2010-01-21 Carnegie Mellon University Obstacle detection having enhanced classification
DE102005002719A1 (en) 2005-01-20 2006-08-03 Robert Bosch Gmbh Course prediction method in driver assistance systems for motor vehicles
DE102005045017A1 (en) 2005-09-21 2007-03-22 Robert Bosch Gmbh Method and driver assistance system for sensor-based approach control of a motor vehicle
FR2898986B1 (en) * 2006-03-24 2008-05-23 Inrets OBSTACLE DETECTION
US8340421B2 (en) * 2008-02-04 2012-12-25 Eyep Inc. Three-dimensional system and method for connection component labeling
US8605947B2 (en) 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
JP5216010B2 (en) * 2009-01-20 2013-06-19 本田技研工業株式会社 Method and apparatus for identifying raindrops on a windshield
JP4788798B2 (en) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 Object detection device
JP2012253690A (en) * 2011-06-06 2012-12-20 Namco Bandai Games Inc Program, information storage medium, and image generation system
CN103177236B (en) * 2011-12-22 2016-06-01 株式会社理光 Road area detection method and device, lane line detection method and apparatus
EP2863374A4 (en) * 2012-06-14 2016-04-20 Toyota Motor Co Ltd CIRCULATION PATH SEPARATION MARKING DETECTION APPARATUS, AND DRIVER ASSISTANCE SYSTEM
JP5829980B2 (en) * 2012-06-19 2015-12-09 トヨタ自動車株式会社 Roadside detection device
US9488483B2 (en) * 2013-05-17 2016-11-08 Honda Motor Co., Ltd. Localization using road markings
WO2015024257A1 (en) * 2013-08-23 2015-02-26 Harman International Industries, Incorporated Unstructured road boundary detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120070071A1 (en) * 2010-09-16 2012-03-22 California Institute Of Technology Systems and methods for automated water detection using visible sensors

Also Published As

Publication number Publication date
US20150324649A1 (en) 2015-11-12
WO2014090245A1 (en) 2014-06-19
DE102012112104A1 (en) 2014-06-12
US9690993B2 (en) 2017-06-27
DE112013005909A5 (en) 2015-09-10

Similar Documents

Publication Publication Date Title
EP2932434A1 (en) Method and device for anaylzing trafficability
DE102013205950B4 (en) Roadside detection method
DE102015105248B4 (en) Method and system for generating an image of the surroundings of an articulated vehicle
DE102012221563B4 (en) FUNCTIONAL DIAGNOSIS AND VALIDATION OF A VEHICLE-BASED IMAGING SYSTEM
WO2014032904A1 (en) Method and apparatus for identifying a position of a vehicle in a lane
DE102016200828B4 (en) Object detection device and object detection method
DE102016118502A1 (en) Method, device and device for determining a roadway boundary
DE112018007485T5 (en) Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method
EP2629243A1 (en) Method for detecting and tracking lane markings
DE102015203016A1 (en) Method and device for optical self-localization of a motor vehicle in an environment
EP3520023B1 (en) Detection and validation of objects from sequential images of a camera
WO2013029722A2 (en) Method for representing surroundings
DE102018108751B4 (en) Method, system and device for obtaining 3D information from objects
DE102015114403A1 (en) Proximity object detecting device for a vehicle and approaching object detection method therefor
DE102015115012A1 (en) Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle
EP2023265A1 (en) Method for recognising an object
DE102013012930A1 (en) Method for determining a current distance and / or a current speed of a target object from a reference point in a camera image, camera system and motor vehicle
DE102018121008A1 (en) CROSS TRAFFIC RECORDING USING CAMERAS
DE102017103540A1 (en) Determine an angular position of a trailer without a target mark
DE102019132012B4 (en) Method and system for detecting small unclassified obstacles on a road surface
EP1944212B1 (en) Method and device for recognising potentially dangerous objects for a vehicle
WO2019057252A1 (en) METHOD AND DEVICE FOR DETECTING LICENSES, DRIVER ASSISTANCE SYSTEM AND VEHICLE
DE102018109680A1 (en) Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product
WO2019162327A2 (en) Method for determining a distance between a motor vehicle and an object
DE102006007550A1 (en) Roadway markings detecting method for motor vehicle, involves analyzing pixels in such a manner that roadway markings for vehicle are detected, and using ridge-operator as image recognition operator during analysis of pixels

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20150713

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20180130

17Q First examination report despatched

Effective date: 20180205

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20190624