DE102019213403A1 - Method for the sensor-based localization of a host vehicle, host vehicle and a computer program - Google Patents
Method for the sensor-based localization of a host vehicle, host vehicle and a computer program Download PDFInfo
- Publication number
- DE102019213403A1 DE102019213403A1 DE102019213403.3A DE102019213403A DE102019213403A1 DE 102019213403 A1 DE102019213403 A1 DE 102019213403A1 DE 102019213403 A DE102019213403 A DE 102019213403A DE 102019213403 A1 DE102019213403 A1 DE 102019213403A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- interest
- map
- objects
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 105
- 230000004807 localization Effects 0.000 title claims abstract description 21
- 238000004590 computer program Methods 0.000 title claims abstract description 8
- 230000003068 static effect Effects 0.000 claims abstract description 56
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 27
- 230000007613 environmental effect Effects 0.000 claims description 21
- 238000013507 mapping Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 2
- 230000009466 transformation Effects 0.000 abstract description 7
- 230000033001 locomotion Effects 0.000 description 10
- 238000005457 optimization Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 4
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241000283070 Equus zebra Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges (1) mit den Schritten:- Generierung von aufeinanderfolgenden Frames von Umfeldsensordaten eines Umfelds des Egofahrzeugs,- Extraktion von Merkmalen in zumindest einem Frame,- Zusammenfassen der Merkmale zu einzelnen dynamischen Objekten von Interesse,- Klassifikation der einzelnen dynamischen Objekte von Interesse,- Bestimmung von kinematischen Daten der einzelnen dynamischen Objekte von Interesse und zuordnen der kinematischen Daten zu den einzelnen dynamischen Objekten von Interesse,- Transformieren der erfassten Umfeldsensordaten der dynamischen Objekte von Interesse der einzelnen Frames in eine lokale Karte (11),- Clustern der transformierten Umfeldsensordaten der dynamischen Objekte von Interesse in der lokalen Karte (11) zu Trajektorien und zuweisen der Trajektorien zu den einzelnen dynamischen Objekten von Interesse,- Bestimmen von statischen Umgebungsdaten von statischen Umgebungsobjekten aus zumindest einem der Frames und vervollständigen der lokalen Karte (11) anhand der statischen Umgebungsdaten zu einer vervollständigten lokalen Umgebungskarte (12) und zuweisen der einzelnen dynamischen Objekte von Interesse zu den statischen Umgebungsdaten,- Bereitstellen einer Referenzstraßenkarte und abbilden der vervollständigten lokalen Umgebungskarte (12) auf die Referenzstraßenkarte.Ferner betrifft die Erfindung ein Egofahrzeug, ein Computerprogramm und ein Datenträgersignal.The invention relates to a method for the sensor-based localization of a host vehicle (1) with the following steps: - generation of successive frames of environment sensor data of an environment of the host vehicle, - extraction of features in at least one frame, - combining the features into individual dynamic objects of interest, - Classification of the individual dynamic objects of interest, - Determination of kinematic data of the individual dynamic objects of interest and assignment of the kinematic data to the individual dynamic objects of interest, - Transformation of the recorded environment sensor data of the dynamic objects of interest of the individual frames into a local map ( 11), - clustering of the transformed environment sensor data of the dynamic objects of interest in the local map (11) into trajectories and assigning the trajectories to the individual dynamic objects of interest, - determination of static environment data of static environment objects from at least one of the frames and complete the local map (11) using the static environment data to form a completed local environment map (12) and assign the individual dynamic objects of interest to the static environment data, - provide a reference road map and map the completed local environment map (12) The invention also relates to a host vehicle, a computer program and a data carrier signal.
Description
Die Erfindung betrifft ein Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges. Ferner betrifft die Erfindung ein Egofahrzeug mit einem solchen Verfahren, ein Computerprogramm und ein Datenträgersignal.The invention relates to a method for the sensor-based localization of a host vehicle. The invention also relates to a host vehicle with such a method, a computer program and a data carrier signal.
Bei Fahrzeug-Navigationssystemen wird die Position des Fahrzeugs meist mit Unterstützung des Satellitenortungssystems GPS (Global Positioning System) gemessen. Die Richtigkeit der gemessenen und der tatsächlichen Position wird bei GPS mit 15 Metern angegeben. Aufgrund der ungenauen Natur der GPS-Koordinaten kann es jedoch schwierig sein, einen genauen Fahrzeugstandort in einer digitalen Karte auf einer mehrspurigen Straße mit hoher Verkehrsdichte zu bestimmen.In vehicle navigation systems, the position of the vehicle is usually measured with the support of the GPS (Global Positioning System) satellite positioning system. The accuracy of the measured and the actual position is specified with GPS at 15 meters. However, due to the imprecise nature of GPS coordinates, it can be difficult to determine an accurate vehicle location on a digital map on a high-density, multi-lane road.
Für beispielsweise das Navigationsgerät muss nun die Position des Fahrzeugs in der digitalen Karte ermittelt werden, damit zum Beispiel eine sinnvolle Routenberechnung vom aktuellen Standort zum Fahrziel bestimmt werden kann. Ohne ein Abgleich der gemessenen Position mit den Karteninformationen könnte sich das Fahrzeug außerhalb der digitalisierten Straßen oder auf der falschen Straße in der Karte befinden. Ein solcher Abgleich wird jedoch durch eine hohe Verkehrsdichte erschwert.For the navigation device, for example, the position of the vehicle must now be determined on the digital map so that, for example, a meaningful route calculation can be made from the current location to the destination. Without a comparison of the measured position with the map information, the vehicle could be outside the digitized streets or on the wrong street on the map. Such a comparison is made more difficult by the high traffic density.
Die
Der Erfindung liegt nunmehr die Aufgabe zugrunde, Mittel zur Lokalisation eines Egofahrzeugs bei sehr hohen Verkehrsaufkommen beispielsweise bei Stau / bei Rush Hour in einer verkehrsreichen Stadt, anzugeben.The invention is now based on the object of specifying means for localizing an ego vehicle when there is a very high volume of traffic, for example when there is a traffic jam / rush hour in a busy city.
Diese Aufgabe wird durch ein Verfahren zur sensorbasierten Lokalisation eines Objektes mit den Merkmalen des Anspruchs 1 sowie ein Egofahrzeug mit den Merkmalen des Anspruchs 13 gelöst. Ferner wird die Aufgabe durch ein Computerprogramm mit den Merkmalen des Anspruchs 14 und ein Datenträgersignal mit den Merkmalen des Anspruchs 15 gelöst.This object is achieved by a method for the sensor-based localization of an object with the features of
In den Unteransprüchen sind weitere vorteilhafte Maßnahmen aufgelistet, die beliebig geeignet miteinander kombiniert werden können, um weitere Vorteile zu erzielen.The subclaims list further advantageous measures which can be combined with one another in any suitable manner in order to achieve further advantages.
Die Aufgabe wird gelöst durch ein Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges mit den Schritten:
- - Generierung von aufeinanderfolgenden Frames von Umfeldsensordaten eines Umfelds des Egofahrzeugs durch ein Sensorsystem,
- - Extraktion von Merkmalen in zumindest einem Frame durch ein Merkmalsextraktionsverfahren,
- - Zusammenfassen der Merkmale zu einzelnen dynamischen Objekten von Interesse,
- - Klassifikation der einzelnen dynamischen Objekte von Interesse,
- - Bestimmung von kinematischen Daten der einzelnen dynamischen Objekte von Interesse aus den aufeinanderfolgenden Frames unter Berücksichtigung der Egodaten des Egofahrzeugs und zuordnen der kinematischen Daten zu den einzelnen dynamischen Objekten von Interesse,
- - Transformieren der erfassten Umfeldsensordaten der dynamischen Objekte von Interesse der einzelnen Frames unter Verwendung der kinematischen Daten in eine lokale Karte,
- - Clustern der transformierten Umfeldsensordaten der dynamischen Objekte von Interesse in der lokalen Karte zu Trajektorien und zuweisen der Trajektorien zu den einzelnen dynamischen Objekten von Interesse,
- - Bestimmen von statischen Umgebungsdaten von statischen Umgebungsobjekten aus zumindest einem der Frames und vervollständigen der lokalen Karte anhand der statischen Umgebungsdaten von statischen Umgebungsobjekten zu einer vervollständigten lokalen Umgebungskarte und zuweisen der einzelnen dynamischen Objekte von Interesse zu den statischen Umgebungsdaten von statischen Umgebungsobjekten,
- - Bereitstellen einer Referenzstraßenkarte und abbilden der vervollständigten lokalen Umgebungskarte auf die Referenzstraßenkarte.
- - Generation of successive frames of environment sensor data of an environment of the host vehicle by a sensor system,
- - Extraction of features in at least one frame by a feature extraction method,
- - Combining the characteristics into individual dynamic objects of interest,
- - classification of the individual dynamic objects of interest,
- - Determination of kinematic data of the individual dynamic objects of interest from the successive frames, taking into account the ego data of the host vehicle and assigning the kinematic data to the individual dynamic objects of interest,
- - Transforming the captured environment sensor data of the dynamic objects of interest of the individual frames using the kinematic data into a local map,
- - Cluster the transformed environment sensor data of the dynamic objects of interest in the local map to form trajectories and assign the trajectories to the individual dynamic objects of interest,
- - Determination of static environment data of static environment objects from at least one of the frames and complete the local map on the basis of the static environment data of static environment objects to a completed local environment map and assign the individual dynamic objects of interest to the static environment data of static environment objects,
- - Providing a reference road map and mapping the completed local area map onto the reference road map.
Unter einem Frame sind zusammengefasste Umfeldsensordaten, welche zu einem bestimmten Zeitpunkt aufgenommen werden, zu verstehen.A frame is to be understood as meaning summarized environment sensor data which are recorded at a specific point in time.
Merkmale sind vor allem L-, oder I-förmige, Bounding boxen, Cluster mit Referenzpunkten, Sensordatensegmente. Die Merkmale welche zu extrahieren sind, können vorgegeben sein.Features are mainly L- or I-shaped, bounding boxes, clusters with reference points, sensor data segments. The features to be extracted can be specified.
Das Klassifikationsverfahren wird genutzt, um die dynamischen Objekte in Klasse wie beispielsweise PKW, Fußgänger etc. einzuteilen als auch vorteilhafterweise die anhand der statischen Umgebungsdaten erfassten statistischen Objekte in Klasse wie beispielsweise Randsteine, Straßenschilder etc. einzuteilen.The classification method is used to divide the dynamic objects into classes such as cars, pedestrians, etc., and also advantageously to divide the statistical objects recorded on the basis of the static environment data into classes such as curb stones, street signs, etc.
Egodaten können vor allem die Bewegungsrichtung (Orientierung und Position) und/oder die Eigengeschwindigkeit des Egofahrzeugs sein. Mit Hilfe der Egodaten können die Umfeldsensordaten besser interpretiert werden, da die im Egofahrzeug verbauten Umfeldsensoren sich mit dem Fahrzeug bewegen, so dass sich ihre Lage und Position stets ändern. Für die zeitliche Korrelation der Umfeldsensordaten ist das Wissen über den vom Egofahrzeug zurückgelegten Weg sowie die Position vorteilhaft. Die Egodaten können auch durch eine Eigenbewegungsschätzung (Ego Motion Estimation), welche die Beschleunigungen und die Drehraten des Egofahrzeugs, beispielsweise mittels eines Trägheitsnavigationssystem schätzt, ermittelt werden. First and foremost, ego data can be the direction of movement (orientation and position) and / or the speed of the ego vehicle. With the help of the ego data, the environment sensor data can be better interpreted, since the environment sensors installed in the ego vehicle move with the vehicle so that their location and position change constantly. For the temporal correlation of the environment sensor data, knowledge of the path covered by the host vehicle and the position is advantageous. The ego data can also be determined by an ego motion estimation, which estimates the accelerations and the rate of rotation of the ego vehicle, for example by means of an inertial navigation system.
Unter Clusterverfahren versteht man Verfahren zur Bestimmung von Ähnlichkeitsstrukturen in Datenbeständen. Die so gefundenen Gruppen von Daten werden als Cluster bezeichnet.The cluster method is a method for determining similarity structures in databases. The groups of data found in this way are known as clusters.
Eine lokale Karte kann beispielsweise durch das Egofahrzeug selbst erstellt werden. Vorzugsweise ist eine lokale Karte basierend auf den Trajektorien (zeitliche referenziertes Objekt mit allen seinen Eigenschaften wie dessen Position, Klasse, Geometrie). Darüber hinaus wird die statische Umgebung auch in einer lokalen Karte fusioniert. Dazu zählen die Straßenbegrenzungen durch eine Straßenmarkierung, den Randstein, Verkehrsschilder, etc..A local map can, for example, be created by the host vehicle itself. A local map is preferably based on the trajectories (temporally referenced object with all its properties such as its position, class, geometry). In addition, the static environment is also merged into a local map. These include the road boundaries by road markings, the curb, traffic signs, etc.
Statische Umgebungsdaten sind bevorzugt als semantische Informationen oder geometrische Informationen ausgebildet, die die lokale Karte mit beispielsweise statischen Informationen, wie Fahrbahn (Anzahl, Lage, Breite), Bordstein, Fahrbahnberandung etc. zu einer Umgebungskarte vervollständigen.Static environment data are preferably in the form of semantic information or geometric information, which complete the local map with, for example, static information such as the lane (number, position, width), curb, lane boundary, etc. to form an environment map.
Wird einer oder mehrere Sensoren, insbesondere ein Frontsensor von anderen Verkehrsteilnehmern blockiert, und können beispielsweise Fahrbahnen nicht erkannt werden, so ist es möglich die ermittelten Trajektorien der dynamischen Objekte von Interesse für eine genaue Lokalisation des Egofahrzeuges zu verwenden. Durch das erfindungsgemäße Verfahren können daher, wenn der oder die Sensoren von anderen Verkehrsteilnehmern blockiert werden und beispielsweise die Fahrbahnen/Stra-ßenbegrenzungen nicht erkannt werden können, die Trajektorien der dynamischen Objekte von Interesse für eine genaue Lokalisierung des Egofahrzeuges (in einer Referenzstraßenkarte) verwendet werden.If one or more sensors, in particular a front sensor, are blocked by other road users and, for example, lanes cannot be recognized, it is possible to use the determined trajectories of the dynamic objects of interest for precise localization of the host vehicle. With the method according to the invention, if the sensor (s) are blocked by other road users and, for example, the lanes / road boundaries cannot be recognized, the trajectories of the dynamic objects of interest can be used for precise localization of the host vehicle (in a reference road map) .
Somit kann anhand des erfindungsgemäßen Verfahrens eine Lokalisierung des Egofahrzeuges in einer gegebenen Referenzstraßenkarte erfolgen. Dabei kann die Lokalisation auf den Trajektorien der erkannten dynamischen Objekte von Interesse basieren. Die Lokalisierung auf der Grundlage von dynamisch verfolgten Objekten von Interesse ist notwendig, wenn das Sichtfeld der oder des Sensors, insbesondere das Frontsichtfeld von vielen Verkehrsteilnehmern in belebten Stadtgebieten oder Staus auf der Autobahn verdeckt wird.The host vehicle can thus be localized in a given reference road map using the method according to the invention. The localization can be based on the trajectories of the identified dynamic objects of interest. The localization on the basis of dynamically tracked objects of interest is necessary if the field of view of the sensor or sensors, in particular the front field of view, is obscured by many road users in busy urban areas or traffic jams on the motorway.
Das Abbilden wird bevorzugt unter Verwendung von einem Map Matching-Algorithmus durchgeführt. Als Map Matching, auch Kartenabgleich, Karteneinpassung genannt, wird ein Verfahren bezeichnet, welches die durch eine Ortung gemessene Position eines Objektes mit den Ortsinformationen einer digitalen Karte abgleicht. Die Ausrichtung der vervollständigten lokalen Umgebungskarte mit der Referenzkarte kann auf einer Transformation unter Verwendung von Schlüsseldatenpunkten, also Features oder Objekten, die eindeutig zwischen zwei gegebenen Mengen abgeglichen werden können und zu einer Minimierung einer Fehlerfunktion für eine Assoziation der beiden gegebenen Mengen / Sets an Features / Objekten. Zusätzlich kann eine grobe Schätzung der Pose basierend auf GPS- Daten (Globales Positionsbestimmungssystem) oder einer verbesserten Bewegungseinschätzung des Egofahrzeuges als Startpunkt für das Optimierungsproblem verwendet werden. Das Matching kann mittels eines Optimierungsverfahren beispielsweise des Nearest-Neighbor-Algorithmus unter Verwendung einer Entfernungsfunktion wie dem quadratischen euklidischen Abstand erfolgen. Auch kann ein ICP (Iterative Closest Point)-Algorithmus oder ein anderes Optimierungsverfahren angewendet werden.The mapping is preferably carried out using a map matching algorithm. Map matching is a method that compares the position of an object measured by localization with the location information on a digital map. The alignment of the completed local environment map with the reference map can be based on a transformation using key data points, i.e. features or objects that can be uniquely matched between two given sets and to a minimization of an error function for an association of the two given sets of features / Objects. In addition, a rough estimate of the pose based on GPS data (Global Positioning System) or an improved estimation of the movement of the host vehicle can be used as a starting point for the optimization problem. The matching can take place by means of an optimization method, for example the nearest neighbor algorithm, using a distance function such as the square Euclidean distance. An ICP (Iterative Closest Point) algorithm or another optimization method can also be used.
Vorzugsweise ist die Referenzstraßenkarte als eine HDMap (High Definition-Karte) ausgebildet. Dabei sind diese Karten hochpräzise und zeigen die Umgebung auf bis zu zehn bis 20 Zentimeter genau. HDMap können ebenfalls ein Abbild der Straßenoberfläche, die Anzahl der Fahrbahnen als auch deren Breite zeigen. Darüber hinaus können diese sowohl die Neigung und Krümmung der Fahrbahnen als auch Fahrbahnmarkierungen und statische Objekte am Straßenrand zeigen wie zum Beispiel Straßenschilder, Bäume, Randsteine, etc..The reference road map is preferably designed as an HDMap (high definition map). These maps are extremely precise and show the surroundings with an accuracy of up to ten to 20 centimeters. HDMap can also show an image of the road surface, the number of lanes and their width. In addition, these can show the inclination and curvature of the lanes as well as lane markings and static objects on the roadside, such as street signs, trees, curbs, etc.
Bevorzugt umfasst die HDMap zumindest statische Infrastrukturdaten. Diese können beispielsweise ein Straßenmodell, Verkehrsschilder, Ampeln, Straßenmarkierungen, Spurmodell (linke, rechte Spur) als auch geometrische Informationen wie Straßenverläufe, Höhenprofil, Krümmung, Breite sowie Vorfahrtsregeln, Zebrastreifen, Geschwindigkeitsbegrenzungen und Bebauungen wie Ampeln, Verkehrsschilder, Tunnel, Häuser etc. umfassen.The HDMap preferably comprises at least static infrastructure data. These can, for example, be a road model, traffic signs, Traffic lights, road markings, lane model (left, right lane) as well as geometric information such as road courses, height profile, curvature, width as well as right of way, zebra crossings, speed limits and structures such as traffic lights, traffic signs, tunnels, houses, etc.
Vorzugsweise ist die Referenzkarte als selbstlernende Straßenkarte ausgebildet. Eine solche aktualisiert sich kontinuierlich, wodurch das aktuelle Verkehrsgeschehen und/oder das Umfeld in Echtzeit abgebildet werden kann.The reference map is preferably designed as a self-learning road map. This is updated continuously, so that the current traffic situation and / or the environment can be mapped in real time.
Vorzugsweise sind die statischen Umgebungsdaten von statischen Umgebungsobjekten als Fahrbahnen und/oder Fahrbahnberandung ausgebildet. Weiterhin vorzugsweise sind die statischen Umgebungsdaten von statischen Umgebungsobjekten als aktive Verkehrsanzeigedaten wie Ampelanlagen und/oder passive Verkehrsanzeigedaten wie Schilder ausgebildet. Weiterhin vorzugsweise sind die statischen Umgebungsdaten von statischen Umgebungsobjekten als Umgebungsmerkmale ausgebildet. Durch solche markanten Objekte/Punkte/Merkmale kann eine Transformation schneller bewerkstelligt werden.The static environmental data of static environmental objects are preferably designed as lanes and / or lane boundaries. Furthermore, the static environmental data of static environmental objects are preferably designed as active traffic display data such as traffic lights and / or passive traffic display data such as signs. Furthermore, the static environment data of static environment objects are preferably designed as environment features. Such distinctive objects / points / features can be used to achieve a transformation more quickly.
In bevorzugter Ausgestaltung wird als Clusterverfahren ein dichtebasiertes Verfahren eingesetzt. Insbesondere vorteilhafterweise wird als Clusterverfahren der DBSCAN (Density-Based Spatial Clustering of Applications with Noise) eingesetzt. Der DBSCAN arbeitet dichtebasiert und ist in der Lage, mehrere Cluster zu erkennen. Ferner muss nicht im vornherein bekannt sein, wie viele Cluster existieren. Der Algorithmus kann auch beliebige Cluster beliebiger Form erkennen. Ein weiterer Vorteil bei Verwendung des DBSCAN liegt darin, dass der Algorithmus weitgehend deterministisch und reihenfolgeunabhängig arbeitet. Auch andere Algorithmen, welche auf dem DBSAN basieren können verwendet werden. Dies ist beispielsweise der HDBSCAN - Alogithmus (Hierarchical Density Based Clustering), welcher den Algorithmus erweitert, indem er in einen hierarchischen Clustering-Algorithmus konvertiert wird.In a preferred embodiment, a density-based method is used as the cluster method. DBSCAN (Density-Based Spatial Clustering of Applications with Noise) is used particularly advantageously as the cluster method. The DBSCAN works based on density and is able to recognize several clusters. Furthermore, it does not have to be known in advance how many clusters exist. The algorithm can also recognize any cluster of any shape. Another advantage of using the DBSCAN is that the algorithm works largely deterministically and independently of the sequence. Other algorithms based on DBSAN can also be used. This is, for example, the HDBSCAN - Alogithm (Hierarchical Density Based Clustering), which extends the algorithm by converting it into a hierarchical clustering algorithm.
Vorzugsweise wird zu jedem dynamischen Objekt von Interesse ein Referenzpunkt bestimmt.A reference point is preferably determined for each dynamic object of interest.
Zur Bestimmung von kinematischen Daten der einzelnen dynamischen Objekte von Interesse aus den aufeinanderfolgenden Frames ist die Bestimmung der Position, der Größe und der Orientierung des dynamischen Objektes von Interesse sinnvoll. Die Bestimmung der Position wird vorzugsweise durch einen geeigneten Referenzpunkt aus den einzelnen Entfernungsmessungen des Objektes berechnet. Dies ist speziell bei Objekten von Bedeutung, die ihre Orientierung zum Sensorsystem ändern.To determine kinematic data of the individual dynamic objects of interest from the successive frames, it is useful to determine the position, size and orientation of the dynamic object of interest. The determination of the position is preferably calculated from the individual distance measurements of the object using a suitable reference point. This is especially important for objects that change their orientation to the sensor system.
Weiterhin vorzugsweise erfolgt die Bestimmung von kinematischen Daten der einzelnen dynamischen Objekte von Interesse aus den aufeinanderfolgenden Frames anhand des Referenzpunktes. Dadurch ist eine Verfahrensbeschleunigung möglich.Furthermore, kinematic data of the individual dynamic objects of interest are preferably determined from the successive frames on the basis of the reference point. This enables the process to be accelerated.
Ferner wird die Aufgabe gelöst durch ein Egofahrzeug, welches zum Durchführen des wie oben beschriebenen Verfahrens ausgelegt ist, umfassend zumindest eines Lidarsensors, eines Radarsensors und eines Bildsensors. Die Lidar-/ Radarsensoren erfassen die Umgebung immer mehrdimensional, d.h. es werden nicht nur Detektionen im 3D-Raum geliefert, sondern auch beim Radarsensor die RadarCrossSection (RCS), die Dopplergeschwindigkeit und weitere Signale (SNR, Leistung, etc.). Ein Lidarsensor liefert typischerweise noch eine Echo-Pulse-Weite und eine Intensität.Furthermore, the object is achieved by a host vehicle which is designed to carry out the method as described above, comprising at least one lidar sensor, one radar sensor and one image sensor. The lidar / radar sensors capture the environment more and more dimensionally, i.e. not only are detections delivered in 3D space, but also the radar cross section (RCS), the Doppler speed and other signals (SNR, power, etc.) for the radar sensor. A lidar sensor typically also supplies an echo pulse width and an intensity.
Ferner wird die Aufgabe gelöst durch ein Computerprogramm, umfassend Befehle, die bewirken, dass das wie oben beschriebene Egofahrzeug das wie oben beschriebene Verfahren ausführt.Furthermore, the object is achieved by a computer program comprising commands which cause the host vehicle as described above to carry out the method as described above.
Ferner wird die Aufgabe gelöst durch ein Datenträgersignal, das ein wie oben beschriebenes Computerprogramm überträgt. Dadurch ist auch ein einfaches nachträgliches Installieren des Verfahrens in dafür geeignete Egofahrzeuge möglich.The object is also achieved by a data carrier signal that is transmitted by a computer program as described above. This also enables the method to be easily subsequently installed in suitable host vehicles.
Weitere Merkmale, Eigenschaften und Vorteile der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung unter Bezugnahme auf die beiliegenden Figuren. Darin zeigen schematisch:
-
1 : ein Egofahrzeug mit einem erfindungsgemäßen Fahrerassistenzsystem, -
2 : einen Grobüberblick über das erfindungsgemäße Verfahren, -
3 : den ersten Verfahrensschritt S1 im Detail, -
4 : die zu verfolgenden Objekte, in Klassen eingeteilt, -
5 : den zweiten Verfahrensschritt S2 im Detail, -
6 : die dynamischen klassifizierten Objekte von Interesse und deren Trajektorien, -
7 : den dritten Verfahrensschritt S3 im Detail, -
8 : eine lokale Umgebungskarte, -
9 : die lokale Umgebungskarte in Draufsicht zu einem späteren Zeitpunkt, -
10 : den vierten Verfahrensschritt S4 im Detail , -
11 : teilweise das erfindungsgemäße Verfahren grafisch.
-
1 : an ego vehicle with a driver assistance system according to the invention, -
2 : a rough overview of the method according to the invention, -
3rd : the first process step S1 in detail, -
4th : the objects to be tracked, divided into classes, -
5 : the second process step S2 in detail, -
6th : the dynamic classified objects of interest and their trajectories, -
7th : the third process step S3 in detail, -
8th : a local map of the area, -
9 : the local area map in plan view at a later point in time, -
10 : the fourth method step S4 in detail, -
11 : partially the method according to the invention graphically.
Obwohl die Erfindung im Detail durch die bevorzugten Ausführungsbeispiele näher illustriert und beschrieben wurde, ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt.Although the invention has been illustrated and described in more detail by the preferred exemplary embodiments, the invention is not restricted by the examples disclosed.
Anschließend werden die dynamischen Objekte von Interesse klassifiziert. Dabei können als Klasse beispielsweise Fahrzeug, Fahrrad, Motorrad definiert werden. Die Klassifikation auf Merkmalsebene dient vor allem dazu, unerwünschte fälschlicherweise identifizierte Objekte frühzeitig herauszufiltern und diese zu löschen. Dies spart zum einen Rechenzeit und erhöht zum anderen die Robustheit des Verfahrens, da weniger unrelevante Objekte entstehen. Als Klassifikationsverfahren können beispielsweise der Bayes-Klassifikator, Gaussian Mixture Models, Neuronale Netze, Support Vector Machines oder Entscheidungsbäume, herangezogen werden. Entscheidungsbäume sind geordnete, gerichtete Bäume, die der Darstellung von Entscheidungsregeln dienen. Auch andere Klassifikationsverfahren sind möglich.Then the dynamic objects of interest are classified. Vehicle, bicycle, motorcycle, for example, can be defined as a class. The main purpose of the classification at the feature level is to filter out unwanted, incorrectly identified objects at an early stage and to delete them. On the one hand, this saves computing time and, on the other hand, increases the robustness of the method, since fewer irrelevant objects are created. The Bayes classifier, Gaussian mixture models, neural networks, support vector machines or decision trees, for example, can be used as classification methods. Decision trees are ordered, directed trees that are used to represent decision rules. Other classification methods are also possible.
Ferner wird den Objekten von Interesse noch bestimmte Bewegungsannahmen bezogen auf den kinematischen Zustand des Objektes von Interesse zugeordnet, beispielsweise, dass es sich mit annähernd konstanter Geschwindigkeit in Richtung seiner Längsachse bewegt und mit welcher Geschwindigkeit es sich weiterbewegt. Diese Annahme oder Schätzung wird vorzugsweise zumindest unter Verwendung der Egogeschwindigkeit des Egofahrzeugs
In einem zweiten Verfahrensschritt S2 wird die Trajektorie von den einzelnen dynamischen Objekten von Interesse bestimmt und diesen jeweils zugeordnet. Hierzu werden die Umfeldsensordaten der dynamischen Objekte von Interesse über verschiedene aufeinanderfolgende Frames in einer lokale Karte
Dadurch wird eine lokale Karte
Ein weiterer Löschungsgrund ist beispielsweise das Herabstufen des dynamischen Objektes von Interesse als uninteressant. Aufgrund des beschränkten Sichtfelds und der Bewegung der Objekte verlassen diese regelmäßig den relevanten Bereich und werden somit uninteressant.Another reason for deletion is, for example, the downgrading of the dynamic object of interest as uninteresting. Due to the limited field of view and the movement of the objects, they regularly leave the relevant area and thus become uninteresting.
Ferner können Objekte gelöscht werden, wenn die Lebensdauer des dynamischen Objektes von Interesse einen vorgegebenen Schwellenzeitwert überschreitet.Furthermore, objects can be deleted when the lifetime of the dynamic object of interest exceeds a predetermined threshold time value.
Daneben können vorzugsweise auch falsche Objekte identifiziert und gelöscht werden. Aufgrund von zufälligen Formen in den Umfeldsensordaten oder durch Fehlinterpretationen kann es immer wieder vorkommen, dass Objekte erzeugt werden, die in der Realität nicht existieren. Dies wird beispielsweise, wie oben beschrieben, durch das Clusterverfahren oder die Klassifizierung erkannt. So kann als Plausibilitätsprüfung beispielsweise überprüft werden, ob die gemessenen Dimensionen der einzelnen Objekte von Interesse mit den erwarteten Dimensionen von Verkehrsteilnehmern übereinstimmt. Ist dies nicht der Fall, so wird das Objekt vorzugsweise gelöscht.In addition, incorrect objects can preferably also be identified and deleted. Due to random shapes in the environment sensor data or due to misinterpretations, it can happen again and again that objects are created that do not exist in reality. This is recognized, for example, as described above, by the cluster method or the classification. For example, a plausibility check can be used to check whether the measured dimensions of the individual objects of interest correspond to the expected dimensions of road users. If this is not the case, the object is preferably deleted.
Das Löschen von Objekten, welche nicht mehr von Interesse sind, trägt zur Schnelligkeit des Verfahrens bei der Verfolgung von mehreren, wechselnden Objekten bei.The deletion of objects that are no longer of interest contributes to the speed of the method when tracking several, changing objects.
Anschließend wird in einem weiterem Verfahrensschritt S3 die lokale Karte
Dadurch kann eine vervollständigte lokale Umgebungskarte
Dadurch wird eine konsistente vervollständigte lokale Umgebungskarte
In einem nachfolgenden Verfahrensschritt S4 wird die vervollständigte lokale Umgebungskarte
Dadurch ist eine schnellere Abbildung der lokalen Umgebungskarte
Das Optimierungsverfahren kann auf der Grundlage des Nearest-Neighbor-Algorithmus mit, beispielsweise zu einer optimierenden Entfernungsfunktion wie dem quadratischen euklidischen Abstand zwischen erkannten Schlüsseldatenpunkten auf der lokalen Karte und den korrespondierenden Schlüsseldatenpunkten auf der Referenzstraßenkarte erfolgen. Auch kann ein ICP (Itertiv Closest Point)- Algorithmus oder ein anderes Optimierungsverfahren angewendet werden.The optimization method can be based on the nearest neighbor algorithm with, for example, an optimizing distance function such as the square Euclidean distance between recognized key data points on the local map and the corresponding key data points on the reference road map. An ICP (Itertiv Closest Point) algorithm or another optimization method can also be used.
Anhand des erfindungsgemäßen Verfahrens kann eine Lokalisierung des Egofahrzeuges
Die Lokalisierung auf der Grundlage von dynamisch verfolgten Objekten ist notwendig, wenn das Sichtfeld der oder des Sensors, insbesondere das Frontsichtfeld, von vielen Verkehrsteilnehmern in belebten Stadtgebieten oder Staus auf der Autobahn verdeckt wird.The localization on the basis of dynamically tracked objects is necessary if the field of view of the sensor or sensors, in particular the front field of view, is obscured by many road users in busy urban areas or traffic jams on the motorway.
Wird daher einer oder mehrere Sensoren, insbesondere ein Frontsensor, von anderen Verkehrsteilnehmern blockiert, und können beispielsweise Fahrbahnen nicht erkannt werden, so ist es durch das Verfahren möglich, die Trajektorien der dynamischen Objekte von Interesse für eine Lokalisation des Egofahrzeuges
Durch das erfindungsgemäße Verfahren können, wenn der oder die Sensoren von anderen Verkehrsteilnehmern blockiert werden und beispielsweise die Fahrbahnen/ Straßenbegrenzungen nicht erkannt werden können, die Trajektorien der dynamischen Objekte für eine Lokalisierung des Egofahrzeuges
Die optimale Transformation zwischen der lokalen Karte
Eine solche Transformation kann auch mittels einer Pose Graph-Optimierung mit sogenannten Knoten erzielt werden. Dabei wird die Abbildung der lokalen Karte
Ein erster Frame weist somit eine durch Sensordaten fusionierte Aufnahme von dem Umfeld des Egofahrzeugs
In dem Frame werden Merkmale, sogenannte Features, extrahiert. Diese Features werden anhand von einem Merkmalsextraktionsverfahren aus den fusionierten Umfeldsensordaten des Frames extrahiert.Characteristics, so-called features, are extracted in the frame. These features are extracted from the merged environment sensor data of the frame using a feature extraction process.
Bei der Merkmalsextraktion wird versucht, in dem Frame bestimmte Objekte oder Formen zu erkennen und deren Merkmale wie Position, Orientierung und Ausdehnung zu ermitteln. Meistens können die Sensordaten davor bereits in zusammengehörige Sensordatensegmente unterteilt werden. Features für die dynamische Objektverfolgung können beispielsweise geometrische Eigenschaften wie L-, I -Formen, oder Begrenzungsrahmen (Bounding Box) oder Ellipsen, Cluster mit Referenzpunkten, Sensordatensegmente etc. sein.The extraction of features tries to identify certain objects or shapes in the frame and to determine their features such as position, orientation and extent. Most of the time, the sensor data can already be divided into related sensor data segments beforehand. Features for dynamic object tracking can be, for example, geometric properties such as L-, I -shapes, or bounding boxes or ellipses, clusters with reference points, sensor data segments, etc.
Zur Merkmalsextraktion gibt es unterschiedlich komplexe Ansätze. Ziel der Merkmalsextraktion ist es, eine Objektbeschreibung von Objekten von Interesse zu liefern.There are differently complex approaches to feature extraction. The aim of feature extraction is to provide an object description of objects of interest.
Diese wird als Eingabe für nachfolgende Verarbeitungsschritte herangezogen und kann dadurch die Laufzeit des Verfahrens deutlich reduzieren.This is used as input for subsequent processing steps and can thus significantly reduce the runtime of the process.
Um Positionsangaben für ausgedehnte Objekte machen zu können, wird vorzugsweise zudem ein Referenzpunkt, der das Objekt repräsentiert, bestimmt. Anhand ihres Referenzpunktes werden Sensordaten in jedem Frame ihnen zugehörigen Objekten zugeordnet, was eine räumlich-zeitliche Verfolgung der Objekte ermöglichen kann. Der Referenzpunkt kann ein einzelner Sensordatenpunkt bzw. ein virtueller Referenzpunkt, der die Bewegung des zugrundeliegenden Objektes nachvollziehen kann, sein.In order to be able to provide position information for extended objects, a reference point that represents the object is preferably also determined. Based on their reference point, sensor data are assigned to objects belonging to them in each frame, which can enable the objects to be tracked in terms of space and time. The reference point can be a single sensor data point or a virtual reference point that can reproduce the movement of the underlying object.
Anschließend werden die einzelnen dynamisch, zu verfolgende Objekte von Interesse in Objektklassen klassifiziert. Die Klassifikation dient vor allem dazu, unerwünschte Objekte frühzeitig herauszufiltern und sie somit der Tracking-Stufe zu entziehen. Diese Klassen können beispielsweise als Auto (Kraftfahrzeug), Lastwagen, Fahrrad, Fußgänger etc. ausgebildet sein. Ferner können auch im ersten Verfahrensschritte S1 statische Elemente wie Ampel etc. extrahiert werden.Then the individual dynamic objects of interest to be tracked are classified into object classes. The primary purpose of the classification is to filter out unwanted objects at an early stage and thus remove them from the tracking level. These classes can be designed as cars (motor vehicles), trucks, bicycles, pedestrians, etc., for example. Furthermore, static elements such as traffic lights etc. can also be extracted in the first method step S1.
Als Klassifikationsverfahren können beispielsweise Bayes-Klassifikator, Gaussian Mixture Models, Neuronale Netze, Support Vector Machines-Algorithmen oder Entscheidungsbäume herangezogen werden, da diese effizient zu implementieren sind. Bei einem Entscheidungsbaum handelt es sich um ein statisches Klassifikationsverfahren, welches leicht zu implementieren ist. Durch die Klassifizierung können erkannte Objekte plausibilisiert werden. So kann als Plausibilitätsprüfung beispielsweise überprüft werden, ob die gemessenen Dimensionen der einzelnen Objekte von Interesse explizit mit den erwarteten Dimensionen von Verkehrsteilnehmern übereinstimmt. Damit ein Objekt als dynamisches Objekt von Interesse, beispielsweise ein Fahrzeug von Interesse, in Frage kommt, muss nicht nur der erkannte Umriss einem vorgegebenen Umriss entsprechen, sondern beispielsweise auch die Abmessung mit den erwarteten Werten übereinstimmen. Wird beispielsweise eine L-Form mit 8 m Breite und 8 m Länge erkannt, handelt es sich wahrscheinlich um ein Haus. Vorzugsweise wird anhand der Dimensionen entschieden, ob aus der Form ein Objekt von Interesse erzeugt wird.Bayes classifiers, Gaussian mixture models, neural networks, support vector machines algorithms or decision trees can be used as classification methods, since these can be implemented efficiently. A decision tree is a static classification method that is easy to implement. Recognized objects can be checked for plausibility through the classification. For example, a plausibility check can be used to check whether the measured dimensions of the individual objects of interest explicitly match the dimensions expected by road users. So that an object comes into question as a dynamic object of interest, for example a vehicle of interest, does not have to be only the recognized outline corresponds to a predetermined outline, but also, for example, the dimensions correspond to the expected values. For example, if an L-shape that is 8 meters wide and 8 meters long is detected, it is likely a house. It is preferably decided on the basis of the dimensions whether an object of interest is to be generated from the shape.
Ist dies nicht der Fall, so wird das Objekt vorzugsweise gelöscht. Somit kann durch das Klassifikationsverfahren eine erste Löschung von fälschlicherweise erkannten Objekten vorgenommen werden. Dies erhöht die Schnelligkeit als auch die Robustheit des Verfahrens.If this is not the case, the object is preferably deleted. Thus, the classification method can be used to delete incorrectly recognized objects for the first time. This increases the speed as well as the robustness of the process.
Den dynamisch, zu verfolgenden Objekten von Interesse wird zudem die Objektgeschwindigkeit und eine Position (Positionsdaten), das heißt also der kinematische Zustand zugewiesen, welche aus den Frames unter Zuhilfenahme der Eigengeschwindigkeit und der Position (Drehbewegung) des Egofahrzeugs
Durch den ersten Verfahrensschritt S1 wird zur Objektverfolgung somit eine Liste von dynamischen Objekten von Interesse erzeugt, wobei jedes Objekt, die Geometrie (beispielsweise Länge, Breite, Ellipse, L- Form, I- Form, etc.) mit dem dazugehörenden Referenzpunkt, den kinematischen Zustand (Geschwindigkeit und Position) und die Klasse beinhaltet.The first method step S1 thus generates a list of dynamic objects of interest for object tracking, with each object, the geometry (for example length, width, ellipse, L-shape, I-shape, etc.) with the associated reference point, the kinematic State (speed and position) and the class includes.
Dazu werden zunächst alle Umfeldsensordaten der Objekte von Interesse in eine lokale Karte
Dabei ist eine lokale Karte
Die Akkumulation der dynamischen Objekte wird unter Zuhilfenahme einer ersten Vorhersage/Schätzung der Pose, das heißt Position und Orientierung der dynamischen Objekte von Interesse durch das Egofahrzeug
Das Clustering kann beispielsweise mittels eines DBSCAN-Algorithmus durchgeführt werden.The clustering can for example be carried out using a DBSCAN algorithm.
Dabei ist ein DBSCAN ein dichtebasiertes Verfahren. Dabei steht DBSCAN für Density-Based Spatial Clustering of Applications with Noise (Dichtebasierte räumliche Clusteranalyse mit Rauschen). Ein mehrdimensionales-Sensordatenbild kann mehrere Cluster-Schwerpunkte aufweisen. Der DBSCAN arbeitet dichtebasiert und ist in der Lage, mehrere Cluster zu erkennen. Ferner muss nicht im vornherein bekannt sein, wie viele Cluster existieren. Der Algorithmus kann auch beliebige Cluster beliebiger Form erkennen. Ein weiterer Vorteil bei Verwendung des DBSCAN liegt darin, dass der Algorithmus weitgehend deterministisch und reihenfolgeunabhängig arbeitet. Auch andere Algorithmen, welche auf dem DBSAN basieren können verwendet werden. Dies ist beispielsweise der HDBSCAN - Alogithmus (Hierarchical Density Based Clustering), welcher den Algorithmus erweitert, indem er in einen hierarchischen Clustering-Algorithmus konvertiert wird. Der HDBSCAN-Algorithmus ist eine sehr datenabhängige Methode der Cluster-Bildung und erfordert sehr wenig Benutzereingaben. Ein anderer Algorithmus ist beispielsweise der OPTICS (Ordering Points To Identify the Clustering Structure) -algorithmus, welcher Cluster unterschiedlicher Dichte erkennen kann. Auch andere Algorithmen, welche auf DBSCAN basieren, wie Shared-Nearest-Neighbor-Clustering- Algorithmus, sind möglich.A DBSCAN is a density-based process. DBSCAN stands for Density-Based Spatial Clustering of Applications with Noise. A multidimensional sensor data image can have several cluster focal points. The DBSCAN works based on density and is able to recognize several clusters. Furthermore, it does not have to be known in advance how many clusters exist. The algorithm can also recognize any cluster of any shape. Another advantage of using the DBSCAN is that the algorithm works largely deterministically and independently of the sequence. Other algorithms based on DBSAN can also be used. This is, for example, the HDBSCAN - Alogithm (Hierarchical Density Based Clustering), which extends the algorithm by converting it into a hierarchical clustering algorithm. The HDBSCAN algorithm is a very data-dependent method of clustering and requires very little user input. Another algorithm is, for example, the OPTICS (Ordering Points To Identify the Clustering Structure) algorithm, which can recognize clusters of different densities. Other algorithms based on DBSCAN, such as the shared nearest neighbor clustering algorithm, are also possible.
Mittels der Clusteranalyse können nun einerseits die Trajektorien der dynamischen Objekte von Interesse ermittelt werden und den Objekten von Interesse zugeordnet werden. Ferner wird durch das Clustering anhand einer Plausibilitätsprüfung eine Verifizierung erzielt, ob das aus dem Frame ermittelte Objekt von Interesse auch ein solches ist. So kann beispielsweise ein durch den ersten Verfahrensschritt identifiziertes Objekt von Interesse beispielsweise folgende Fälle annehmen: das Objekt ist im ersten Fall ein verifiziertes Objekt von Interesse, also beispielsweise ein Personenkraftwagen, Fußgänger etc.; das Objekt wurde im zweiten Fall fälschlicherweise als Objekt von Interesse identifiziert; und im dritten Fall ist weiterhin keine eindeutige Aussage möglich. In dem zweiten Fall in dem das Objekt fälschlicherweise als dynamisches Objekt von Interesse identifiziert wurde, wird das Objekt gelöscht. In dem letzten Fall kann anhand einer Wahrscheinlichkeitsfunktion oder ähnlichen das Objekt als Objekt von Interesse eingestuft oder als kein Objekt von Interesse eingestuft werden. Dadurch werden die Robustheit und die Schnelligkeit des Verfahrens erhöht.By means of the cluster analysis, on the one hand, the trajectories of the dynamic objects of interest can be determined and assigned to the objects of interest. Furthermore, the clustering uses a plausibility check to verify whether the object of interest determined from the frame is also one. For example, an object of interest identified by the first method step can, for example, assume the following cases: in the first case, the object is a verified object of interest, for example a car, pedestrian, etc .; the object was in the second case incorrectly identified as an object of interest; and in the third case it is still not possible to make a clear statement. In the second case, in which the object is incorrectly identified as a dynamic object of interest, the object is deleted. In the latter case, the object can be classified as an object of interest or not classified as an object of interest on the basis of a probability function or the like. This increases the robustness and speed of the process.
Somit wird durch den zweiten Verfahrensschritt S2 eine lokale Karte
Dadurch kann durch eine Komplettierung der Verkehrsszene eine vollständige lokale Umgebungskarte
Die Erkennung der Fahrbahn
Anschließend werden Fahrbahnen als statische Umgebungsdaten von statischen Umgebungsobjekten bestimmt (IV), welche der lokalen Karte
BezugszeichenlisteList of reference symbols
- 11
- EgofahrzeugEgo vehicle
- 22
- FahrerassistenzsystemDriver assistance system
- 33
- SensorsystemSensor system
- 44th
- RadarsensorRadar sensor
- 55
- LidarsensorLidar sensor
- 66th
- BildsensorImage sensor
- 77th
- erster Personenkraftwagen mit dazugehöriger Trajektoriefirst passenger car with associated trajectory
- 88th
- zweiter Personenkraftwagen mit dazugehöriger Trajektoriesecond passenger car with associated trajectory
- 99
- Bus mit dazugehöriger TrajektorieBus with associated trajectory
- 1010
- Fahrrad mit dazugehöriger TrajektorieBicycle with associated trajectory
- 1111
- lokale Kartelocal map
- 1212th
- vervollständigte lokale Umgebungskartecompleted local area map
- 1313th
- Fahrbahnroadway
- 1414th
- HDMapHDMap
- 1515th
- ParkplätzeParking spaces
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 102016205871 A1 [0004]DE 102016205871 A1 [0004]
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019213403.3A DE102019213403A1 (en) | 2019-09-04 | 2019-09-04 | Method for the sensor-based localization of a host vehicle, host vehicle and a computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019213403.3A DE102019213403A1 (en) | 2019-09-04 | 2019-09-04 | Method for the sensor-based localization of a host vehicle, host vehicle and a computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019213403A1 true DE102019213403A1 (en) | 2021-03-04 |
Family
ID=74564841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019213403.3A Withdrawn DE102019213403A1 (en) | 2019-09-04 | 2019-09-04 | Method for the sensor-based localization of a host vehicle, host vehicle and a computer program |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019213403A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021214763A1 (en) | 2021-12-21 | 2023-06-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and control device for controlling an automated vehicle |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004047130A1 (en) * | 2004-09-27 | 2006-04-13 | Daimlerchrysler Ag | Environment and surroundings modeling for autonomous mobile systems including industrial robots involves computer classifying objects and surrounding spaces in accordance with given criteria |
US20090228204A1 (en) * | 2008-02-04 | 2009-09-10 | Tela Atlas North America, Inc. | System and method for map matching with sensor detected objects |
DE102013001867A1 (en) * | 2013-02-02 | 2014-08-07 | Audi Ag | Method for determining orientation and corrected position of motor vehicle, involves registering features of loaded and recorded environmental data by calculating transformation and calculating vehicle orientation from transformation |
DE102015203016A1 (en) * | 2015-02-19 | 2016-08-25 | Volkswagen Aktiengesellschaft | Method and device for optical self-localization of a motor vehicle in an environment |
DE102016015405A1 (en) * | 2016-12-22 | 2017-07-06 | Daimler Ag | Comprehensive environmental detection for a car by means of radar |
DE112017004302T5 (en) * | 2016-08-30 | 2019-05-23 | Continental Automotive Gmbh | Driver support system for determining a position of a vehicle |
-
2019
- 2019-09-04 DE DE102019213403.3A patent/DE102019213403A1/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004047130A1 (en) * | 2004-09-27 | 2006-04-13 | Daimlerchrysler Ag | Environment and surroundings modeling for autonomous mobile systems including industrial robots involves computer classifying objects and surrounding spaces in accordance with given criteria |
US20090228204A1 (en) * | 2008-02-04 | 2009-09-10 | Tela Atlas North America, Inc. | System and method for map matching with sensor detected objects |
DE102013001867A1 (en) * | 2013-02-02 | 2014-08-07 | Audi Ag | Method for determining orientation and corrected position of motor vehicle, involves registering features of loaded and recorded environmental data by calculating transformation and calculating vehicle orientation from transformation |
DE102015203016A1 (en) * | 2015-02-19 | 2016-08-25 | Volkswagen Aktiengesellschaft | Method and device for optical self-localization of a motor vehicle in an environment |
DE112017004302T5 (en) * | 2016-08-30 | 2019-05-23 | Continental Automotive Gmbh | Driver support system for determining a position of a vehicle |
DE102016015405A1 (en) * | 2016-12-22 | 2017-07-06 | Daimler Ag | Comprehensive environmental detection for a car by means of radar |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021214763A1 (en) | 2021-12-21 | 2023-06-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and control device for controlling an automated vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102010006828B4 (en) | Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle | |
DE102012207620B4 (en) | System and method for light signal detection | |
DE102013208521B4 (en) | Collective learning of a highly accurate road model | |
DE112020002175T5 (en) | SYSTEMS AND METHODS FOR VEHICLE NAVIGATION | |
DE112020006426T5 (en) | SYSTEMS AND METHODS FOR VEHICLE NAVIGATION | |
DE102007013023B4 (en) | Probabilistic raster map | |
DE112020003897T5 (en) | SYSTEMS AND METHODS FOR MONITORING LANE CONGESTION | |
DE112018002143T5 (en) | SYSTEMS AND METHODS FOR COMPRESSING TRAFFIC DATA | |
DE112020002592T5 (en) | SYSTEMS AND METHODS FOR VEHICLE NAVIGATION BASED ON IMAGE ANALYSIS | |
DE112020002764T5 (en) | SYSTEMS AND METHODS FOR VEHICLE NAVIGATION | |
DE112021002001T5 (en) | NAVIGATING A VEHICLE USING AN ELECTRONIC HORIZON | |
DE112020002869T5 (en) | NAVIGATION SYSTEMS AND METHODS OF DETERMINING OBJECT DIMENSIONS | |
DE102015209467A1 (en) | Method of estimating lanes | |
DE112015006622T5 (en) | Lane determination device and lane determination method | |
EP2116958B1 (en) | Method and device for calculating the drive path in the area in front of a vehicle | |
DE102016112492A1 (en) | Minimization of incorrect sensor data associations for autonomous vehicles | |
DE102018211941A1 (en) | Method for determining an intersection topology of a street intersection | |
DE102021103149A1 (en) | METHOD AND DEVICE FOR DETERMINING THE OPTIMAL CROSSING LANE IN AN ASSISTED DRIVING SYSTEM | |
DE102016213817B4 (en) | A method, apparatus and computer readable storage medium having instructions for determining the lateral position of a vehicle relative to the lanes of a lane | |
DE102019123483B4 (en) | Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level | |
DE102016213782A1 (en) | A method, apparatus and computer readable storage medium having instructions for determining the lateral position of a vehicle relative to the lanes of a lane | |
DE112021002680T5 (en) | SYSTEMS AND METHODS FOR DETECTING AN OPEN DOOR | |
DE112020005275T5 (en) | SYSTEMS AND METHODS FOR SELECTIVE DECELERATION OF A VEHICLE | |
DE112021004128T5 (en) | SYSTEMS AND METHODS FOR MAP-BASED MODELING OF THE REAL WORLD | |
WO2017102623A1 (en) | Method and device for predicting a movement of a road traffic participant in a traffic space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |