DE102019213403A1 - Method for the sensor-based localization of a host vehicle, host vehicle and a computer program - Google Patents

Method for the sensor-based localization of a host vehicle, host vehicle and a computer program Download PDF

Info

Publication number
DE102019213403A1
DE102019213403A1 DE102019213403.3A DE102019213403A DE102019213403A1 DE 102019213403 A1 DE102019213403 A1 DE 102019213403A1 DE 102019213403 A DE102019213403 A DE 102019213403A DE 102019213403 A1 DE102019213403 A1 DE 102019213403A1
Authority
DE
Germany
Prior art keywords
data
interest
map
objects
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019213403.3A
Other languages
German (de)
Inventor
Florian Maile
Jannik Metzner
Daniel Fafula
Johannes Paas
Steffen Bucher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019213403.3A priority Critical patent/DE102019213403A1/en
Publication of DE102019213403A1 publication Critical patent/DE102019213403A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges (1) mit den Schritten:- Generierung von aufeinanderfolgenden Frames von Umfeldsensordaten eines Umfelds des Egofahrzeugs,- Extraktion von Merkmalen in zumindest einem Frame,- Zusammenfassen der Merkmale zu einzelnen dynamischen Objekten von Interesse,- Klassifikation der einzelnen dynamischen Objekte von Interesse,- Bestimmung von kinematischen Daten der einzelnen dynamischen Objekte von Interesse und zuordnen der kinematischen Daten zu den einzelnen dynamischen Objekten von Interesse,- Transformieren der erfassten Umfeldsensordaten der dynamischen Objekte von Interesse der einzelnen Frames in eine lokale Karte (11),- Clustern der transformierten Umfeldsensordaten der dynamischen Objekte von Interesse in der lokalen Karte (11) zu Trajektorien und zuweisen der Trajektorien zu den einzelnen dynamischen Objekten von Interesse,- Bestimmen von statischen Umgebungsdaten von statischen Umgebungsobjekten aus zumindest einem der Frames und vervollständigen der lokalen Karte (11) anhand der statischen Umgebungsdaten zu einer vervollständigten lokalen Umgebungskarte (12) und zuweisen der einzelnen dynamischen Objekte von Interesse zu den statischen Umgebungsdaten,- Bereitstellen einer Referenzstraßenkarte und abbilden der vervollständigten lokalen Umgebungskarte (12) auf die Referenzstraßenkarte.Ferner betrifft die Erfindung ein Egofahrzeug, ein Computerprogramm und ein Datenträgersignal.The invention relates to a method for the sensor-based localization of a host vehicle (1) with the following steps: - generation of successive frames of environment sensor data of an environment of the host vehicle, - extraction of features in at least one frame, - combining the features into individual dynamic objects of interest, - Classification of the individual dynamic objects of interest, - Determination of kinematic data of the individual dynamic objects of interest and assignment of the kinematic data to the individual dynamic objects of interest, - Transformation of the recorded environment sensor data of the dynamic objects of interest of the individual frames into a local map ( 11), - clustering of the transformed environment sensor data of the dynamic objects of interest in the local map (11) into trajectories and assigning the trajectories to the individual dynamic objects of interest, - determination of static environment data of static environment objects from at least one of the frames and complete the local map (11) using the static environment data to form a completed local environment map (12) and assign the individual dynamic objects of interest to the static environment data, - provide a reference road map and map the completed local environment map (12) The invention also relates to a host vehicle, a computer program and a data carrier signal.

Description

Die Erfindung betrifft ein Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges. Ferner betrifft die Erfindung ein Egofahrzeug mit einem solchen Verfahren, ein Computerprogramm und ein Datenträgersignal.The invention relates to a method for the sensor-based localization of a host vehicle. The invention also relates to a host vehicle with such a method, a computer program and a data carrier signal.

Bei Fahrzeug-Navigationssystemen wird die Position des Fahrzeugs meist mit Unterstützung des Satellitenortungssystems GPS (Global Positioning System) gemessen. Die Richtigkeit der gemessenen und der tatsächlichen Position wird bei GPS mit 15 Metern angegeben. Aufgrund der ungenauen Natur der GPS-Koordinaten kann es jedoch schwierig sein, einen genauen Fahrzeugstandort in einer digitalen Karte auf einer mehrspurigen Straße mit hoher Verkehrsdichte zu bestimmen.In vehicle navigation systems, the position of the vehicle is usually measured with the support of the GPS (Global Positioning System) satellite positioning system. The accuracy of the measured and the actual position is specified with GPS at 15 meters. However, due to the imprecise nature of GPS coordinates, it can be difficult to determine an accurate vehicle location on a digital map on a high-density, multi-lane road.

Für beispielsweise das Navigationsgerät muss nun die Position des Fahrzeugs in der digitalen Karte ermittelt werden, damit zum Beispiel eine sinnvolle Routenberechnung vom aktuellen Standort zum Fahrziel bestimmt werden kann. Ohne ein Abgleich der gemessenen Position mit den Karteninformationen könnte sich das Fahrzeug außerhalb der digitalisierten Straßen oder auf der falschen Straße in der Karte befinden. Ein solcher Abgleich wird jedoch durch eine hohe Verkehrsdichte erschwert.For the navigation device, for example, the position of the vehicle must now be determined on the digital map so that, for example, a meaningful route calculation can be made from the current location to the destination. Without a comparison of the measured position with the map information, the vehicle could be outside the digitized streets or on the wrong street on the map. Such a comparison is made more difficult by the high traffic density.

Die DE 10 2016 205 871 A1 offenbart in Verfahren zum Lokalisieren eines Fahrzeugs mit einem Lokalisierungsmodul zum Ausführen zumindest eines Lokalisierungsverfahrens zum Lokalisieren des Fahrzeugs. Hierbei wird zunächst ein Landmarkendichtewert, der eine Dichte von Landmarken im Bereich eines dem Fahrzeug zugeordneten Streckenabschnitts repräsentiert, eingelesen. In einem weiteren Schritt wird unter Verwendung des Landmarkendichtewerts ein erster Teil einer Rechenkapazität des Lokalisierungsmoduls zu einem ersten Lokalisierungsverfahren zugewiesen. Zusätzlich oder alternativ wird dabei ein zweiter Teil der Rechenkapazität zu einem von dem ersten Lokalisierungsverfahren abweichenden zweiten Lokalisierungsverfahren zugewiesen. Schließlich wird das erste Lokalisierungsverfahren unter Verwendung des ersten Teils bzw. das zweite Lokalisierungsverfahren unter Verwendung des zweiten Teils ausgeführt, um das Fahrzeug zu lokalisieren.The DE 10 2016 205 871 A1 discloses in a method for localizing a vehicle with a localization module for carrying out at least one localization method for localizing the vehicle. In this case, a landmark density value, which represents a density of landmarks in the area of a route section assigned to the vehicle, is first read in. In a further step, using the landmark density value, a first part of a computing capacity of the localization module is allocated to a first localization method. In addition or as an alternative, a second part of the computing capacity is allocated to a second localization method that differs from the first localization method. Finally, the first localization method using the first part or the second localization method using the second part is carried out in order to localize the vehicle.

Der Erfindung liegt nunmehr die Aufgabe zugrunde, Mittel zur Lokalisation eines Egofahrzeugs bei sehr hohen Verkehrsaufkommen beispielsweise bei Stau / bei Rush Hour in einer verkehrsreichen Stadt, anzugeben.The invention is now based on the object of specifying means for localizing an ego vehicle when there is a very high volume of traffic, for example when there is a traffic jam / rush hour in a busy city.

Diese Aufgabe wird durch ein Verfahren zur sensorbasierten Lokalisation eines Objektes mit den Merkmalen des Anspruchs 1 sowie ein Egofahrzeug mit den Merkmalen des Anspruchs 13 gelöst. Ferner wird die Aufgabe durch ein Computerprogramm mit den Merkmalen des Anspruchs 14 und ein Datenträgersignal mit den Merkmalen des Anspruchs 15 gelöst.This object is achieved by a method for the sensor-based localization of an object with the features of claim 1 and an ego vehicle with the features of claim 13. Furthermore, the object is achieved by a computer program with the features of claim 14 and a data carrier signal with the features of claim 15.

In den Unteransprüchen sind weitere vorteilhafte Maßnahmen aufgelistet, die beliebig geeignet miteinander kombiniert werden können, um weitere Vorteile zu erzielen.The subclaims list further advantageous measures which can be combined with one another in any suitable manner in order to achieve further advantages.

Die Aufgabe wird gelöst durch ein Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges mit den Schritten:

  • - Generierung von aufeinanderfolgenden Frames von Umfeldsensordaten eines Umfelds des Egofahrzeugs durch ein Sensorsystem,
  • - Extraktion von Merkmalen in zumindest einem Frame durch ein Merkmalsextraktionsverfahren,
  • - Zusammenfassen der Merkmale zu einzelnen dynamischen Objekten von Interesse,
  • - Klassifikation der einzelnen dynamischen Objekte von Interesse,
  • - Bestimmung von kinematischen Daten der einzelnen dynamischen Objekte von Interesse aus den aufeinanderfolgenden Frames unter Berücksichtigung der Egodaten des Egofahrzeugs und zuordnen der kinematischen Daten zu den einzelnen dynamischen Objekten von Interesse,
  • - Transformieren der erfassten Umfeldsensordaten der dynamischen Objekte von Interesse der einzelnen Frames unter Verwendung der kinematischen Daten in eine lokale Karte,
  • - Clustern der transformierten Umfeldsensordaten der dynamischen Objekte von Interesse in der lokalen Karte zu Trajektorien und zuweisen der Trajektorien zu den einzelnen dynamischen Objekten von Interesse,
  • - Bestimmen von statischen Umgebungsdaten von statischen Umgebungsobjekten aus zumindest einem der Frames und vervollständigen der lokalen Karte anhand der statischen Umgebungsdaten von statischen Umgebungsobjekten zu einer vervollständigten lokalen Umgebungskarte und zuweisen der einzelnen dynamischen Objekte von Interesse zu den statischen Umgebungsdaten von statischen Umgebungsobjekten,
  • - Bereitstellen einer Referenzstraßenkarte und abbilden der vervollständigten lokalen Umgebungskarte auf die Referenzstraßenkarte.
The task is solved by a method for the sensor-based localization of a host vehicle with the following steps:
  • - Generation of successive frames of environment sensor data of an environment of the host vehicle by a sensor system,
  • - Extraction of features in at least one frame by a feature extraction method,
  • - Combining the characteristics into individual dynamic objects of interest,
  • - classification of the individual dynamic objects of interest,
  • - Determination of kinematic data of the individual dynamic objects of interest from the successive frames, taking into account the ego data of the host vehicle and assigning the kinematic data to the individual dynamic objects of interest,
  • - Transforming the captured environment sensor data of the dynamic objects of interest of the individual frames using the kinematic data into a local map,
  • - Cluster the transformed environment sensor data of the dynamic objects of interest in the local map to form trajectories and assign the trajectories to the individual dynamic objects of interest,
  • - Determination of static environment data of static environment objects from at least one of the frames and complete the local map on the basis of the static environment data of static environment objects to a completed local environment map and assign the individual dynamic objects of interest to the static environment data of static environment objects,
  • - Providing a reference road map and mapping the completed local area map onto the reference road map.

Unter einem Frame sind zusammengefasste Umfeldsensordaten, welche zu einem bestimmten Zeitpunkt aufgenommen werden, zu verstehen.A frame is to be understood as meaning summarized environment sensor data which are recorded at a specific point in time.

Merkmale sind vor allem L-, oder I-förmige, Bounding boxen, Cluster mit Referenzpunkten, Sensordatensegmente. Die Merkmale welche zu extrahieren sind, können vorgegeben sein.Features are mainly L- or I-shaped, bounding boxes, clusters with reference points, sensor data segments. The features to be extracted can be specified.

Das Klassifikationsverfahren wird genutzt, um die dynamischen Objekte in Klasse wie beispielsweise PKW, Fußgänger etc. einzuteilen als auch vorteilhafterweise die anhand der statischen Umgebungsdaten erfassten statistischen Objekte in Klasse wie beispielsweise Randsteine, Straßenschilder etc. einzuteilen.The classification method is used to divide the dynamic objects into classes such as cars, pedestrians, etc., and also advantageously to divide the statistical objects recorded on the basis of the static environment data into classes such as curb stones, street signs, etc.

Egodaten können vor allem die Bewegungsrichtung (Orientierung und Position) und/oder die Eigengeschwindigkeit des Egofahrzeugs sein. Mit Hilfe der Egodaten können die Umfeldsensordaten besser interpretiert werden, da die im Egofahrzeug verbauten Umfeldsensoren sich mit dem Fahrzeug bewegen, so dass sich ihre Lage und Position stets ändern. Für die zeitliche Korrelation der Umfeldsensordaten ist das Wissen über den vom Egofahrzeug zurückgelegten Weg sowie die Position vorteilhaft. Die Egodaten können auch durch eine Eigenbewegungsschätzung (Ego Motion Estimation), welche die Beschleunigungen und die Drehraten des Egofahrzeugs, beispielsweise mittels eines Trägheitsnavigationssystem schätzt, ermittelt werden. First and foremost, ego data can be the direction of movement (orientation and position) and / or the speed of the ego vehicle. With the help of the ego data, the environment sensor data can be better interpreted, since the environment sensors installed in the ego vehicle move with the vehicle so that their location and position change constantly. For the temporal correlation of the environment sensor data, knowledge of the path covered by the host vehicle and the position is advantageous. The ego data can also be determined by an ego motion estimation, which estimates the accelerations and the rate of rotation of the ego vehicle, for example by means of an inertial navigation system.

Unter Clusterverfahren versteht man Verfahren zur Bestimmung von Ähnlichkeitsstrukturen in Datenbeständen. Die so gefundenen Gruppen von Daten werden als Cluster bezeichnet.The cluster method is a method for determining similarity structures in databases. The groups of data found in this way are known as clusters.

Eine lokale Karte kann beispielsweise durch das Egofahrzeug selbst erstellt werden. Vorzugsweise ist eine lokale Karte basierend auf den Trajektorien (zeitliche referenziertes Objekt mit allen seinen Eigenschaften wie dessen Position, Klasse, Geometrie). Darüber hinaus wird die statische Umgebung auch in einer lokalen Karte fusioniert. Dazu zählen die Straßenbegrenzungen durch eine Straßenmarkierung, den Randstein, Verkehrsschilder, etc..A local map can, for example, be created by the host vehicle itself. A local map is preferably based on the trajectories (temporally referenced object with all its properties such as its position, class, geometry). In addition, the static environment is also merged into a local map. These include the road boundaries by road markings, the curb, traffic signs, etc.

Statische Umgebungsdaten sind bevorzugt als semantische Informationen oder geometrische Informationen ausgebildet, die die lokale Karte mit beispielsweise statischen Informationen, wie Fahrbahn (Anzahl, Lage, Breite), Bordstein, Fahrbahnberandung etc. zu einer Umgebungskarte vervollständigen.Static environment data are preferably in the form of semantic information or geometric information, which complete the local map with, for example, static information such as the lane (number, position, width), curb, lane boundary, etc. to form an environment map.

Wird einer oder mehrere Sensoren, insbesondere ein Frontsensor von anderen Verkehrsteilnehmern blockiert, und können beispielsweise Fahrbahnen nicht erkannt werden, so ist es möglich die ermittelten Trajektorien der dynamischen Objekte von Interesse für eine genaue Lokalisation des Egofahrzeuges zu verwenden. Durch das erfindungsgemäße Verfahren können daher, wenn der oder die Sensoren von anderen Verkehrsteilnehmern blockiert werden und beispielsweise die Fahrbahnen/Stra-ßenbegrenzungen nicht erkannt werden können, die Trajektorien der dynamischen Objekte von Interesse für eine genaue Lokalisierung des Egofahrzeuges (in einer Referenzstraßenkarte) verwendet werden.If one or more sensors, in particular a front sensor, are blocked by other road users and, for example, lanes cannot be recognized, it is possible to use the determined trajectories of the dynamic objects of interest for precise localization of the host vehicle. With the method according to the invention, if the sensor (s) are blocked by other road users and, for example, the lanes / road boundaries cannot be recognized, the trajectories of the dynamic objects of interest can be used for precise localization of the host vehicle (in a reference road map) .

Somit kann anhand des erfindungsgemäßen Verfahrens eine Lokalisierung des Egofahrzeuges in einer gegebenen Referenzstraßenkarte erfolgen. Dabei kann die Lokalisation auf den Trajektorien der erkannten dynamischen Objekte von Interesse basieren. Die Lokalisierung auf der Grundlage von dynamisch verfolgten Objekten von Interesse ist notwendig, wenn das Sichtfeld der oder des Sensors, insbesondere das Frontsichtfeld von vielen Verkehrsteilnehmern in belebten Stadtgebieten oder Staus auf der Autobahn verdeckt wird.The host vehicle can thus be localized in a given reference road map using the method according to the invention. The localization can be based on the trajectories of the identified dynamic objects of interest. The localization on the basis of dynamically tracked objects of interest is necessary if the field of view of the sensor or sensors, in particular the front field of view, is obscured by many road users in busy urban areas or traffic jams on the motorway.

Das Abbilden wird bevorzugt unter Verwendung von einem Map Matching-Algorithmus durchgeführt. Als Map Matching, auch Kartenabgleich, Karteneinpassung genannt, wird ein Verfahren bezeichnet, welches die durch eine Ortung gemessene Position eines Objektes mit den Ortsinformationen einer digitalen Karte abgleicht. Die Ausrichtung der vervollständigten lokalen Umgebungskarte mit der Referenzkarte kann auf einer Transformation unter Verwendung von Schlüsseldatenpunkten, also Features oder Objekten, die eindeutig zwischen zwei gegebenen Mengen abgeglichen werden können und zu einer Minimierung einer Fehlerfunktion für eine Assoziation der beiden gegebenen Mengen / Sets an Features / Objekten. Zusätzlich kann eine grobe Schätzung der Pose basierend auf GPS- Daten (Globales Positionsbestimmungssystem) oder einer verbesserten Bewegungseinschätzung des Egofahrzeuges als Startpunkt für das Optimierungsproblem verwendet werden. Das Matching kann mittels eines Optimierungsverfahren beispielsweise des Nearest-Neighbor-Algorithmus unter Verwendung einer Entfernungsfunktion wie dem quadratischen euklidischen Abstand erfolgen. Auch kann ein ICP (Iterative Closest Point)-Algorithmus oder ein anderes Optimierungsverfahren angewendet werden.The mapping is preferably carried out using a map matching algorithm. Map matching is a method that compares the position of an object measured by localization with the location information on a digital map. The alignment of the completed local environment map with the reference map can be based on a transformation using key data points, i.e. features or objects that can be uniquely matched between two given sets and to a minimization of an error function for an association of the two given sets of features / Objects. In addition, a rough estimate of the pose based on GPS data (Global Positioning System) or an improved estimation of the movement of the host vehicle can be used as a starting point for the optimization problem. The matching can take place by means of an optimization method, for example the nearest neighbor algorithm, using a distance function such as the square Euclidean distance. An ICP (Iterative Closest Point) algorithm or another optimization method can also be used.

Vorzugsweise ist die Referenzstraßenkarte als eine HDMap (High Definition-Karte) ausgebildet. Dabei sind diese Karten hochpräzise und zeigen die Umgebung auf bis zu zehn bis 20 Zentimeter genau. HDMap können ebenfalls ein Abbild der Straßenoberfläche, die Anzahl der Fahrbahnen als auch deren Breite zeigen. Darüber hinaus können diese sowohl die Neigung und Krümmung der Fahrbahnen als auch Fahrbahnmarkierungen und statische Objekte am Straßenrand zeigen wie zum Beispiel Straßenschilder, Bäume, Randsteine, etc..The reference road map is preferably designed as an HDMap (high definition map). These maps are extremely precise and show the surroundings with an accuracy of up to ten to 20 centimeters. HDMap can also show an image of the road surface, the number of lanes and their width. In addition, these can show the inclination and curvature of the lanes as well as lane markings and static objects on the roadside, such as street signs, trees, curbs, etc.

Bevorzugt umfasst die HDMap zumindest statische Infrastrukturdaten. Diese können beispielsweise ein Straßenmodell, Verkehrsschilder, Ampeln, Straßenmarkierungen, Spurmodell (linke, rechte Spur) als auch geometrische Informationen wie Straßenverläufe, Höhenprofil, Krümmung, Breite sowie Vorfahrtsregeln, Zebrastreifen, Geschwindigkeitsbegrenzungen und Bebauungen wie Ampeln, Verkehrsschilder, Tunnel, Häuser etc. umfassen.The HDMap preferably comprises at least static infrastructure data. These can, for example, be a road model, traffic signs, Traffic lights, road markings, lane model (left, right lane) as well as geometric information such as road courses, height profile, curvature, width as well as right of way, zebra crossings, speed limits and structures such as traffic lights, traffic signs, tunnels, houses, etc.

Vorzugsweise ist die Referenzkarte als selbstlernende Straßenkarte ausgebildet. Eine solche aktualisiert sich kontinuierlich, wodurch das aktuelle Verkehrsgeschehen und/oder das Umfeld in Echtzeit abgebildet werden kann.The reference map is preferably designed as a self-learning road map. This is updated continuously, so that the current traffic situation and / or the environment can be mapped in real time.

Vorzugsweise sind die statischen Umgebungsdaten von statischen Umgebungsobjekten als Fahrbahnen und/oder Fahrbahnberandung ausgebildet. Weiterhin vorzugsweise sind die statischen Umgebungsdaten von statischen Umgebungsobjekten als aktive Verkehrsanzeigedaten wie Ampelanlagen und/oder passive Verkehrsanzeigedaten wie Schilder ausgebildet. Weiterhin vorzugsweise sind die statischen Umgebungsdaten von statischen Umgebungsobjekten als Umgebungsmerkmale ausgebildet. Durch solche markanten Objekte/Punkte/Merkmale kann eine Transformation schneller bewerkstelligt werden.The static environmental data of static environmental objects are preferably designed as lanes and / or lane boundaries. Furthermore, the static environmental data of static environmental objects are preferably designed as active traffic display data such as traffic lights and / or passive traffic display data such as signs. Furthermore, the static environment data of static environment objects are preferably designed as environment features. Such distinctive objects / points / features can be used to achieve a transformation more quickly.

In bevorzugter Ausgestaltung wird als Clusterverfahren ein dichtebasiertes Verfahren eingesetzt. Insbesondere vorteilhafterweise wird als Clusterverfahren der DBSCAN (Density-Based Spatial Clustering of Applications with Noise) eingesetzt. Der DBSCAN arbeitet dichtebasiert und ist in der Lage, mehrere Cluster zu erkennen. Ferner muss nicht im vornherein bekannt sein, wie viele Cluster existieren. Der Algorithmus kann auch beliebige Cluster beliebiger Form erkennen. Ein weiterer Vorteil bei Verwendung des DBSCAN liegt darin, dass der Algorithmus weitgehend deterministisch und reihenfolgeunabhängig arbeitet. Auch andere Algorithmen, welche auf dem DBSAN basieren können verwendet werden. Dies ist beispielsweise der HDBSCAN - Alogithmus (Hierarchical Density Based Clustering), welcher den Algorithmus erweitert, indem er in einen hierarchischen Clustering-Algorithmus konvertiert wird.In a preferred embodiment, a density-based method is used as the cluster method. DBSCAN (Density-Based Spatial Clustering of Applications with Noise) is used particularly advantageously as the cluster method. The DBSCAN works based on density and is able to recognize several clusters. Furthermore, it does not have to be known in advance how many clusters exist. The algorithm can also recognize any cluster of any shape. Another advantage of using the DBSCAN is that the algorithm works largely deterministically and independently of the sequence. Other algorithms based on DBSAN can also be used. This is, for example, the HDBSCAN - Alogithm (Hierarchical Density Based Clustering), which extends the algorithm by converting it into a hierarchical clustering algorithm.

Vorzugsweise wird zu jedem dynamischen Objekt von Interesse ein Referenzpunkt bestimmt.A reference point is preferably determined for each dynamic object of interest.

Zur Bestimmung von kinematischen Daten der einzelnen dynamischen Objekte von Interesse aus den aufeinanderfolgenden Frames ist die Bestimmung der Position, der Größe und der Orientierung des dynamischen Objektes von Interesse sinnvoll. Die Bestimmung der Position wird vorzugsweise durch einen geeigneten Referenzpunkt aus den einzelnen Entfernungsmessungen des Objektes berechnet. Dies ist speziell bei Objekten von Bedeutung, die ihre Orientierung zum Sensorsystem ändern.To determine kinematic data of the individual dynamic objects of interest from the successive frames, it is useful to determine the position, size and orientation of the dynamic object of interest. The determination of the position is preferably calculated from the individual distance measurements of the object using a suitable reference point. This is especially important for objects that change their orientation to the sensor system.

Weiterhin vorzugsweise erfolgt die Bestimmung von kinematischen Daten der einzelnen dynamischen Objekte von Interesse aus den aufeinanderfolgenden Frames anhand des Referenzpunktes. Dadurch ist eine Verfahrensbeschleunigung möglich.Furthermore, kinematic data of the individual dynamic objects of interest are preferably determined from the successive frames on the basis of the reference point. This enables the process to be accelerated.

Ferner wird die Aufgabe gelöst durch ein Egofahrzeug, welches zum Durchführen des wie oben beschriebenen Verfahrens ausgelegt ist, umfassend zumindest eines Lidarsensors, eines Radarsensors und eines Bildsensors. Die Lidar-/ Radarsensoren erfassen die Umgebung immer mehrdimensional, d.h. es werden nicht nur Detektionen im 3D-Raum geliefert, sondern auch beim Radarsensor die RadarCrossSection (RCS), die Dopplergeschwindigkeit und weitere Signale (SNR, Leistung, etc.). Ein Lidarsensor liefert typischerweise noch eine Echo-Pulse-Weite und eine Intensität.Furthermore, the object is achieved by a host vehicle which is designed to carry out the method as described above, comprising at least one lidar sensor, one radar sensor and one image sensor. The lidar / radar sensors capture the environment more and more dimensionally, i.e. not only are detections delivered in 3D space, but also the radar cross section (RCS), the Doppler speed and other signals (SNR, power, etc.) for the radar sensor. A lidar sensor typically also supplies an echo pulse width and an intensity.

Ferner wird die Aufgabe gelöst durch ein Computerprogramm, umfassend Befehle, die bewirken, dass das wie oben beschriebene Egofahrzeug das wie oben beschriebene Verfahren ausführt.Furthermore, the object is achieved by a computer program comprising commands which cause the host vehicle as described above to carry out the method as described above.

Ferner wird die Aufgabe gelöst durch ein Datenträgersignal, das ein wie oben beschriebenes Computerprogramm überträgt. Dadurch ist auch ein einfaches nachträgliches Installieren des Verfahrens in dafür geeignete Egofahrzeuge möglich.The object is also achieved by a data carrier signal that is transmitted by a computer program as described above. This also enables the method to be easily subsequently installed in suitable host vehicles.

Weitere Merkmale, Eigenschaften und Vorteile der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung unter Bezugnahme auf die beiliegenden Figuren. Darin zeigen schematisch:

  • 1: ein Egofahrzeug mit einem erfindungsgemäßen Fahrerassistenzsystem,
  • 2: einen Grobüberblick über das erfindungsgemäße Verfahren,
  • 3: den ersten Verfahrensschritt S1 im Detail,
  • 4: die zu verfolgenden Objekte, in Klassen eingeteilt,
  • 5: den zweiten Verfahrensschritt S2 im Detail,
  • 6: die dynamischen klassifizierten Objekte von Interesse und deren Trajektorien,
  • 7: den dritten Verfahrensschritt S3 im Detail,
  • 8: eine lokale Umgebungskarte,
  • 9: die lokale Umgebungskarte in Draufsicht zu einem späteren Zeitpunkt,
  • 10: den vierten Verfahrensschritt S4 im Detail ,
  • 11: teilweise das erfindungsgemäße Verfahren grafisch.
Further features, properties and advantages of the present invention emerge from the following description with reference to the accompanying figures. They show schematically:
  • 1 : an ego vehicle with a driver assistance system according to the invention,
  • 2 : a rough overview of the method according to the invention,
  • 3rd : the first process step S1 in detail,
  • 4th : the objects to be tracked, divided into classes,
  • 5 : the second process step S2 in detail,
  • 6th : the dynamic classified objects of interest and their trajectories,
  • 7th : the third process step S3 in detail,
  • 8th : a local map of the area,
  • 9 : the local area map in plan view at a later point in time,
  • 10 : the fourth method step S4 in detail,
  • 11 : partially the method according to the invention graphically.

Obwohl die Erfindung im Detail durch die bevorzugten Ausführungsbeispiele näher illustriert und beschrieben wurde, ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt.Although the invention has been illustrated and described in more detail by the preferred exemplary embodiments, the invention is not restricted by the examples disclosed.

1 zeigt ein Egofahrzeug 1 mit einem Fahrerassistenzsystem 2, welches ein erfindungsgemäßes Verfahren aufweist. Das Egofahrzeug 1 weist ein Sensorsystem 3 auf, welches beispielsweise Radarsensoren 4, Lidarsensoren 5 und Bildsensoren 6 umfasst. Das Umfeld des Egofahrzeuges 1 wird anhand des Sensorsystems 3 als Umfeldsensordaten zu einem Zeitpunkt aufgenommen und dann zu einem gemeinsamen Frame fusioniert. Dabei gibt es für die Sensordatenfusion unterschiedliche Möglichkeiten. So können die aufgenommenen Umfeldsensordaten beispielsweise auf Signalebene fusioniert werden. Hierbei werden die Rohdaten oder minimal vorverarbeitete Daten miteinander verknüpft. Eine andere Fusion kann beispielsweise eine Fusion auf Merkmalsebene oder Objektebene sein. Die fusionierten Umfeldsensordaten werden vorzugsweise zu dem Fahrerassistenzsystem 2 weitergeleitet. 1 shows a host vehicle 1 with a driver assistance system 2 , which has a method according to the invention. The ego vehicle 1 exhibits a sensor system 3rd on which, for example, radar sensors 4th , Lidar sensors 5 and image sensors 6th includes. The environment of the host vehicle 1 is based on the sensor system 3rd recorded as environment sensor data at a point in time and then merged into a common frame. There are different options for the sensor data fusion. For example, the recorded environment sensor data can be merged at signal level. The raw data or minimally preprocessed data are linked to one another. Another fusion can be, for example, a fusion at the feature level or at the object level. The merged environment sensor data are preferably used to form the driver assistance system 2 forwarded.

2 zeigt einen groben Überblick über das erfindungsgemäße Verfahren. Dabei werden zunächst mittels des Sensorsystems 3 mehrere Frames zu aufeinanderfolgenden Zeitpunkten von dem Umfeld des Egofahrzeuges 1 erstellt. Anschließend werden verschiedene Merkmale in einem ersten Verfahrensschritt S1 mittels eines Merkmalsextraktionsverfahrens aus zumindest einem der Frames extrahiert. Hierfür können bekannte Merkmalsextraktionsverfahren verwendet werden. Diese Merkmale können beispielsweise eine L-Form oder eine I-Form, oder eine Bounding Box etc. von zusammenhängenden Umfeldsensordaten sein. Die extrahierten Merkmale können entsprechend als zusammenhängende dynamische Objekte von Interesse zusammengefasst werden. Ziel der Merkmalsextraktion ist es, eine aus den Umfeldsensordaten abstrahierende Objektbeschreibung von Objekten von Interesse zu liefern. Um Positionsangaben für ausgedehnte Objekte machen zu können, wird zudem ein Referenzpunkt, der das Objekt repräsentiert, bestimmt. Dieser wird in einem jeweiligen Sensordatensegment, welches ein Objekt von Interesse repräsentiert, bestimmt. 2 shows a rough overview of the method according to the invention. First of all, by means of the sensor system 3rd several frames at successive points in time from the environment of the host vehicle 1 created. Various features are then extracted from at least one of the frames in a first method step S1 by means of a feature extraction method. Known feature extraction methods can be used for this. These features can be, for example, an L-shape or an I-shape, or a bounding box, etc. of related environment sensor data. The extracted features can accordingly be grouped together as coherent dynamic objects of interest. The aim of the feature extraction is to provide an object description of objects of interest that is abstracted from the environment sensor data. In order to be able to provide position information for extended objects, a reference point that represents the object is also determined. This is determined in a respective sensor data segment, which represents an object of interest.

Anschließend werden die dynamischen Objekte von Interesse klassifiziert. Dabei können als Klasse beispielsweise Fahrzeug, Fahrrad, Motorrad definiert werden. Die Klassifikation auf Merkmalsebene dient vor allem dazu, unerwünschte fälschlicherweise identifizierte Objekte frühzeitig herauszufiltern und diese zu löschen. Dies spart zum einen Rechenzeit und erhöht zum anderen die Robustheit des Verfahrens, da weniger unrelevante Objekte entstehen. Als Klassifikationsverfahren können beispielsweise der Bayes-Klassifikator, Gaussian Mixture Models, Neuronale Netze, Support Vector Machines oder Entscheidungsbäume, herangezogen werden. Entscheidungsbäume sind geordnete, gerichtete Bäume, die der Darstellung von Entscheidungsregeln dienen. Auch andere Klassifikationsverfahren sind möglich.Then the dynamic objects of interest are classified. Vehicle, bicycle, motorcycle, for example, can be defined as a class. The main purpose of the classification at the feature level is to filter out unwanted, incorrectly identified objects at an early stage and to delete them. On the one hand, this saves computing time and, on the other hand, increases the robustness of the method, since fewer irrelevant objects are created. The Bayes classifier, Gaussian mixture models, neural networks, support vector machines or decision trees, for example, can be used as classification methods. Decision trees are ordered, directed trees that are used to represent decision rules. Other classification methods are also possible.

Ferner wird den Objekten von Interesse noch bestimmte Bewegungsannahmen bezogen auf den kinematischen Zustand des Objektes von Interesse zugeordnet, beispielsweise, dass es sich mit annähernd konstanter Geschwindigkeit in Richtung seiner Längsachse bewegt und mit welcher Geschwindigkeit es sich weiterbewegt. Diese Annahme oder Schätzung wird vorzugsweise zumindest unter Verwendung der Egogeschwindigkeit des Egofahrzeugs 1 und der Egoposition des Egofahrzeuges 1 bestimmt. Der kinematische Zustand, das heißt beispielsweise Bewegung/Position und Bewegungsrichtung wird nun den einzelnen dynamischen Objekten von Interesse zugeordnet.Furthermore, the objects of interest are assigned certain movement assumptions related to the kinematic state of the object of interest, for example that it moves at an approximately constant speed in the direction of its longitudinal axis and at what speed it continues to move. This assumption or estimate is preferably made using at least the ego speed of the host vehicle 1 and the ego position of the ego vehicle 1 certainly. The kinematic state, that is, for example, movement / position and direction of movement, is now assigned to the individual dynamic objects of interest.

In einem zweiten Verfahrensschritt S2 wird die Trajektorie von den einzelnen dynamischen Objekten von Interesse bestimmt und diesen jeweils zugeordnet. Hierzu werden die Umfeldsensordaten der dynamischen Objekte von Interesse über verschiedene aufeinanderfolgende Frames in einer lokale Karte 11 (6) akkumuliert. Dabei ist eine lokale Karte 11 (6) eine Karte von der Umgebung des Egofahrzeugs 1, welche vorzugsweise vom Egofahrzeug 1 (6) selber erstellt wird. Der Einfachheitshalber ist die lokale Karte 11 (6) beispielsweise bei Beginn des Verfahrens der erste Frame. Bei Fortschreiten des Verfahrens kann ein nachfolgender Frame oder eine Referenzkarte, wie sie nachfolgend noch beschrieben wird, herangezogen werden. Die Akkumulation der dynamischen Objekte wird unter Zuhilfenahme einer ersten Vorhersage/Schätzung der Pose, das heißt Position und Orientierung der dynamischen Objekte von Interesse durch das Egofahrzeug 1, vorgenommen. Die endgültige Schätzung kann beispielsweise durch ein Kalman-Filter erfolgen. Sind die Umfeldsensordaten in der lokalen Karte 11 (6) akkumuliert, werden diese mithilfe eines Clusteringverfahrens geclustert. Ein Clusteringverfahren sucht im Kontext der akkumulierten Umfeldsensordaten nach Gruppen von Tracks. Daraus können die Trajektorien bestimmt werden, welche den einzelnen dynamischen Objekten von Interesse zugeordnet werden können.In a second method step S2, the trajectory of the individual dynamic objects of interest is determined and assigned to each of them. For this purpose, the environment sensor data of the dynamic objects of interest are shown over various successive frames in a local map 11 ( 6th ) accumulated. There is also a local map 11 ( 6th ) a map of the surroundings of the host vehicle 1 , which are preferably from the host vehicle 1 ( 6th ) is created by yourself. For the sake of simplicity, the local map is 11 ( 6th ) for example the first frame at the beginning of the procedure. As the method progresses, a subsequent frame or a reference map, as will be described below, can be used. The accumulation of the dynamic objects is determined by the host vehicle with the aid of a first prediction / estimate of the pose, that is to say the position and orientation of the dynamic objects of interest 1 , performed. The final estimate can be made, for example, by a Kalman filter. Are the environment sensor data in the local map 11 ( 6th ) are accumulated, they are clustered using a clustering process. A clustering method searches for groups of tracks in the context of the accumulated surroundings sensor data. From this, the trajectories can be determined which can be assigned to the individual dynamic objects of interest.

Dadurch wird eine lokale Karte 11 (6) in denen die klassifizierten, dynamischen Objekte und deren Trajektorien enthalten sind, erstellt. Durch das Clusterverfahren kann ebenfalls eine Verifikation der dynamischen Objekte von Interesse erzielt werden. Erscheint ein identifiziertes Objekt durch das Clusterverfahren als unplausibel, so kann es gelöscht werden. Auch andere Plausibilitätsverfahren können zur Löschung angewendet werden. Durch das Löschen von Objekten wird die Robustheit und die Schnelligkeit des Verfahrens erhöht. Weitere Löschungsgründe, welche nachfolgend beschrieben werden, können ebenfalls vorliegen.This makes a local map 11 ( 6th ) which contain the classified, dynamic objects and their trajectories. A verification of the dynamic objects of interest can also be achieved by the cluster method. If an identified object appears implausible due to the clustering process, it can be deleted. Other plausibility procedures can also be used for deletion. By deleting of objects, the robustness and the speed of the process are increased. There may also be other reasons for deletion, which are described below.

Ein weiterer Löschungsgrund ist beispielsweise das Herabstufen des dynamischen Objektes von Interesse als uninteressant. Aufgrund des beschränkten Sichtfelds und der Bewegung der Objekte verlassen diese regelmäßig den relevanten Bereich und werden somit uninteressant.Another reason for deletion is, for example, the downgrading of the dynamic object of interest as uninteresting. Due to the limited field of view and the movement of the objects, they regularly leave the relevant area and thus become uninteresting.

Ferner können Objekte gelöscht werden, wenn die Lebensdauer des dynamischen Objektes von Interesse einen vorgegebenen Schwellenzeitwert überschreitet.Furthermore, objects can be deleted when the lifetime of the dynamic object of interest exceeds a predetermined threshold time value.

Daneben können vorzugsweise auch falsche Objekte identifiziert und gelöscht werden. Aufgrund von zufälligen Formen in den Umfeldsensordaten oder durch Fehlinterpretationen kann es immer wieder vorkommen, dass Objekte erzeugt werden, die in der Realität nicht existieren. Dies wird beispielsweise, wie oben beschrieben, durch das Clusterverfahren oder die Klassifizierung erkannt. So kann als Plausibilitätsprüfung beispielsweise überprüft werden, ob die gemessenen Dimensionen der einzelnen Objekte von Interesse mit den erwarteten Dimensionen von Verkehrsteilnehmern übereinstimmt. Ist dies nicht der Fall, so wird das Objekt vorzugsweise gelöscht.In addition, incorrect objects can preferably also be identified and deleted. Due to random shapes in the environment sensor data or due to misinterpretations, it can happen again and again that objects are created that do not exist in reality. This is recognized, for example, as described above, by the cluster method or the classification. For example, a plausibility check can be used to check whether the measured dimensions of the individual objects of interest correspond to the expected dimensions of road users. If this is not the case, the object is preferably deleted.

Das Löschen von Objekten, welche nicht mehr von Interesse sind, trägt zur Schnelligkeit des Verfahrens bei der Verfolgung von mehreren, wechselnden Objekten bei.The deletion of objects that are no longer of interest contributes to the speed of the method when tracking several, changing objects.

Anschließend wird in einem weiterem Verfahrensschritt S3 die lokale Karte 11 ( 6) durch Hintergrundinformationen vervollständigt. Dabei sind die Hintergrundinformationen als vorzugsweise klassifizierte, statische Umgebungsdaten von statischen Umgebungsobjekten wie Fahrbahnberandungen, beispielsweise Randsteine, Stra-ßenmarkierungen, einzelne Fahrbahnen ausgebildet. Ferner können statische Umgebungsdaten von statischen Umgebungsobjekten wie aktive Verkehrsanzeigedaten wie Ampelanlagen und/oder passive Verkehrsanzeigedaten wie Schilder detektiert und der lokalen Karte 11 (6) hinzugefügt werden.The local map is then used in a further method step S3 11 ( 6th ) completed with background information. The background information is designed as preferably classified, static environmental data from static environmental objects such as road boundaries, for example curb stones, road markings, individual road lanes. Furthermore, static environmental data from static environmental objects such as active traffic display data such as traffic lights and / or passive traffic display data such as signs can be detected and the local map 11 ( 6th ) to be added.

Dadurch kann eine vervollständigte lokale Umgebungskarte 12 (8) durch eine Komplettierung der Verkehrsszene und damit eine vollständige Szenenbeschreibung erzielt werden. Wenn die zu erkennenden Straßen über keine Markierung verfügen, wird beispielsweise neben Kanten und der Straßenfarbe noch die Textur ausgewertet. Eine solche vollständige Szenenbeschreibung und Szenenerfassung kann beispielsweise mittels einer bottom-up Methodik erzielt werden.This enables a completed local area map 12th ( 8th ) can be achieved by completing the traffic scene and thus a complete description of the scene. If the streets to be recognized have no marking, the texture is evaluated in addition to edges and the street color, for example. Such a complete scene description and scene detection can be achieved, for example, by means of a bottom-up method.

Dadurch wird eine konsistente vervollständigte lokale Umgebungskarte 12 (8) erzeugt, die die aktuelle Verkehrsszene mit Fahrbahnen 13 (8), Fahrbahnberandungen etc. und den dynamischen Objekten sowie deren Trajektorien aufweist.This results in a consistent, completed local area map 12th ( 8th ) that shows the current traffic scene with lanes 13th ( 8th ), Road boundaries etc. and the dynamic objects and their trajectories.

In einem nachfolgenden Verfahrensschritt S4 wird die vervollständigte lokale Umgebungskarte 12 (8) auf eine vorgegebene Referenzstraßenkarte, vorzugsweise eine HDMap (High Definition Map) 14 (10) unter Verwendung eines Map Matching-Algorithmus abgebildet. Durch ein Map Matching (Kartenabgleich, Karteneinpassung)-Algorithmus wird die durch eine Ortung gemessene Position eines Objektes mit den Ortsinformationen einer digitalen Karte abgeglichen. Die Abbildung der vervollständigten lokalen Umgebungskarte 12 (8) auf die HDMap 14 (10) kann auf einer Transformation unter Verwendung von Schlüsseldatenpunkten, also Sensordatenpunkten, die eindeutig zwischen zwei gegebenen Mengen abgeglichen werden können, oder aber auf der Minimierung einer Fehlerfunktion basieren. Zusätzlich kann eine grobe Schätzung der Pose basierend auf GPS-Daten (Globales Positionsbestimmungssystem) oder basierend auf einer verbesserten Bewegungseinschätzung des Egofahrzeuges 1 (1) als Startpunkt für das Optimierungsproblem verwendet werden.In a subsequent method step S4, the completed local area map is created 12th ( 8th ) on a given reference road map, preferably an HDMap (High Definition Map) 14th ( 10 ) using a map matching algorithm. Using a map matching algorithm, the position of an object measured by a location is compared with the location information on a digital map. The illustration of the completed local area map 12th ( 8th ) on the HDMap 14th ( 10 ) can be based on a transformation using key data points, i.e. sensor data points that can be uniquely compared between two given quantities, or on the minimization of an error function. In addition, a rough estimate of the pose based on GPS data (Global Positioning System) or based on an improved estimation of the movement of the host vehicle can be made 1 ( 1 ) can be used as the starting point for the optimization problem.

Dadurch ist eine schnellere Abbildung der lokalen Umgebungskarte 12 (8) auf die Referenzstraßenkarte möglich.This enables the local area map to be mapped more quickly 12th ( 8th ) on the reference road map.

Das Optimierungsverfahren kann auf der Grundlage des Nearest-Neighbor-Algorithmus mit, beispielsweise zu einer optimierenden Entfernungsfunktion wie dem quadratischen euklidischen Abstand zwischen erkannten Schlüsseldatenpunkten auf der lokalen Karte und den korrespondierenden Schlüsseldatenpunkten auf der Referenzstraßenkarte erfolgen. Auch kann ein ICP (Itertiv Closest Point)- Algorithmus oder ein anderes Optimierungsverfahren angewendet werden.The optimization method can be based on the nearest neighbor algorithm with, for example, an optimizing distance function such as the square Euclidean distance between recognized key data points on the local map and the corresponding key data points on the reference road map. An ICP (Itertiv Closest Point) algorithm or another optimization method can also be used.

Anhand des erfindungsgemäßen Verfahrens kann eine Lokalisierung des Egofahrzeuges 1 in einer gegebenen Referenzstraßenkarte erfolgen, wobei die Lokalisation auf den Trajektorien der erkannten dynamischen Objekte und den statischen Umgebungsdaten basiert.The method according to the invention can be used to localize the host vehicle 1 take place in a given reference road map, the localization being based on the trajectories of the detected dynamic objects and the static environment data.

Die Lokalisierung auf der Grundlage von dynamisch verfolgten Objekten ist notwendig, wenn das Sichtfeld der oder des Sensors, insbesondere das Frontsichtfeld, von vielen Verkehrsteilnehmern in belebten Stadtgebieten oder Staus auf der Autobahn verdeckt wird.The localization on the basis of dynamically tracked objects is necessary if the field of view of the sensor or sensors, in particular the front field of view, is obscured by many road users in busy urban areas or traffic jams on the motorway.

Wird daher einer oder mehrere Sensoren, insbesondere ein Frontsensor, von anderen Verkehrsteilnehmern blockiert, und können beispielsweise Fahrbahnen nicht erkannt werden, so ist es durch das Verfahren möglich, die Trajektorien der dynamischen Objekte von Interesse für eine Lokalisation des Egofahrzeuges 1 zu verwenden.Therefore, one or more sensors, especially a front sensor, are different from others Road users are blocked and, for example, lanes cannot be recognized, the method makes it possible to use the method to determine the trajectories of the dynamic objects of interest for localizing the host vehicle 1 to use.

Durch das erfindungsgemäße Verfahren können, wenn der oder die Sensoren von anderen Verkehrsteilnehmern blockiert werden und beispielsweise die Fahrbahnen/ Straßenbegrenzungen nicht erkannt werden können, die Trajektorien der dynamischen Objekte für eine Lokalisierung des Egofahrzeuges 1 (1) verwendet werden. Diese Trajektorien sind vorzugsweise einer bestimmten Fahrbahn zugeordnet.With the method according to the invention, if the sensor or sensors are blocked by other road users and, for example, the lanes / road boundaries cannot be recognized, the trajectories of the dynamic objects can be used to localize the host vehicle 1 ( 1 ) be used. These trajectories are preferably assigned to a specific lane.

Die optimale Transformation zwischen der lokalen Karte 11 (8) und der Referenzkarte wird durch das Minimum dieses Optimierungsproblems erreicht.The optimal transformation between the local map 11 ( 8th ) and the reference map is achieved by the minimum of this optimization problem.

Eine solche Transformation kann auch mittels einer Pose Graph-Optimierung mit sogenannten Knoten erzielt werden. Dabei wird die Abbildung der lokalen Karte 11 (8) auf die Referenzstraßenkarte als Knoten herangezogen, welcher für die Erstellung einer neuen lokalen Karte verwendet wird. Bei der Pose Graph-Optimierung können Einschränkungen, welche durch das Verbinden von zwei aufeinanderfolgenden lokalen Karten entstehen, verwendet werden. Dadurch kann eine bessere Übereinstimmung zwischen einer lokalen Karte 11 (8) und einer Referenzstraßenkarte bewirkt werden.Such a transformation can also be achieved by means of a pose graph optimization with so-called nodes. This is the mapping of the local map 11 ( 8th ) is used as a node on the reference road map, which is used to create a new local map. With the pose graph optimization, restrictions that arise from the connection of two consecutive local maps can be used. This allows a better match between a local map 11 ( 8th ) and a reference road map.

3 zeigt den ersten Verfahrensschritt S1 im Detail. In einem ersten Verfahrensschritt wird als ein Frame, Umfeldsensordaten von einem Sensorsystem welches in und/oder an einem Egofahrzeug 1 (1) angeordnet ist, zu einem ersten Zeitpunkt aufgenommen. Vorzugsweise werden mehrere Frames 1,..,N zu aufeinanderfolgenden Zeitpunkten 1,..,N aufgenommen. Die Umfeldsensordaten sind dabei Rohdaten, das heißt unverarbeitete, vom Sensor gelieferte Daten. Das Sensorsystem 3 kann Bildsensoren 6, Lidarsensoren 5, und Radarsensoren 4 aufweisen. Die Umfeldsensordaten werden zu einem Zeitpunkt aufgenommen und dann zu einem gemeinsamen Frame fusioniert. 3rd shows the first method step S1 in detail. In a first method step, environment sensor data from a sensor system which is in and / or on a host vehicle is used as a frame 1 ( 1 ) is arranged, recorded at a first point in time. Preferably multiple frames 1 , .., N at successive times 1 , .., N added. The environment sensor data are raw data, that is, unprocessed data supplied by the sensor. The sensor system 3rd can image sensors 6th , Lidar sensors 5 , and radar sensors 4th exhibit. The environment sensor data are recorded at a point in time and then merged into a common frame.

Ein erster Frame weist somit eine durch Sensordaten fusionierte Aufnahme von dem Umfeld des Egofahrzeugs 1 (1) zu einem ersten Zeitpunkt auf.A first frame thus has a recording of the surroundings of the host vehicle that is merged by sensor data 1 ( 1 ) at a first point in time.

In dem Frame werden Merkmale, sogenannte Features, extrahiert. Diese Features werden anhand von einem Merkmalsextraktionsverfahren aus den fusionierten Umfeldsensordaten des Frames extrahiert.Characteristics, so-called features, are extracted in the frame. These features are extracted from the merged environment sensor data of the frame using a feature extraction process.

Bei der Merkmalsextraktion wird versucht, in dem Frame bestimmte Objekte oder Formen zu erkennen und deren Merkmale wie Position, Orientierung und Ausdehnung zu ermitteln. Meistens können die Sensordaten davor bereits in zusammengehörige Sensordatensegmente unterteilt werden. Features für die dynamische Objektverfolgung können beispielsweise geometrische Eigenschaften wie L-, I -Formen, oder Begrenzungsrahmen (Bounding Box) oder Ellipsen, Cluster mit Referenzpunkten, Sensordatensegmente etc. sein.The extraction of features tries to identify certain objects or shapes in the frame and to determine their features such as position, orientation and extent. Most of the time, the sensor data can already be divided into related sensor data segments beforehand. Features for dynamic object tracking can be, for example, geometric properties such as L-, I -shapes, or bounding boxes or ellipses, clusters with reference points, sensor data segments, etc.

Zur Merkmalsextraktion gibt es unterschiedlich komplexe Ansätze. Ziel der Merkmalsextraktion ist es, eine Objektbeschreibung von Objekten von Interesse zu liefern.There are differently complex approaches to feature extraction. The aim of feature extraction is to provide an object description of objects of interest.

Diese wird als Eingabe für nachfolgende Verarbeitungsschritte herangezogen und kann dadurch die Laufzeit des Verfahrens deutlich reduzieren.This is used as input for subsequent processing steps and can thus significantly reduce the runtime of the process.

Um Positionsangaben für ausgedehnte Objekte machen zu können, wird vorzugsweise zudem ein Referenzpunkt, der das Objekt repräsentiert, bestimmt. Anhand ihres Referenzpunktes werden Sensordaten in jedem Frame ihnen zugehörigen Objekten zugeordnet, was eine räumlich-zeitliche Verfolgung der Objekte ermöglichen kann. Der Referenzpunkt kann ein einzelner Sensordatenpunkt bzw. ein virtueller Referenzpunkt, der die Bewegung des zugrundeliegenden Objektes nachvollziehen kann, sein.In order to be able to provide position information for extended objects, a reference point that represents the object is preferably also determined. Based on their reference point, sensor data are assigned to objects belonging to them in each frame, which can enable the objects to be tracked in terms of space and time. The reference point can be a single sensor data point or a virtual reference point that can reproduce the movement of the underlying object.

Anschließend werden die einzelnen dynamisch, zu verfolgende Objekte von Interesse in Objektklassen klassifiziert. Die Klassifikation dient vor allem dazu, unerwünschte Objekte frühzeitig herauszufiltern und sie somit der Tracking-Stufe zu entziehen. Diese Klassen können beispielsweise als Auto (Kraftfahrzeug), Lastwagen, Fahrrad, Fußgänger etc. ausgebildet sein. Ferner können auch im ersten Verfahrensschritte S1 statische Elemente wie Ampel etc. extrahiert werden.Then the individual dynamic objects of interest to be tracked are classified into object classes. The primary purpose of the classification is to filter out unwanted objects at an early stage and thus remove them from the tracking level. These classes can be designed as cars (motor vehicles), trucks, bicycles, pedestrians, etc., for example. Furthermore, static elements such as traffic lights etc. can also be extracted in the first method step S1.

Als Klassifikationsverfahren können beispielsweise Bayes-Klassifikator, Gaussian Mixture Models, Neuronale Netze, Support Vector Machines-Algorithmen oder Entscheidungsbäume herangezogen werden, da diese effizient zu implementieren sind. Bei einem Entscheidungsbaum handelt es sich um ein statisches Klassifikationsverfahren, welches leicht zu implementieren ist. Durch die Klassifizierung können erkannte Objekte plausibilisiert werden. So kann als Plausibilitätsprüfung beispielsweise überprüft werden, ob die gemessenen Dimensionen der einzelnen Objekte von Interesse explizit mit den erwarteten Dimensionen von Verkehrsteilnehmern übereinstimmt. Damit ein Objekt als dynamisches Objekt von Interesse, beispielsweise ein Fahrzeug von Interesse, in Frage kommt, muss nicht nur der erkannte Umriss einem vorgegebenen Umriss entsprechen, sondern beispielsweise auch die Abmessung mit den erwarteten Werten übereinstimmen. Wird beispielsweise eine L-Form mit 8 m Breite und 8 m Länge erkannt, handelt es sich wahrscheinlich um ein Haus. Vorzugsweise wird anhand der Dimensionen entschieden, ob aus der Form ein Objekt von Interesse erzeugt wird.Bayes classifiers, Gaussian mixture models, neural networks, support vector machines algorithms or decision trees can be used as classification methods, since these can be implemented efficiently. A decision tree is a static classification method that is easy to implement. Recognized objects can be checked for plausibility through the classification. For example, a plausibility check can be used to check whether the measured dimensions of the individual objects of interest explicitly match the dimensions expected by road users. So that an object comes into question as a dynamic object of interest, for example a vehicle of interest, does not have to be only the recognized outline corresponds to a predetermined outline, but also, for example, the dimensions correspond to the expected values. For example, if an L-shape that is 8 meters wide and 8 meters long is detected, it is likely a house. It is preferably decided on the basis of the dimensions whether an object of interest is to be generated from the shape.

Ist dies nicht der Fall, so wird das Objekt vorzugsweise gelöscht. Somit kann durch das Klassifikationsverfahren eine erste Löschung von fälschlicherweise erkannten Objekten vorgenommen werden. Dies erhöht die Schnelligkeit als auch die Robustheit des Verfahrens.If this is not the case, the object is preferably deleted. Thus, the classification method can be used to delete incorrectly recognized objects for the first time. This increases the speed as well as the robustness of the process.

Den dynamisch, zu verfolgenden Objekten von Interesse wird zudem die Objektgeschwindigkeit und eine Position (Positionsdaten), das heißt also der kinematische Zustand zugewiesen, welche aus den Frames unter Zuhilfenahme der Eigengeschwindigkeit und der Position (Drehbewegung) des Egofahrzeugs 1 ermittelt/abgeschätzt werden kann.The objects of interest to be tracked dynamically are also assigned the object speed and a position (position data), i.e. the kinematic state, which is derived from the frames with the aid of the vehicle's own speed and the position (rotational movement) of the host vehicle 1 can be determined / estimated.

4 zeigt die klassifizierten, zu verfolgenden Objekte, wobei jedem der Objekte zur Visualisierung ein Objektframe zugewiesen wurde. Jedes dieser Objektframes stellt somit ein zu verfolgendes dynamisches Objekt von Interesse dar. 4th shows the classified objects to be tracked, each of the objects being assigned an object frame for visualization. Each of these object frames thus represents a dynamic object of interest to be tracked.

Durch den ersten Verfahrensschritt S1 wird zur Objektverfolgung somit eine Liste von dynamischen Objekten von Interesse erzeugt, wobei jedes Objekt, die Geometrie (beispielsweise Länge, Breite, Ellipse, L- Form, I- Form, etc.) mit dem dazugehörenden Referenzpunkt, den kinematischen Zustand (Geschwindigkeit und Position) und die Klasse beinhaltet.The first method step S1 thus generates a list of dynamic objects of interest for object tracking, with each object, the geometry (for example length, width, ellipse, L-shape, I-shape, etc.) with the associated reference point, the kinematic State (speed and position) and the class includes.

5 zeigt den anschließenden zweiten Verfahrensschritt S2 im Detail. In dem zweiten Verfahrensschritt S2 werden die verschiedenen aufgenommenen Objekte von Interesse der 1,.., N-Frames akkumuliert und die jeweilige Trajektorie jedes, der zu verfolgenden dynamischen Objekte, von Interesse bestimmt. 5 shows the subsequent second method step S2 in detail. In the second method step S2, the various recorded objects of interest of the 1,..., N frames are accumulated and the respective trajectory of each of the dynamic objects to be tracked of interest is determined.

Dazu werden zunächst alle Umfeldsensordaten der Objekte von Interesse in eine lokale Karte 11 (6) transformiert. Eine lokale Karte 11 (6) wird bevorzugt vom Egofahrzeug 1 (1) durch beispielsweise das Sensorsystem 3 (1) selbst erzeugt. Auch kann einer der Frames als lokale Karte 11 (6) verwendet werden.For this purpose, all of the environment sensor data of the objects of interest are first entered in a local map 11 ( 6th ) transformed. A local map 11 ( 6th ) is preferred by the host vehicle 1 ( 1 ) by, for example, the sensor system 3rd ( 1 ) self-generated. One of the frames can also be used as a local map 11 ( 6th ) be used.

Dabei ist eine lokale Karte 11 eine Karte von der Umgebung des Egofahrzeugs 1 (1), welche vorzugsweise vom Egofahrzeug 1 (1) selber erstellt wird. Der Einfachheitshalber ist die lokale Karte 11 (6) beispielsweise bei Beginn des Verfahrens der erste Frame. Bei Fortschreiten des Verfahrens kann ein nachfolgender Frame herangezogen werden.There is also a local map 11 a map of the surroundings of the host vehicle 1 ( 1 ), preferably from the host vehicle 1 ( 1 ) is created by yourself. For the sake of simplicity, the local map is 11 ( 6th ) for example the first frame at the beginning of the procedure. As the process progresses, a subsequent frame can be used.

Die Akkumulation der dynamischen Objekte wird unter Zuhilfenahme einer ersten Vorhersage/Schätzung der Pose, das heißt Position und Orientierung der dynamischen Objekte von Interesse durch das Egofahrzeug 1 (1), vorgenommen. Die endgültige Schätzung kann beispielsweise durch ein Kalman-Filter erfolgen. Sind die entsprechenden Umfeldsensordaten in der lokalen Karte 11 (6) akkumuliert, so werden diese mithilfe eines Clusteringverfahrens geclustert.The accumulation of the dynamic objects is determined by the host vehicle with the aid of a first prediction / estimate of the pose, that is to say the position and orientation of the dynamic objects of interest 1 ( 1 ), performed. The final estimate can be made, for example, by a Kalman filter. Are the corresponding environment sensor data in the local map 11 ( 6th ) are accumulated, they are clustered using a clustering process.

Das Clustering kann beispielsweise mittels eines DBSCAN-Algorithmus durchgeführt werden.The clustering can for example be carried out using a DBSCAN algorithm.

Dabei ist ein DBSCAN ein dichtebasiertes Verfahren. Dabei steht DBSCAN für Density-Based Spatial Clustering of Applications with Noise (Dichtebasierte räumliche Clusteranalyse mit Rauschen). Ein mehrdimensionales-Sensordatenbild kann mehrere Cluster-Schwerpunkte aufweisen. Der DBSCAN arbeitet dichtebasiert und ist in der Lage, mehrere Cluster zu erkennen. Ferner muss nicht im vornherein bekannt sein, wie viele Cluster existieren. Der Algorithmus kann auch beliebige Cluster beliebiger Form erkennen. Ein weiterer Vorteil bei Verwendung des DBSCAN liegt darin, dass der Algorithmus weitgehend deterministisch und reihenfolgeunabhängig arbeitet. Auch andere Algorithmen, welche auf dem DBSAN basieren können verwendet werden. Dies ist beispielsweise der HDBSCAN - Alogithmus (Hierarchical Density Based Clustering), welcher den Algorithmus erweitert, indem er in einen hierarchischen Clustering-Algorithmus konvertiert wird. Der HDBSCAN-Algorithmus ist eine sehr datenabhängige Methode der Cluster-Bildung und erfordert sehr wenig Benutzereingaben. Ein anderer Algorithmus ist beispielsweise der OPTICS (Ordering Points To Identify the Clustering Structure) -algorithmus, welcher Cluster unterschiedlicher Dichte erkennen kann. Auch andere Algorithmen, welche auf DBSCAN basieren, wie Shared-Nearest-Neighbor-Clustering- Algorithmus, sind möglich.A DBSCAN is a density-based process. DBSCAN stands for Density-Based Spatial Clustering of Applications with Noise. A multidimensional sensor data image can have several cluster focal points. The DBSCAN works based on density and is able to recognize several clusters. Furthermore, it does not have to be known in advance how many clusters exist. The algorithm can also recognize any cluster of any shape. Another advantage of using the DBSCAN is that the algorithm works largely deterministically and independently of the sequence. Other algorithms based on DBSAN can also be used. This is, for example, the HDBSCAN - Alogithm (Hierarchical Density Based Clustering), which extends the algorithm by converting it into a hierarchical clustering algorithm. The HDBSCAN algorithm is a very data-dependent method of clustering and requires very little user input. Another algorithm is, for example, the OPTICS (Ordering Points To Identify the Clustering Structure) algorithm, which can recognize clusters of different densities. Other algorithms based on DBSCAN, such as the shared nearest neighbor clustering algorithm, are also possible.

Mittels der Clusteranalyse können nun einerseits die Trajektorien der dynamischen Objekte von Interesse ermittelt werden und den Objekten von Interesse zugeordnet werden. Ferner wird durch das Clustering anhand einer Plausibilitätsprüfung eine Verifizierung erzielt, ob das aus dem Frame ermittelte Objekt von Interesse auch ein solches ist. So kann beispielsweise ein durch den ersten Verfahrensschritt identifiziertes Objekt von Interesse beispielsweise folgende Fälle annehmen: das Objekt ist im ersten Fall ein verifiziertes Objekt von Interesse, also beispielsweise ein Personenkraftwagen, Fußgänger etc.; das Objekt wurde im zweiten Fall fälschlicherweise als Objekt von Interesse identifiziert; und im dritten Fall ist weiterhin keine eindeutige Aussage möglich. In dem zweiten Fall in dem das Objekt fälschlicherweise als dynamisches Objekt von Interesse identifiziert wurde, wird das Objekt gelöscht. In dem letzten Fall kann anhand einer Wahrscheinlichkeitsfunktion oder ähnlichen das Objekt als Objekt von Interesse eingestuft oder als kein Objekt von Interesse eingestuft werden. Dadurch werden die Robustheit und die Schnelligkeit des Verfahrens erhöht.By means of the cluster analysis, on the one hand, the trajectories of the dynamic objects of interest can be determined and assigned to the objects of interest. Furthermore, the clustering uses a plausibility check to verify whether the object of interest determined from the frame is also one. For example, an object of interest identified by the first method step can, for example, assume the following cases: in the first case, the object is a verified object of interest, for example a car, pedestrian, etc .; the object was in the second case incorrectly identified as an object of interest; and in the third case it is still not possible to make a clear statement. In the second case, in which the object is incorrectly identified as a dynamic object of interest, the object is deleted. In the latter case, the object can be classified as an object of interest or not classified as an object of interest on the basis of a probability function or the like. This increases the robustness and speed of the process.

6 zeigt die dynamischen klassifizierten Objekte von Interesse und deren Trajektorien in einer lokalen Karte 11. So sind in 6 ein erster Personenkraftwagen 7 mit dazugehöriger Trajektorie sowie ein zweiter Personenkraftwagen 8 mit dazugehöriger Trajektorie sowie ein Bus 9 und auch ein Fahrrad 10 mit jeweils dazugehöriger Trajektorie zu sehen. 6th shows the dynamic classified objects of interest and their trajectories in a local map 11 . So are in 6th a first passenger car 7th with associated trajectory and a second passenger car 8th with the associated trajectory and a bus 9 and also a bike 10 to be seen with the associated trajectory.

Somit wird durch den zweiten Verfahrensschritt S2 eine lokale Karte 11 (6) mit den klassifizierten dynamischen Objekten von Interesse, den zu den dynamischen Objekten dazugehörigen Trajektorien, als auch mit der Orientierung und der Position der dynamischen Objekte erzeugt.The second method step S2 thus creates a local map 11 ( 6th ) with the classified dynamic objects of interest, the trajectories associated with the dynamic objects, as well as with the orientation and position of the dynamic objects.

7 zeigt den vierten Verfahrensschritt S4 grafisch. In dem vierten Verfahrensschritt S4 wird die im zweiten Verfahrensschritt S2 erstellte lokale Karte 11 (4) durch verkehrsrelevante statische Umgebungsdaten von statischen Umgebungsobjekten, wie Fahrbahnen 13 (8) ergänzt. Dabei können als statische Umgebungsdaten von statischen Umgebungsobjekten ferner Fahrbahnberandungen, beispielsweise Randsteine, Straßenmarkierungen, einzelne, mehrspurige Fahrbahnen etc. ausgebildet sein. Ferner können statische Umgebungsdaten von statischen Umgebungsobjekten wie aktive Verkehrsanzeigedaten wie Ampelanlagen und/oder passive Verkehrsanzeigedaten wie Schilder detektiert und der lokalen Karte 11 (6) hinzugefügt werden. Statische Umgebungsdaten von statischen Umgebungsobjekten können auch als Umgebungsmerkmale wie ein Bauwerk, insbesondere ein Tunnel, eine Brücke, ein Gebäude, eine Tankstelle, ein See, ein Fluss, ein Bach, ein Wald, eine Parkbucht, ein Gebirge etc. ausgebildet sein. 7th shows the fourth method step S4 graphically. In the fourth method step S4, the local map created in the second method step S2 11 ( 4th ) through traffic-relevant static environmental data from static surrounding objects, such as roadways 13th ( 8th ) added. In this case, road boundaries, for example curb stones, road markings, individual, multi-lane roads, etc., can also be designed as static environmental data of static surrounding objects. Furthermore, static environmental data from static environmental objects such as active traffic display data such as traffic lights and / or passive traffic display data such as signs can be detected and the local map 11 ( 6th ) to be added. Static environmental data of static environmental objects can also be designed as environmental features such as a structure, in particular a tunnel, a bridge, a building, a gas station, a lake, a river, a stream, a forest, a parking bay, a mountain range, etc.

Dadurch kann durch eine Komplettierung der Verkehrsszene eine vollständige lokale Umgebungskarte 12 mit einer vollständigen Szenenbeschreibung erzielt werden. As a result, a complete local area map can be obtained by completing the traffic scene 12th can be achieved with a complete description of the scene.

Die Erkennung der Fahrbahn 13 (8) und der Fahrbahnberandung können ebenfalls mit Methoden der digitalen Bildverarbeitung, beispielsweise durch einen Spurhalteassistenten, realisiert werden.The detection of the roadway 13th ( 8th ) and the lane boundary can also be implemented using methods of digital image processing, for example using a lane departure warning system.

8 zeigt eine solche vervollständigte lokale Umgebungskarte 12, die ein vollständiges Verkehrsszenario mit Fahrbahn 13 und den Trajektorien der dynamischen Objekte sowie der dynamischen Objekte selber aufweist. Hier sind die dynamischen Objekte der erste Personenkraftwagen 7 mit dazugehöriger Trajektorie, der zweite Personenkraftwagen 8 mit dazugehöriger Trajektorie sowie der Bus 9 und das Fahrrad 10 mit jeweils dazugehöriger Trajektorie. Durch die Ergänzungen wird eine konsistente vollständige lokale Umgebungskarte 12 der aktuellen Verkehrsszene erzeugt. Die dynamischen Objekte von Interesse können vorzugsweise einer der erkannten Fahrbahn 13 etc. zugeordnet werden. 8th shows such a completed local area map 12th showing a complete traffic scenario with lane 13th and the trajectories of the dynamic objects and the dynamic objects themselves. Here the dynamic objects are the first passenger cars 7th with the associated trajectory, the second passenger car 8th with the associated trajectory and the bus 9 and the bike 10 each with the associated trajectory. The additions result in a consistent, complete local area map 12th generated by the current traffic scene. The dynamic objects of interest can preferably be one of the recognized lanes 13th etc. can be assigned.

9 zeigt die vervollständigte lokale Umgebungskarte 12 in Draufsicht und zu einem späteren Zeitpunkt mit einer Fahrbahn 13 und mit dem ersten Personenkraftwagen 7 mit dazugehöriger Trajektorie, dem zweiten Personenkraftwagen 8 mit dazugehöriger Trajektorie sowie dem Bus 9 und dem Fahrrad 10 mit jeweils dazugehöriger Trajektorie. Ferner sind als statische Umgebungsdaten von statischen Umgebungsobjekten noch Parkplätze 15 erkannt und der vervollständigten lokalen Umgebungskarte 12 hinzugefügt. Für die Erkennung von statischen Umgebungsdaten von statischen Umgebungsobjekten können Bildverarbeitungsverfahren eingesetzt werden. Typische Verfahren zur Extraktion von Fahrbahnen und Straßenbegrenzungen sind maschinelle Lernverfahren auf Basis von Kamerabildern oder die semantische Segmentierung eines hochauflösenden punktwolkenbasierten Sensors, wie dem Lidarsensor 5 (1) und dem Radarsensor 4 (1). 9 shows the completed local area map 12th in plan view and at a later point in time with a roadway 13th and with the first passenger car 7th with the associated trajectory, the second passenger car 8th with the associated trajectory and the bus 9 and the bike 10 each with the associated trajectory. Furthermore, as static environmental data from static surrounding objects, there are still parking spaces 15th recognized and the completed local area map 12th added. Image processing methods can be used for the detection of static environmental data from static environmental objects. Typical methods for extracting lanes and road boundaries are machine learning methods based on camera images or the semantic segmentation of a high-resolution point cloud-based sensor, such as the lidar sensor 5 ( 1 ) and the radar sensor 4th ( 1 ).

10 zeigt den vierten Verfahrensschritt S4 im Detail. In dem nachfolgenden Verfahrensschritt S4 wird die vervollständigte lokale Umgebungskarte 12 auf eine vorgegebene Referenzstraßenkarte, vorzugsweise eine HDMap (High Defintion Map) 14 abgebildet. HDMaps 14 weisen eine extrem hohe Präzision auf Zentimeter-Ebene auf und sind vor allem für autonom fahrende Fahrzeuge sinnvoll. Die Abbildung kann unter Verwendung eines Map Matching-Algorithmus, vorzugsweise eines Optimierungsverfahrens vorgenommen werden. Bei einem solchen Map Matching-Algorithmus in der digitalen Bildverarbeitung werden einander annähernd korrelierende Muster in der vervollständigten lokalen Umgebungskarte 12 (8) und der vorgegebenen HDMap 14 gesucht. Auf Grundlage dieser Korrelation wird eine projektive Transformation berechnet, die es ermöglicht, die vervollständigte lokale Umgebungskarte 12 und die HDMap 14 bestmöglich aufeinander abzubilden. 10 shows the fourth method step S4 in detail. The completed local area map is created in the subsequent method step S4 12th on a given reference road map, preferably an HDMap (High Definition Map) 14th pictured. HDMaps 14th have extremely high precision at the centimeter level and are particularly useful for autonomous vehicles. The mapping can be carried out using a map matching algorithm, preferably an optimization method. With such a map matching algorithm in digital image processing, approximately correlating patterns are created in the completed local environment map 12th ( 8th ) and the given HDMap 14th searched. On the basis of this correlation, a projective transformation is calculated which enables the completed local environment map 12th and the HDMap 14th map to each other in the best possible way.

11 zeigt das erfindungsgemäße Verfahren abschnittsweise, wobei hier nur ein Radarsensor 4 (1) zur Aufnahme von Umfeldsensordaten verwendet wurde. Dabei wird zunächst ein erster Frame von Umfeldsensordaten des Umfeldes des Egofahrzeugs 1 (1) aufgenommen (I). Anschließend werden Merkmale aus dem Frame durch ein Merkmalsextraktionsverfahren extrahiert und diese zu dynamischen Objekten von Interesse zusammengefasst. Anschließend werden die dynamischen Objekte von Interesse klassifiziert und eine Zuordnung von kinematischen Daten zu den einzelnen dynamischen Objekten von Interesse vorgenommen. Bild II zeigt die zusammengefassten Objekte von Interesse. Danach werden die Trajektorien der einzelnen Objekte von Interesse durch Clustern bestimmt und eine lokale Karte 11 mit Objekten und deren Trajektorien erstellt (III). 11 shows the method according to the invention in sections, with only one radar sensor here 4th ( 1 ) was used to record environmental sensor data. Initially, a first frame of environment sensor data for the environment of the host vehicle is generated 1 ( 1 ) added (I). Subsequently features are extracted from the frame by a feature extraction process and these are combined into dynamic objects of interest. The dynamic objects of interest are then classified, and kinematic data are assigned to the individual dynamic objects of interest. Figure II shows the grouped objects of interest. Then the trajectories of the individual objects of interest are determined by clusters and a local map 11 created with objects and their trajectories (III).

Anschließend werden Fahrbahnen als statische Umgebungsdaten von statischen Umgebungsobjekten bestimmt (IV), welche der lokalen Karte 11 zur Vervollständigung hinzugefügt werden können.Subsequently, lanes are determined as static environment data of static environment objects (IV), which of the local map 11 can be added to complete.

BezugszeichenlisteList of reference symbols

11
EgofahrzeugEgo vehicle
22
FahrerassistenzsystemDriver assistance system
33
SensorsystemSensor system
44th
RadarsensorRadar sensor
55
LidarsensorLidar sensor
66th
BildsensorImage sensor
77th
erster Personenkraftwagen mit dazugehöriger Trajektoriefirst passenger car with associated trajectory
88th
zweiter Personenkraftwagen mit dazugehöriger Trajektoriesecond passenger car with associated trajectory
99
Bus mit dazugehöriger TrajektorieBus with associated trajectory
1010
Fahrrad mit dazugehöriger TrajektorieBicycle with associated trajectory
1111
lokale Kartelocal map
1212th
vervollständigte lokale Umgebungskartecompleted local area map
1313th
Fahrbahnroadway
1414th
HDMapHDMap
1515th
ParkplätzeParking spaces

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102016205871 A1 [0004]DE 102016205871 A1 [0004]

Claims (15)

Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges (1) gekennzeichnet durch die Schritte: - Generierung von aufeinanderfolgenden Frames von Umfeldsensordaten eines Umfelds des Egofahrzeugs (1) durch ein Sensorsystem (3), - Extraktion von Merkmalen in zumindest einem Frame durch ein Merkmalsextraktionsverfahren, - Zusammenfassen der Merkmale zu einzelnen dynamischen Objekten von Interesse, - Klassifikation der einzelnen dynamischen Objekte von Interesse, - Bestimmung von kinematischen Daten der einzelnen dynamischen Objekte von Interesse aus den aufeinanderfolgenden Frames unter Berücksichtigung der Egodaten des Egofahrzeugs (1) und zuordnen der kinematischen Daten zu den einzelnen dynamischen Objekten von Interesse, - Transformieren der erfassten Umfeldsensordaten der dynamischen Objekte von Interesse der einzelnen Frames unter Verwendung der kinematischen Daten in eine lokale Karte (11), - Clustern der transformierten Umfeldsensordaten der dynamischen Objekte von Interesse in der lokalen Karte (11) zu Trajektorien und zuweisen der Trajektorien zu den einzelnen dynamischen Objekten von Interesse, - Bestimmen von statischen Umgebungsdaten von statischen Umgebungsobjekten aus zumindest einem der Frames und vervollständigen der lokalen Karte (11) anhand der statischen Umgebungsdaten von statischen Umgebungsobjekten zu einer vervollständigten lokalen Umgebungskarte (12) und zuweisen der einzelnen dynamischen Objekte von Interesse zu den statischen Umgebungsdaten von statischen Umgebungsobjekten, - Bereitstellen einer Referenzstraßenkarte und abbilden der vervollständigten lokalen Umgebungskarte (12) auf die Referenzstraßenkarte.Method for the sensor-based localization of a host vehicle (1) characterized by the steps: - generation of successive frames of environment sensor data of an environment of the host vehicle (1) by a sensor system (3), - extraction of features in at least one frame by a feature extraction method, - summarization of the Characteristics of individual dynamic objects of interest, - classification of the individual dynamic objects of interest, - determination of kinematic data of the individual dynamic objects of interest from the successive frames, taking into account the ego data of the host vehicle (1) and assigning the kinematic data to the individual dynamic Objects of interest, - transforming the captured environment sensor data of the dynamic objects of interest of the individual frames using the kinematic data into a local map (11), - clusters of the transformed environment sensor data of the dynamic objects of interest in the local map (11) to trajectories and assign the trajectories to the individual dynamic objects of interest, - determination of static environment data of static environment objects from at least one of the frames and complete the local map (11) based on the static environment data of static environment objects a completed local environment map (12) and assigning the individual dynamic objects of interest to the static environment data of static environment objects, - providing a reference road map and mapping the completed local environment map (12) onto the reference road map. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Abbilden unter Verwendung von einem Map Matching-Algorithmus durchgeführt wird.Procedure according to Claim 1 , characterized in that the mapping is performed using a map matching algorithm. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Referenzstraßenkarte als eine HDMap (High Definition-Karte) ausgebildet ist.Procedure according to Claim 1 or 2 , characterized in that the reference road map is designed as an HDMap (high definition map). Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die HDMap zumindest statische Infrastrukturdaten umfasst.Procedure according to Claim 3 , characterized in that the HDMap comprises at least static infrastructure data. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Referenzkarte als selbstlernende Straßenkarte ausgebildet ist.Method according to one of the preceding claims, characterized in that the reference map is designed as a self-learning road map. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die statischen Umgebungsdaten von statischen Umgebungsobjekten als Fahrbahnen und/oder Fahrbahnberandung ausgebildet sind.Method according to one of the preceding claims, characterized in that the static environmental data of static surrounding objects are designed as roadways and / or roadway boundaries. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die statischen Umgebungsdaten von statischen Umgebungsobjekten als aktive Verkehrsanzeigedaten wie Ampelanlagen und/oder passive Verkehrsanzeigedaten wie Schilder ausgebildet sind.Method according to one of the preceding claims, characterized in that the static environmental data of static surrounding objects are designed as active traffic display data such as traffic lights and / or passive traffic display data such as signs. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die statischen Umgebungsdaten von statischen Umgebungsobjekten als Umgebungsmerkmale ausgebildet sind.Method according to one of the preceding claims, characterized in that the static environment data of static environment objects are designed as environment features. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Clusterverfahren ein dichtebasiertes Verfahren eingesetzt wird.Method according to one of the preceding claims, characterized in that a density-based method is used as the cluster method. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass als Clusterverfahren der DBSCAN (Density-Based Spatial Clustering of Applications with Noise) eingesetzt wird.Procedure according to Claim 9 , characterized in that the DBSCAN (Density-Based Spatial Clustering of Applications with Noise) is used as the clustering method. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zu jedem dynamischen Objekt von Interesse ein Referenzpunkt bestimmt wird.Method according to one of the preceding claims, characterized in that a reference point is determined for each dynamic object of interest. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass die Bestimmung von kinematischen Daten der einzelnen dynamischen Objekte von Interesse aus den aufeinanderfolgenden Frames anhand des Referenzpunktes erfolgt.Procedure according to Claim 11 , characterized in that the determination of kinematic data of the individual dynamic objects of interest is carried out from the successive frames on the basis of the reference point. Egofahrzeug (1), welches zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche ausgelegt ist, umfassend zumindest eines Lidarsensors (4), eines Radarsensors (5) und eines Bildsensors (6).The host vehicle (1), which is designed to carry out a method according to one of the preceding claims, comprising at least one lidar sensor (4), a radar sensor (5) and an image sensor (6). Computerprogramm, umfassend Befehle, die bewirken, dass das Egofahrzeug (1) des Anspruchs 13 das Verfahren nach einem der vorhergehenden Ansprüche 1 bis 12 ausführt.Computer program, comprising instructions that cause the host vehicle (1) of the Claim 13 the method according to any one of the preceding Claims 1 to 12th executes. Datenträgersignal, das ein Computerprogramm nach Anspruch 14 überträgt.Data carrier signal that a computer program according to Claim 14 transmits.
DE102019213403.3A 2019-09-04 2019-09-04 Method for the sensor-based localization of a host vehicle, host vehicle and a computer program Withdrawn DE102019213403A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019213403.3A DE102019213403A1 (en) 2019-09-04 2019-09-04 Method for the sensor-based localization of a host vehicle, host vehicle and a computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019213403.3A DE102019213403A1 (en) 2019-09-04 2019-09-04 Method for the sensor-based localization of a host vehicle, host vehicle and a computer program

Publications (1)

Publication Number Publication Date
DE102019213403A1 true DE102019213403A1 (en) 2021-03-04

Family

ID=74564841

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019213403.3A Withdrawn DE102019213403A1 (en) 2019-09-04 2019-09-04 Method for the sensor-based localization of a host vehicle, host vehicle and a computer program

Country Status (1)

Country Link
DE (1) DE102019213403A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021214763A1 (en) 2021-12-21 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Method and control device for controlling an automated vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004047130A1 (en) * 2004-09-27 2006-04-13 Daimlerchrysler Ag Environment and surroundings modeling for autonomous mobile systems including industrial robots involves computer classifying objects and surrounding spaces in accordance with given criteria
US20090228204A1 (en) * 2008-02-04 2009-09-10 Tela Atlas North America, Inc. System and method for map matching with sensor detected objects
DE102013001867A1 (en) * 2013-02-02 2014-08-07 Audi Ag Method for determining orientation and corrected position of motor vehicle, involves registering features of loaded and recorded environmental data by calculating transformation and calculating vehicle orientation from transformation
DE102015203016A1 (en) * 2015-02-19 2016-08-25 Volkswagen Aktiengesellschaft Method and device for optical self-localization of a motor vehicle in an environment
DE102016015405A1 (en) * 2016-12-22 2017-07-06 Daimler Ag Comprehensive environmental detection for a car by means of radar
DE112017004302T5 (en) * 2016-08-30 2019-05-23 Continental Automotive Gmbh Driver support system for determining a position of a vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004047130A1 (en) * 2004-09-27 2006-04-13 Daimlerchrysler Ag Environment and surroundings modeling for autonomous mobile systems including industrial robots involves computer classifying objects and surrounding spaces in accordance with given criteria
US20090228204A1 (en) * 2008-02-04 2009-09-10 Tela Atlas North America, Inc. System and method for map matching with sensor detected objects
DE102013001867A1 (en) * 2013-02-02 2014-08-07 Audi Ag Method for determining orientation and corrected position of motor vehicle, involves registering features of loaded and recorded environmental data by calculating transformation and calculating vehicle orientation from transformation
DE102015203016A1 (en) * 2015-02-19 2016-08-25 Volkswagen Aktiengesellschaft Method and device for optical self-localization of a motor vehicle in an environment
DE112017004302T5 (en) * 2016-08-30 2019-05-23 Continental Automotive Gmbh Driver support system for determining a position of a vehicle
DE102016015405A1 (en) * 2016-12-22 2017-07-06 Daimler Ag Comprehensive environmental detection for a car by means of radar

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021214763A1 (en) 2021-12-21 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Method and control device for controlling an automated vehicle

Similar Documents

Publication Publication Date Title
DE102010006828B4 (en) Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle
DE102012207620B4 (en) System and method for light signal detection
DE102013208521B4 (en) Collective learning of a highly accurate road model
DE112020002175T5 (en) SYSTEMS AND METHODS FOR VEHICLE NAVIGATION
DE112020006426T5 (en) SYSTEMS AND METHODS FOR VEHICLE NAVIGATION
DE102007013023B4 (en) Probabilistic raster map
DE112020003897T5 (en) SYSTEMS AND METHODS FOR MONITORING LANE CONGESTION
DE112018002143T5 (en) SYSTEMS AND METHODS FOR COMPRESSING TRAFFIC DATA
DE112020002592T5 (en) SYSTEMS AND METHODS FOR VEHICLE NAVIGATION BASED ON IMAGE ANALYSIS
DE112020002764T5 (en) SYSTEMS AND METHODS FOR VEHICLE NAVIGATION
DE112021002001T5 (en) NAVIGATING A VEHICLE USING AN ELECTRONIC HORIZON
DE112020002869T5 (en) NAVIGATION SYSTEMS AND METHODS OF DETERMINING OBJECT DIMENSIONS
DE102015209467A1 (en) Method of estimating lanes
DE112015006622T5 (en) Lane determination device and lane determination method
EP2116958B1 (en) Method and device for calculating the drive path in the area in front of a vehicle
DE102016112492A1 (en) Minimization of incorrect sensor data associations for autonomous vehicles
DE102018211941A1 (en) Method for determining an intersection topology of a street intersection
DE102021103149A1 (en) METHOD AND DEVICE FOR DETERMINING THE OPTIMAL CROSSING LANE IN AN ASSISTED DRIVING SYSTEM
DE102016213817B4 (en) A method, apparatus and computer readable storage medium having instructions for determining the lateral position of a vehicle relative to the lanes of a lane
DE102019123483B4 (en) Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level
DE102016213782A1 (en) A method, apparatus and computer readable storage medium having instructions for determining the lateral position of a vehicle relative to the lanes of a lane
DE112021002680T5 (en) SYSTEMS AND METHODS FOR DETECTING AN OPEN DOOR
DE112020005275T5 (en) SYSTEMS AND METHODS FOR SELECTIVE DECELERATION OF A VEHICLE
DE112021004128T5 (en) SYSTEMS AND METHODS FOR MAP-BASED MODELING OF THE REAL WORLD
WO2017102623A1 (en) Method and device for predicting a movement of a road traffic participant in a traffic space

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee