DE102022119179A1 - Method, system and computer program product for testing and training a driver assistance system (ADAS) and/or an automated driving system (ADS) and/or a driving function - Google Patents
Method, system and computer program product for testing and training a driver assistance system (ADAS) and/or an automated driving system (ADS) and/or a driving function Download PDFInfo
- Publication number
- DE102022119179A1 DE102022119179A1 DE102022119179.6A DE102022119179A DE102022119179A1 DE 102022119179 A1 DE102022119179 A1 DE 102022119179A1 DE 102022119179 A DE102022119179 A DE 102022119179A DE 102022119179 A1 DE102022119179 A1 DE 102022119179A1
- Authority
- DE
- Germany
- Prior art keywords
- scenario
- sensors
- module
- szp
- scenarios
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012360 testing method Methods 0.000 title claims abstract description 101
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 title claims abstract description 19
- 238000004590 computer program Methods 0.000 title claims description 8
- 238000004088 simulation Methods 0.000 claims abstract description 59
- 238000004458 analytical method Methods 0.000 claims abstract description 45
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 24
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 24
- 238000004364 calculation method Methods 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 35
- 238000013473 artificial intelligence Methods 0.000 claims description 32
- 238000004422 calculation algorithm Methods 0.000 claims description 32
- 238000013528 artificial neural network Methods 0.000 claims description 30
- 230000001133 acceleration Effects 0.000 claims description 13
- 230000006399 behavior Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 230000002123 temporal effect Effects 0.000 claims description 11
- 238000001556 precipitation Methods 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 6
- 238000000342 Monte Carlo simulation Methods 0.000 claims description 5
- 230000001939 inductive effect Effects 0.000 claims description 5
- 238000012417 linear regression Methods 0.000 claims description 5
- 230000005855 radiation Effects 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000000844 transformation Methods 0.000 claims description 5
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 abstract 2
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 abstract 2
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 abstract 2
- 239000003795 chemical substances by application Substances 0.000 description 18
- 238000013527 convolutional neural network Methods 0.000 description 17
- 238000010200 validation analysis Methods 0.000 description 11
- 210000002569 neuron Anatomy 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 8
- 238000012795 verification Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 230000001965 increasing effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 208000018910 keratinopathic ichthyosis Diseases 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000002872 Statistical quality control Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3664—Environments for testing or debugging software
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Testen und Trainieren eines ADAS/ADS-Systems und/oder einer Fahrfunktion für zumindest eine festgelegte Fahraufgabe in zumindest einem Szenario (SZi), umfassend:- Erfassen von Sensordaten (220) durch Sensoren (210) zumindest einer Sensoreinrichtung (200), die mit zumindest einem sich bewegenden Objekt (10) verbunden ist, beim Befahren einer oder mehrerer Fahrstrecken;- Generieren einer Mehrzahl von Datensätzen (320) zumindest aus den Sensordaten (220) von einem Eingabemodul (300);- Identifizieren und Klassifizieren von parametrisierten Szenarien (SZpi) aus den Datensätzen (320) von einem Szenarien-Analysemodul (400);- Identifizieren und Klassifizieren von Metadaten (570) aus den Datensätzen (320) von einem Metadaten-Analysemodul (500);- Verknüpfen und Integrieren der Metadaten (570) mit den parametrisierten Szenarien (SZpi) von einem Szenarien-Synthesemodul (700), um weitere parametrisierte Szenarien (SZpk) zu generieren;- Erstellen von einem oder mehreren Testfällen (Ti) ;- Erstellen einer Simulationsumgebung (940) mittels des einen oder mehrerer Testfälle (Ti);- Durchführen einer Simulation des Verhaltens eines ADAS/ADS-Systems oder einer Fahrfunktion in der Simulationsumgebung (940) für die festgelegte Fahraufgabe.The invention relates to a method for testing and training an ADAS/ADS system and/or a driving function for at least one defined driving task in at least one scenario (SZi), comprising: - Acquiring sensor data (220) by sensors (210) of at least one sensor device (200), which is connected to at least one moving object (10), when driving on one or more routes; - Generating a plurality of data sets (320) at least from the sensor data (220) from an input module (300); - Identifying and Classifying parameterized scenarios (SZpi) from the data sets (320) by a scenario analysis module (400); - Identifying and classifying metadata (570) from the data sets (320) by a metadata analysis module (500); - Linking and integrating the metadata (570) with the parameterized scenarios (SZpi) from a scenario synthesis module (700) in order to generate further parameterized scenarios (SZpk); - Creating one or more test cases (Ti) ; - Creating a simulation environment (940) using the one or more test cases (Ti);- Carrying out a simulation of the behavior of an ADAS/ADS system or a driving function in the simulation environment (940) for the specified driving task.
Description
Die Erfindung betrifft ein Verfahren, ein System und ein Computerprogrammprodukt zum Testen und Trainieren eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) und/oder einer Fahrfunktion.The invention relates to a method, a system and a computer program product for testing and training a driver assistance system (ADAS) and/or an automated driving system (ADS) and/or a driving function.
Moderne Fahrzeuge sind mit einer Vielzahl von Fahrassistenzsystemen bzw. automatisierten Fahrassistenzfunktionen ausgestattet, um den Fahrer beim Fahren zu unterstützen und seine Sicherheit zu erhöhen. Fahrassistenzsysteme unterstützen beispielsweise die Geschwindigkeits- und Abstandsregelung und beinhalten Spurhalte- und Spurwechselfunktionen. Hierbei kann eine bestimmte maximale Geschwindigkeit eingestellt werden, die nicht überschritten wird, solange die Geschwindigkeitsbegrenzungsfunktion aktiviert ist. Für die Abstandsregelung, bei der ein bestimmter Abstand insbesondere zu einem vorausfahrenden Fahrzeug eingestellt wird, werden Radarsensoren, aber auch Kamerasysteme eingesetzt. Hierdurch kann der Abstand zu vorausfahrenden Fahrzeugen, aber auch zu Fahrzeugen im Seitenbereich überwacht werden. Dies führt zu einem verbesserten Fahrkomfort und einer höheren Sicherheit insbesondere bei Fahrten auf der Autobahn und bei Überholmanövern.Modern vehicles are equipped with a variety of driving assistance systems or automated driving assistance functions to support the driver while driving and increase his or her safety. Driving assistance systems, for example, support speed and distance control and include lane keeping and lane changing functions. A specific maximum speed can be set, which will not be exceeded as long as the speed limit function is activated. Radar sensors and camera systems are used for distance control, in which a certain distance is set, particularly to a vehicle in front. This allows the distance to vehicles in front, but also to vehicles in the side area, to be monitored. This leads to improved driving comfort and greater safety, especially when driving on the motorway and during overtaking maneuvers.
Dieser Trend zu Fahrerassistenzsystemen (engl. Advanced Driver Assistance System, ADAS) und automatisierten Fahrsystemen (engl. Automated Driving System, ADS) bei Kraftfahrzeugen, aber auch bei Luftfahrzeugen oder Wasserfahrzeugen und anderen sich bewegenden Objekten, erfordert umfangreiche Absicherungsstrategien, da die Verantwortung über die Fahrzeugführung nicht mehr uneingeschränkt beim Fahrer liegt, sondern aktive Funktionen von Rechnereinheiten im Fahrzeug übernommen werden. Daher muss bei vollständig oder teilweise sich autonom bewegenden Objekten sichergestellt werden, dass diese Systeme eine sehr geringere Fehlerrate beim Fahrverhalten aufweisen. Um eine sichere Funktionsfähigkeit eines ADAS/ADS-Systems zu gewährleisten, sind die Erkennung und Klassifizierung von anderen Objekten und die Interpretation von Verkehrsszenarien im Umfeld eines sich bewegenden Objekts, insbesondere eines Fahrzeugs, wichtige Voraussetzungen. Hierfür ist das gezielte Testen und Trainieren der Fahrerassistenzsysteme und automatisierten Fahrsysteme sowohl in Extrem- und Ausnahmesituationen (engl. Corner Cases) als auch in alltäglichen Situationen erforderlich. Derartige Extremsituationen ergeben sich durch eine besondere Kombination von verschiedenen Faktoren. Beispiele hierfür sind infrastrukturelle Besonderheiten wie beispielsweise der Straßentyp, die Randbebauung an einer Straße, die Qualität der Markierungen aber auch Umgebungsbedingungen wie beispielsweise Witterungsbedingungen, die Tages- und die Jahreszeit. Des Weiteren spielen das Verhalten der anderen Verkehrsteilnehmer, die geographische Topographie und die Wetterverhältnisse eine große Rolle.This trend towards driver assistance systems (Advanced Driver Assistance System, ADAS) and automated driving systems (ADS) in motor vehicles, but also in aircraft or watercraft and other moving objects, requires extensive security strategies, as the responsibility for the Vehicle control is no longer entirely the responsibility of the driver, but active functions are taken over by computer units in the vehicle. Therefore, for objects that move completely or partially autonomously, it must be ensured that these systems have a very low error rate in driving behavior. In order to ensure the safe functionality of an ADAS/ADS system, the detection and classification of other objects and the interpretation of traffic scenarios in the vicinity of a moving object, especially a vehicle, are important prerequisites. This requires targeted testing and training of driver assistance systems and automated driving systems both in extreme and exceptional situations (corner cases) as well as in everyday situations. Such extreme situations arise from a special combination of different factors. Examples of this are infrastructural features such as the type of road, the development on the edge of a road, the quality of the markings but also environmental conditions such as weather conditions, the time of day and the season. The behavior of other road users, the geographical topography and the weather conditions also play a major role.
Mit zunehmender Leistungsfähigkeit von ADAS/ADS-Systemen steigt allerdings auch die Anzahl der Fahrszenarien, die von den ADAS/ADS-Systemen im Straßenverkehr bewältigt werden müssen. Für die Sicherstellung eines sicheren, komfortablen und effizienten Verhaltens eines ADAS/ADS-Systems durchlaufen daher einzelne Fahrfunktionen und das Gesamtsystem während der Fahrzeugentwicklung einen Verifizierungs-, Kalibrierungs- und Validierungsprozess.However, as the performance of ADAS/ADS systems increases, the number of driving scenarios that the ADAS/ADS systems have to handle in road traffic also increases. To ensure safe, comfortable and efficient behavior of an ADAS/ADS system, individual driving functions and the entire system go through a verification, calibration and validation process during vehicle development.
Allerdings stellt bei der Integration von modernen ADAS/ADS-Systemen in ein Fahrzeug eine solche Verifizierung, Kalibrierung und Validierung auch eine große Herausforderung dar, da ein funktionales Spezifikationsdefizits bei Fahrassistenzsystemen besteht. Während in der Automobilindustrie für konventionelle Systeme ein anforderungsbasierter Testprozess etabliert ist, bei dem Testfälle anhand von Testspezifikationen implementiert werden, fehlt dies bisher für ADAS/ADS-Systeme, da im Gegensatz zu konventionellen Systemen eine wesentlich größere Anzahl an Einflussgrößen zu berücksichtigen ist, wie insbesondere die Fahrumgebung, die mittels Sensoren erfasst wird. Die Menge von Szenarien, die in der Fahrumgebung des Fahrzeugs auftreten können und die von einem ADAS/ADS-System korrekt erkannt und verarbeitet werden müssen, wird durch eine Operational Design Domain (ODD) dargestellt. Dazu gehören sowohl alltägliche Fahrszenarien als auch sehr selten auftretende Corner Cases. Um ein ADAS/ADS-System für alle möglichen Fahrszenarien zu testen und zu trainieren, müsste die gesamte ODD für ein ADAS/ADS-System erfasst und in einem Anforderungskatalog dokumentiert werden. Dies ist aufgrund der Komplexität der Fahrumgebung und der daraus resultierenden großen Anzahl von Fahrszenarien nicht möglich. Dieses Problem wird als funktionales Spezifikationsdefizit bezeichnet. Es erschwert sowohl den Kalibrierungs- als auch den Validierungsprozess eines ADAS/ADS-Systems und erfordert alternative Ansätze zu den bestehenden Methoden.However, when integrating modern ADAS/ADS systems into a vehicle, such verification, calibration and validation also represents a major challenge, as there is a functional specification deficit in driving assistance systems. While a requirements-based test process has been established for conventional systems in the automotive industry, in which test cases are implemented based on test specifications, this is currently missing for ADAS/ADS systems because, in contrast to conventional systems, a significantly larger number of influencing variables have to be taken into account, such as in particular the driving environment, which is recorded using sensors. The set of scenarios that can occur in the vehicle's driving environment and that must be correctly recognized and processed by an ADAS/ADS system is represented by an Operational Design Domain (ODD). This includes both everyday driving scenarios and very rarely occurring corner cases. In order to test and train an ADAS/ADS system for all possible driving scenarios, the entire ODD for an ADAS/ADS system would have to be recorded and documented in a requirements catalog. This is not possible due to the complexity of the driving environment and the resulting large number of driving scenarios. This problem is called functional specification deficiency. It complicates both the calibration and validation process of an ADAS/ADS system and requires alternative approaches to the existing methods.
Aufgrund der Herausforderungen bei der Erprobung von ADAS/ADS-Systemen werden daher neben den bekannten Methoden zunehmend virtuelle Simulationsverfahren zum Testen und Trainieren für eine Verifizierung, Kalibrierung und Validierung von ADAS/ADS-Systemen eingesetzt. Dabei müssen diese virtuellen Simulationsverfahren jedoch in einer Weise gestaltet werden, dass eine objektive Vergleichbarkeit von verschiedenen ADAS/ADS-Systemen mit sich unterscheidenden Funktionalitäten hinsichtlich der Leistungsfähigkeit und Sicherheit möglich ist.Due to the challenges in testing ADAS/ADS systems, in addition to the known methods, virtual simulation methods are increasingly being used for testing and training for verification, calibration and validation of ADAS/ADS systems. However, these virtual simulation methods must be designed in such a way that an objective comparability of different ADAS/ADS systems with different functionality possible in terms of performance and safety.
Dabei bilden jedoch die virtuell erstellten Szenarien typsicherweise nur einen Bruchteil an möglichen Szenarien für ADAS/ADS-Systeme ab, denn es entstehen immer wieder neue Verkehrsszenarien und insbesondere Corner Cases durch das Abfahren von realen Verkehrsstrecken, die in der Menge von virtuell erstellten Szenarien noch nicht berücksichtigt worden sind. Zudem wird die Modellierung von Szenarien und Szenen in der Regel manuell oder semi-automatisch durchgeführt, so dass der Zeit- und Kostenaufwand für die Erstellung von Testumgebungen für eine virtuelle Erprobung sehr hoch ist.However, the virtually created scenarios typically only represent a fraction of possible scenarios for ADAS/ADS systems, because new traffic scenarios and in particular corner cases arise from driving along real traffic routes, which are not yet available in the number of virtually created scenarios have been taken into account. In addition, the modeling of scenarios and scenes is usually carried out manually or semi-automatically, so the time and cost required to create test environments for virtual testing is very high.
Die
Die
Die
Die
Die
Die der Erfindung zu Grunde liegende Aufgabe besteht nun darin, Möglichkeiten zum Testen und Trainieren eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) und/oder einer Fahrfunktion mit einer vergrößerten Anzahl an virtuellen Szenarien anzugeben, so dass der Verifizierungs-, Kalibrierungs- und Validierungsprozess weniger Zeit benötigt und zudem mit einer verbesserten Effizienz durchgeführt werden kann, um die Sicherheit von ADAS/ADS-Systemen und/oder einer Fahrfunktion zu erhöhen und Ressourcen sowie Kosten einsparen zu können.The object underlying the invention is to provide options for testing and training a driver assistance system (ADAS) and/or an automated driving system (ADS) and/or a driving function with an increased number of virtual scenarios, so that the verification, Calibration and validation process requires less time and can also be carried out with improved efficiency in order to increase the safety of ADAS/ADS systems and/or a driving function and to save resources and costs.
Diese Aufgabe wird hinsichtlich eines Verfahrens durch die Merkmale des Patentanspruchs 1, hinsichtlich eines Systems durch die Merkmale des Patentanspruchs 9, und hinsichtlich eines Computerprogrammprodukts durch die Merkmale des Patentanspruchs 15 erfindungsgemäß gelöst. Die weiteren Ansprüche betreffen bevorzugte Ausgestaltungen der Erfindung.This object is achieved according to the invention with regard to a method by the features of patent claim 1, with regard to a system by the features of patent claim 9, and with regard to a computer program product by the features of patent claim 15. The further claims relate to preferred embodiments of the invention.
Durch die vorliegende Erfindung wird die Generierung von neuen virtuellen Verkehrsszenarien durch die Verknüpfung von bereits vorliegenden, auf realen Sensordaten basierenden Szenarien mit Metadaten ermöglicht, so dass die Menge von zur Verfügung stehenden virtuellen Szenarien für die Erstellung einer Simulationsumgebung für das Testen und Trainieren eines ADAS/ADS-Systems und/oder einer Fahrfunktion insbesondere für Verifizierungs-, Kalibrierungs- und Validierungszwecke vergrößert wird. Mit dieser erweiterten Menge von Szenarien können relevante Simulationsumgebungen erstellt werden, in denen die Sicherheit und Funktionsfähigkeit eines Fahrassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) und/oder einer Fahrfunktion für eine bestimmte Fahraufgabe mit einer hohen Zuverlässigkeit abgeschätzt werden kann.The present invention enables the generation of new virtual traffic scenarios by linking existing scenarios based on real sensor data with metadata, so that the amount of virtual scenarios available for creating a simulation environment for testing and training an ADAS/ ADS system and/or a driving function is enlarged, in particular for verification, calibration and validation purposes. With this expanded set of scenarios, relevant simulation environments can be created in which the safety and functionality of a driving assistance system (ADAS) and/or an automated driving system (ADS) and/or a driving function for a specific driving task can be estimated with a high level of reliability.
Gemäß einem ersten Aspekt stellt die Erfindung ein Verfahren zum Testen und Trainieren eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) und/oder einer Fahrfunktion für zumindest eine festgelegte Fahraufgabe in zumindest einem Szenario bereit. Ein Szenario stellt ein Verkehrsgeschehen in einer zeitlichen Sequenz dar und ist durch eine Auswahl von Szenarioparametern und zugehörigen Szenarioparameterwerten definiert, wobei bei einem parametrisierten Szenario die Szenarioparameter und zugehörigen Szenarioparameterwerte frei wählbar sind, und bei einem konkreten Szenario die konkreten Szenarioparameter und zugehörigen konkreten Szenarioparameterwerte festgelegt sind. Das Verfahren umfasst die Verfahrensschritte:
- - Erfassen von Sensordaten durch Sensoren zumindest einer Sensoreinrichtung, die mit zumindest einem sich bewegenden Objekt verbunden ist, beim Befahren einer oder mehrerer Fahrstrecken, wobei die Sensoren die Sensordaten von der Umgebung des sich bewegenden Objekts aufnehmen;
- - Generieren einer Mehrzahl von Datensätzen zumindest aus den Sensordaten von einem Eingabemodul;
- - Identifizieren und Klassifizieren von parametrisierten Szenarien aus den Datensätzen von einem Szenarien-Analysemodul;
- - Identifizieren und Klassifizieren von Metadaten aus den Datensätzen von einem Metadaten-Analysemodul;
- - Verknüpfen und Integrieren der Metadaten mit den parametrisierten Szenarien von einem Szenarien-Synthesemodul, um weitere parametrisierte Szenarien zu generieren und damit die Menge von parametrisierten Szenarien zu vergrößern;
- - Erstellen von einem oder mehreren Testfällen durch Auswählen von parametrisierten Szenarien aus der erweiterten Menge und von konkreten Szenarioparametern von einem Testagenten mittels einer Teststrategie für die Fahraufgabe;
- - Erstellen einer Simulationsumgebung mittels des einen oder mehrerer Testfälle von einem Simulationsmodul;
- - Durchführen einer Simulation des Verhaltens eines ADAS/ADS-Systems oder einer Fahrfunktion in der Simulationsumgebung für die festgelegte Fahraufgabe.
- - Acquiring sensor data by sensors of at least one sensor device, which is connected to at least one moving object, when driving on one or more routes, the sensors recording the sensor data from the surroundings of the moving object;
- - Generating a plurality of data sets at least from the sensor data from an input module;
- - Identifying and classifying parameterized scenarios from the datasets from a scenario analysis module;
- - Identifying and classifying metadata from the datasets by a metadata analysis module;
- - Linking and integrating the metadata with the parameterized scenarios from a scenario synthesis module to generate further parameterized scenarios and thus increase the set of parameterized scenarios;
- - Creating one or more test cases by selecting parameterized scenarios from the expanded set and concrete scenario parameters from a test agent using a test strategy for the driving task;
- - Creating a simulation environment using one or more test cases from a simulation module;
- - Carrying out a simulation of the behavior of an ADAS/ADS system or a driving function in the simulation environment for the specified driving task.
In einer Weiterentwicklung ist vorgesehen, dass das Szenarien-Analysemodul eine Softwareapplikation umfasst, die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz verwendet, und dass das Metadaten-Analysemodul eine Softwareapplikation umfasst, die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz verwendet; und dass das Szenarien-Synthesemodul eine Softwareapplikation umfasst, die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz verwendet; und dass der Testagent eine Softwareapplikation umfasst, die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz verwendet; und dass das Simulationsmodul eine Softwareapplikation umfasst, die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz verwendet.In a further development, it is provided that the scenario analysis module comprises a software application that uses calculation methods and/or artificial intelligence algorithms, and that the metadata analysis module comprises a software application that uses calculation methods and/or artificial intelligence algorithms; and that the scenario synthesis module comprises a software application that uses calculation methods and/or artificial intelligence algorithms; and that the test agent comprises a software application that uses calculation methods and/or artificial intelligence algorithms; and that the simulation module includes a software application that uses calculation methods and/or artificial intelligence algorithms.
In einer vorteilhaften Ausführungsform ist vorgesehen, dass die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz als Mittelwerte, Minimal- und Maximalwerte, Lookup Tabellen, Modelle zu Erwartungswerten, lineare Regressionsverfahren, Gauß-Prozesse, Fast Fourier Transformationen, Integral- und Differentialrechnungen, Markov-Verfahren, Wahrscheinlichkeitsverfahren wie Monte Carlo-Verfahren, Temporal Difference Learning, erweiterte Kalman-Filter, radiale Basisfunktionen, Datenfelder, konvergente neuronale Netzwerke, tiefe neuronale Netzwerke, rückgekoppelte neuronale Netzwerke, und/oder gefaltete neuronale Netzwerke ausgebildet sind.In an advantageous embodiment it is provided that the calculation methods and/or algorithms of artificial intelligence are used as mean values, minimum and maximum values, lookup tables, models for expected values, linear regression methods, Gaussian processes, fast Fourier transformations, integral and differential calculations, Markov Methods, probability methods such as Monte Carlo methods, temporal difference learning, extended Kalman filters, radial basis functions, data fields, convergent neural networks, deep neural networks, feedback neural networks, and / or folded neural networks are formed.
In einer weiteren Ausführungsform ist vorgesehen, dass ein Parameter eine physikalische Größe, eine chemische Größe, ein Drehmoment, eine Drehzahl, eine Spannung, eine Stromstärke, eine Beschleunigung, eine Geschwindigkeit, einen Bremswert, eine Richtung, einen Winkel, einen Radius, einen Ort, eine Zahl, ein bewegliches Objekt wie ein Kraftfahrzeug, eine Person oder einen Radfahrer, ein unbewegliches Objekt wie ein Gebäude oder einen Baum, eine Straßenkonfiguration wie eine Autobahn, ein Straßenschild, eine Ampel, einen Tunnel, einen Kreisverkehr, eine Abbiegespur, ein Verkehrsaufkommen, eine topographische Struktur wie eine Steigung, eine Uhrzeit, eine Temperatur, einen Niederschlagswert, eine Witterung und/oder eine Jahreszeit darstellt.In a further embodiment it is provided that a parameter is a physical quantity, a chemical quantity, a torque, a speed, a voltage, a current, an acceleration, a speed, a braking value, a direction, an angle, a radius, a location , a number, a moving object such as a motor vehicle, a person or a cyclist, an immovable object such as a building or a tree, a road configuration such as a highway, a street sign, a traffic light, a tunnel, a roundabout, a turning lane, a traffic volume , represents a topographical structure such as a slope, a time, a temperature, a precipitation value, a weather and/or a season.
Insbesondere sind die Sensoren als Radarsysteme, LIDAR-Systeme zur optischen Abstands- und Geschwindigkeitsmessung, bildaufnehmende 2D/3D-Kameras im sichtbaren, IR- und/oder UV-Bereich, GPS-Systeme, Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Spannungssensoren, Drehmomentsensoren, Drehzahlsensoren, Niederschlagssensoren und/oder Temperatursensoren ausgebildet.In particular, the sensors are radar systems, LIDAR systems for optical distance and speed measurement, image-recording 2D/3D cameras in the visible, IR and/or UV range, GPS systems, acceleration sensors, speed sensors, capacitive sensors, inductive sensors, voltage sensors , torque sensors, speed sensors, precipitation sensors and / or temperature sensors.
In einer vorteilhaften Ausführungsform ist vorgesehen, dass es sich bei den Metadaten um einen Indexwert zur Kritikalität eines Szenarios, eine Identifikation eines Straßentyps wie einer Autobahn, einer Landstraße oder einer Straße in einer Ortschaft wie einer Stadt oder einem Dorf, eine spezifische Kreuzungsanordnung, ein spezifisches Straßenschild, eine spezifische Brücken- oder Tunnelkonstruktion, eine Tageszeitangabe wie vormittags oder nachmittags, einen bestimmten Sonneneinstrahlungswert, eine bestimmte Wettersituation wie ein leichtes Regenschauer oder ein heftiges Gewitter, eine länderspezifische Kennzeichnung, und/oder länderspezifische Eigenschaften der Verkehrsschilder handelt.In an advantageous embodiment it is provided that the metadata is an index value for the criticality of a scenario, an identification of a road type such as a highway, a country road or a street in a locality such as a city or a village, a specific intersection arrangement, a specific Road sign, a specific bridge or tunnel construction, a time of day such as morning or afternoon, a specific level of solar radiation, a specific weather situation such as a light rain shower or a heavy thunderstorm, a country-specific marking, and/or country-specific properties of the traffic signs.
Vorteilhafterweise sind das Szenarien-Analysemodul, das Metadaten-Analysemodul, das Szenarien-Synthesemodul, der Testagent und/oder das Simulationsmodul in einer Cloud-Computing-Infrastruktur integriert.Advantageously, the scenario analysis module, the metadata analysis module, the scenario synthesis module, the test agent and/or the simulation module are integrated in a cloud computing infrastructure.
Insbesondere ist/sind die Sensoreinrichtung und/oder das Eingabemodul mit Mobilfunkmodulen des 5G oder 6G-Mobifunkstandards zum Senden und Empfangen von Daten ausgestattet.In particular, the sensor device and/or the input module is/are equipped with mobile radio modules of the 5G or 6G mobile radio standard for sending and receiving data.
Gemäß einem zweiten Aspekt stellt die Erfindung ein System zum Testen und Trainieren eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) und/oder einer Fahrfunktion für eine festgelegte Fahraufgabe in zumindest einem Szenario bereit. Ein Szenario stellt ein Verkehrsgeschehen in einer zeitlichen Sequenz dar und ist durch eine Auswahl von Parametern und zugehörigen Parameterwerten definiert, und wobei bei einem parametrisierten Szenario die Parameter und zugehörigen Parameterwerte frei wählbar sind, und bei einem konkreten Szenario die Parameter und zugehörigen Parameterwerte festgelegt sind. Das System umfasst eine Sensoreinrichtung, ein Eingabemodul, ein Szenario-Analysemodul, ein Metadaten-Analysemodul, ein Szenarien-Synthesemodul, ein Testfallmodul mit einem Testagenten und ein Simulationsmodul. Das Eingabemodul ist ausgebildet, Sensordaten durch Sensoren zumindest einer Sensoreinrichtung, die mit zumindest einem sich bewegenden Objekt verbunden ist, beim Befahren einer oder mehrerer Fahrstrecken zu erfassen, wobei die Sensoren die Sensordaten von der Umgebung des sich bewegenden Objekts aufnehmen, und eine Mehrzahl von Datensätzen zumindest aus den Sensordaten zu generieren. Das Szenarien-Analysemodul ist ausgebildet, parametrisierte Szenarien aus den Datensätzen von einem Szenarien-Analysemodul zu identifizieren und zu klassifizieren. Das Metadaten-Analysemodul ist ausgebildet, Metadaten aus den Datensätzen zu identifizieren und zu klassifizieren. Das Szenarien-Synthesemodul ist ausgebildet, die Metadaten mit den parametrisierten Szenarien zu verknüpfen und zu integrieren, um weitere parametrisierte Szenarien zu generieren und damit die Menge von parametrisierten Szenarien zu vergrößern. Der Testagent ist ausgebildet, einen oder mehrere Testfälle durch Auswählen von parametrisierten Szenarien aus der erweiterten Menge und von konkreten Szenarioparametern von mittels einer Teststrategie für die Fahraufgabe zu erstellen. Das Simulationsmodul ist ausgebildet, eine Simulationsumgebung mittels des einen oder mehrerer Testfälle zu erstellen und eine Simulation des Verhaltens eines ADAS/ADS-Systems oder einer Fahrfunktion in der Simulationsumgebung für die festgelegte Fahraufgabe durchzuführen.According to a second aspect, the invention provides a system for testing and training a driver assistance system (ADAS) and/or an automated driving system (ADS) and/or a driving function for a specified driving task ready for at least one scenario. A scenario represents a traffic event in a temporal sequence and is defined by a selection of parameters and associated parameter values, and in a parameterized scenario the parameters and associated parameter values are freely selectable, and in a specific scenario the parameters and associated parameter values are fixed. The system includes a sensor device, an input module, a scenario analysis module, a metadata analysis module, a scenario synthesis module, a test case module with a test agent and a simulation module. The input module is designed to record sensor data by sensors of at least one sensor device, which is connected to at least one moving object, when driving on one or more routes, the sensors recording the sensor data from the surroundings of the moving object, and a plurality of data sets at least to generate from the sensor data. The scenario analysis module is designed to identify and classify parameterized scenarios from the data sets from a scenario analysis module. The metadata analysis module is designed to identify and classify metadata from the data sets. The scenario synthesis module is designed to link and integrate the metadata with the parameterized scenarios in order to generate further parameterized scenarios and thus increase the amount of parameterized scenarios. The test agent is trained to create one or more test cases by selecting parameterized scenarios from the expanded set and concrete scenario parameters using a test strategy for the driving task. The simulation module is designed to create a simulation environment using one or more test cases and to carry out a simulation of the behavior of an ADAS/ADS system or a driving function in the simulation environment for the specified driving task.
In einer vorteilhaften Ausführungsform ist vorgesehen, dass das Szenarien-Analysemodul eine Softwareapplikation umfasst, die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz verwendet, und dass das Metadaten-Analysemodul eine Softwareapplikation umfasst, die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz verwendet; und dass das Szenarien-Synthesemodul eine Softwareapplikation umfasst, die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz verwendet; und dass der Testagent eine Softwareapplikation umfasst, die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz verwendet; und dass das Simulationsmodul eine Softwareapplikation umfasst, die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz verwendet.In an advantageous embodiment, it is provided that the scenario analysis module comprises a software application that uses calculation methods and/or artificial intelligence algorithms, and that the metadata analysis module comprises a software application that uses calculation methods and/or artificial intelligence algorithms; and that the scenario synthesis module comprises a software application that uses calculation methods and/or artificial intelligence algorithms; and that the test agent comprises a software application that uses calculation methods and/or artificial intelligence algorithms; and that the simulation module includes a software application that uses calculation methods and/or artificial intelligence algorithms.
In einer weiteren Ausführungsform ist vorgesehen, dass die Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz als Mittelwerte, Minimal- und Maximalwerte, Lookup Tabellen, Modelle zu Erwartungswerten, lineare Regressionsverfahren, Gauß-Prozesse, Fast Fourier Transformationen, Integral- und Differentialrechnungen, Markov-Verfahren, Wahrscheinlichkeitsverfahren wie Monte Carlo-Verfahren, Temporal Difference Learning, erweiterte Kalman-Filter, radiale Basisfunktionen, Datenfelder, konvergente neuronale Netzwerke, tiefe neuronale Netzwerke, rückgekoppelte neuronale Netzwerke, und/oder gefaltete neuronale Netzwerke ausgebildet sind.In a further embodiment it is provided that the calculation methods and/or algorithms of artificial intelligence are used as mean values, minimum and maximum values, lookup tables, models for expected values, linear regression methods, Gaussian processes, fast Fourier transformations, integral and differential calculations, Markov Methods, probability methods such as Monte Carlo methods, temporal difference learning, extended Kalman filters, radial basis functions, data fields, convergent neural networks, deep neural networks, feedback neural networks, and / or folded neural networks are formed.
Insbesondere ist vorgesehen, dass ein Parameter eine physikalische Größe, eine chemische Größe, ein Drehmoment, eine Drehzahl, eine Spannung, eine Stromstärke, eine Beschleunigung, eine Geschwindigkeit, einen Bremswert, eine Richtung, einen Winkel, einen Radius, einen Ort, eine Zahl, ein bewegliches Objekt wie ein Kraftfahrzeug, eine Person oder einen Radfahrer, ein unbewegliches Objekt wie ein Gebäude oder einen Baum, eine Straßenkonfiguration wie eine Autobahn, ein Straßenschild, eine Ampel, einen Tunnel, einen Kreisverkehr, eine Abbiegespur, ein Verkehrsaufkommen, eine topographische Struktur wie eine Steigung, eine Uhrzeit, eine Temperatur, einen Niederschlagswert, eine Witterung und/oder eine Jahreszeit darstellt; und dass es sich bei den Metadaten um einen Indexwert zur Kritikalität eines Szenarios, eine Identifikation eines Straßentyps wie einer Autobahn, einer Landstraße oder einer Straße in einer Ortschaft wie einer Stadt oder einem Dorf, eine spezifische Kreuzungsanordnung, ein spezifisches Straßenschild, eine spezifische Brücken- oder Tunnelkonstruktion, eine Tageszeitangabe wie vormittags oder nachmittags, einen bestimmten Sonneneinstrahlungswert, eine bestimmte Wettersituation wie ein leichtes Regenschauer oder ein heftiges Gewitter, eine länderspezifische Kennzeichnung und/oder eine länderspezifische Eigenschaften der Verkehrsschilder handelt.In particular, it is provided that a parameter is a physical quantity, a chemical quantity, a torque, a speed, a voltage, a current, an acceleration, a speed, a braking value, a direction, an angle, a radius, a location, a number , a moving object such as a motor vehicle, a person or a cyclist, an immovable object such as a building or a tree, a road configuration such as a highway, a street sign, a traffic light, a tunnel, a roundabout, a turning lane, a traffic volume, a topographic Structure such as a slope, a time, a temperature, a precipitation value, a weather and / or a season; and that the metadata is an index value of the criticality of a scenario, an identification of a road type such as a highway, a country road or a street in a locality such as a city or a village, a specific intersection arrangement, a specific road sign, a specific bridge or tunnel construction, a time of day such as morning or afternoon, a specific level of solar radiation, a specific weather situation such as a light rain shower or a heavy thunderstorm, country-specific markings and/or country-specific characteristics of the traffic signs.
Vorteilhafterweise sind die Sensoren als Radarsysteme, LIDAR-Systeme zur optischen Abstands- und Geschwindigkeitsmessung, bildaufnehmende 2D/3D-Kameras im sichtbaren, IR- und/oder UV-Bereich, GPS-Systeme, Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Spannungssensoren, Drehmomentsensoren, Drehzahlsensoren, Niederschlagssensoren und/oder Temperatursensoren ausgebildet.Advantageously, the sensors are radar systems, LIDAR systems for optical distance and speed measurement, image-recording 2D/3D cameras in the visible, IR and/or UV range, GPS systems, acceleration sensors, speed sensors, capacitive sensors, inductive sensors, voltage sensors , torque sensors, speed sensors, precipitation sensors and / or temperature sensors.
Insbesondere sind das Szenarien-Analysemodul, das Metadaten-Analysemodul, das Szenarien-Synthesemodul, der Testagent und/oder das Simulationsmodul in einer Cloud-Computing-Infrastruktur integriert.In particular, the scenario analysis module, the metadata analysis module, the scenario synthesis module, the test agent and/or the simulation module are integrated in a cloud computing infrastructure.
Vorteilhafterweise ist/sind die Sensoreinrichtung und/oder das Eingabemodul mit Mobilfunkmodulen des 5G oder 6G-Mobifunkstandards zum Senden und Empfangen von Daten ausgestattet.Advantageously, the sensor device and/or the input module is/are equipped with mobile radio modules of the 5G or 6G mobile radio standard for sending and receiving data.
Gemäß einem dritten Aspekt stellt die Erfindung ein Computerprogrammprodukt bereit, das einen ausführbaren Programmcode umfasst, der derart konfiguriert ist, dass er bei seiner Ausführung das Verfahren gemäß dem ersten Aspekt ausführt.According to a third aspect, the invention provides a computer program product comprising executable program code configured to, when executed, carry out the method according to the first aspect.
Nachfolgend wird die Erfindung anhand von in der Zeichnung dargestellten Ausführungsbeispielen näher erläutert.The invention is explained in more detail below using exemplary embodiments shown in the drawing.
Dabei zeigt:
-
1 ein Blockdiagramm zur Erläuterung eines Ausführungsbeispiels eines erfindungsgemäßen Systems; -
2 ein Flussdiagramm zur Erläuterung der einzelnen Verfahrensschritte eines erfindungsgemäßen Verfahrens; -
3 ein Blockdiagramm eines Computerprogrammprodukt gemäß einer Ausführungsform des dritten Aspekts der Erfindung.
-
1 a block diagram to explain an exemplary embodiment of a system according to the invention; -
2 a flowchart to explain the individual method steps of a method according to the invention; -
3 a block diagram of a computer program product according to an embodiment of the third aspect of the invention.
Zusätzliche Kennzeichen, Aspekte und Vorteile der Erfindung oder ihrer Ausführungsbeispiele werden in der nachfolgenden Beschreibung in Verbindung mit den Ansprüchen erläutert.Additional features, aspects and advantages of the invention or its embodiments are explained in the following description in conjunction with the claims.
Für das Testen, Trainieren und Absichern von Fahrerassistenzsystemen (ADAS) und automatisierten Fahrsystemen (ADS) werden zunehmend simulierte Verkehrsszenarien, die durch Programmierung erstellt werden, verwendet. Als Szenario wird im Rahmen der Erfindung ein Verkehrsgeschehen in einer zeitlichen Sequenz bezeichnet. Ein Beispiel für ein Szenario ist das Befahren einer Autobahnbrücke, das Abbiegen auf einer Abbiegespur, das Durchfahren eines Tunnels, das Einbiegen in einen Kreisverkehr oder das Halten vor einem Fußgängerübergang. Darüber hinaus können spezifische Sichtverhältnisse beispielsweise aufgrund der Dämmerung oder einer hohen Sonnenlichteinstrahlung sowie Umweltbedingungen wie das Wetter und die Jahreszeit, das Verkehrsaufkommen sowie bestimmte geographische topographische Verhältnisse ein Szenario beeinflussen. Es ist bekannt, dass bei Starkregen und Glätte die Straßenverhältnisse anders aussehen als an einem sonnigen Sommertag. Beispielsweise kann ein Überholvorgang als ein Szenario beschrieben werden, bei dem ein erstes Fahrzeug sich zunächst hinter einem anderen Fahrzeug befindet, dann einen Spurwechsel auf die andere Fahrbahn durchführt und die Geschwindigkeit erhöht, um das andere Fahrzeug zu überholen. Ein derartiges Szenario wird auch als Cut-In-Szenario bezeichnet.Simulated traffic scenarios that are created through programming are increasingly being used to test, train and validate driver assistance systems (ADAS) and automated driving systems (ADS). In the context of the invention, a scenario is a traffic event in a temporal sequence. An example of a scenario is driving on a highway bridge, turning in a turning lane, driving through a tunnel, turning into a roundabout or stopping in front of a pedestrian crossing. In addition, specific visibility conditions, for example due to twilight or high levels of sunlight, as well as environmental conditions such as the weather and season, traffic volume and certain geographical topographical conditions can influence a scenario. It is well known that road conditions look different in heavy rain and slippery conditions than on a sunny summer day. For example, an overtaking operation can be described as a scenario in which a first vehicle is initially behind another vehicle, then changes lanes to the other lane and increases speed in order to overtake the other vehicle. Such a scenario is also known as a cut-in scenario.
Um Fahrerassistenzsysteme (ADAS) und automatisierte Fahrsysteme (ADS) in einem Kraftfahrzeug einsetzen zu können, müssen diese für einen verlässlichen Einsatz getestet, trainiert, verifiziert, kalibriert und validiert werden. Die Kalibrierung dient dazu, die Funktionen an den jeweiligen Fahrzeugtyp sowie an das gewünschte Verhalten einer Fahrfunktion anzupassen, ohne dabei den Softwarecode zu ändern. Dazu werden die Kalibrierungsparameter modifiziert und dem ADAS/ADS-System in einem Datensatz zur Verfügung gestellt. Ziel der Validierung ist es, den bei der Kalibrierung gewonnenen Datensatz umfassend zu testen, die Zuverlässigkeit und Robustheit eines Fahrerassistenzsystems (ADAS) bzw. eines automatisierten Fahrsystems (ADS) in der gesamten ODD nachzuweisen und anschließend eine Freigabe zu erteilen.In order to be able to use driver assistance systems (ADAS) and automated driving systems (ADS) in a motor vehicle, they must be tested, trained, verified, calibrated and validated for reliable use. The purpose of calibration is to adapt the functions to the respective vehicle type and to the desired behavior of a driving function without changing the software code. For this purpose, the calibration parameters are modified and made available to the ADAS/ADS system in a data set. The aim of the validation is to comprehensively test the data set obtained during calibration, to demonstrate the reliability and robustness of a driver assistance system (ADAS) or an automated driving system (ADS) throughout the entire ODD and then to grant approval.
Unter einem „Modul“ kann im Zusammenhang mit der Erfindung beispielsweise ein Prozessor und/oder eine Prozessoreinheit und/oder eine Speichereinheit zum Speichern von Programmbefehlen verstanden werden. Der Prozessor ist speziell dazu eingerichtet, die Programmbefehle derart auszuführen, um das erfindungsgemäße Verfahren oder einen Schritt des erfindungsgemäßen Verfahrens zu implementieren oder zu realisieren. Insbesondere kann ein Modul in einer Cloud-Computing-Infrastruktur 250 integriert sein.In connection with the invention, a “module” can be understood to mean, for example, a processor and/or a processor unit and/or a memory unit for storing program instructions. The processor is specifically set up to execute the program instructions in order to implement or realize the method according to the invention or a step of the method according to the invention. In particular, a module can be integrated into a
Unter einem „Prozessor“ kann im Zusammenhang mit der Erfindung beispielsweise eine Maschine oder eine elektronische Schaltung verstanden werden. Bei einem Prozessor kann es sich insbesondere um einen Hauptprozessor (engl. Central Processing Unit, CPU), einen Mikroprozessor oder einen Mikrocontroller, beispielsweise eine anwendungsspezifische integrierte Schaltung oder einen digitalen Signalprozessor, möglicherweise in Kombination mit einer Speichereinheit zum Speichern von Programmbefehlen, etc. handeln. Auch kann unter einem Prozessor ein virtualisierter Prozessor, eine virtuelle Maschine oder eine Soft-CPU verstanden werden. Es kann sich beispielsweise auch um einen programmierbaren Prozessor handeln, der mit Konfigurationsschritten zur Ausführung des genannten erfindungsgemäßen Verfahrens ausgerüstet wird oder mit Konfigurationsschritten derart konfiguriert ist, dass der programmierbare Prozessor die erfindungsgemäßen Merkmale des Verfahrens, des Systems, der Module, oder anderer Aspekte und/oder Teilaspekte der Erfindung realisiert. Insbesondere kann der Prozessor hochparallele Recheneinheiten und leistungsfähige Grafikmodule enthalten.In connection with the invention, a “processor” can be understood to mean, for example, a machine or an electronic circuit. A processor can in particular be a main processor (Central Processing Unit, CPU), a microprocessor or a microcontroller, for example an application-specific integrated circuit or a digital signal processor, possibly in combination with a memory unit for storing program instructions, etc . A processor can also be understood as a virtualized processor, a virtual machine or a soft CPU. It can be, for example also be a programmable processor which is equipped with configuration steps for carrying out the said method according to the invention or is configured with configuration steps in such a way that the programmable processor has the inventive features of the method, the system, the modules, or other aspects and/or partial aspects of the invention realized. In particular, the processor can contain highly parallel computing units and powerful graphics modules.
Unter einer „Speichereinheit“ oder einem „Speichermodul“ kann im Zusammenhang mit der Erfindung beispielsweise ein flüchtiger Speicher in Form eines Arbeitsspeichers (engl. Random-Access Memory, RAM) oder ein dauerhafter Speicher wie eine Festplatte oder ein Datenträger oder beispielsweise ein wechselbares Speichermodul verstanden werden. Es kann sich bei dem Speichermodul aber auch um eine cloudbasierte Speicherlösung handeln.In the context of the invention, a “memory unit” or a “memory module” can be understood to mean, for example, a volatile memory in the form of a random access memory (RAM) or a permanent memory such as a hard drive or a data carrier or, for example, a removable memory module become. The storage module can also be a cloud-based storage solution.
Unter „Datenbank“ ist sowohl ein Speicheralgorithmus als auch die Hardware in Form einer Speichereinheit zu verstehen. Insbesondere können die Datenbanken als Teil einer Cloud-Computing-Infrastruktur ausgebildet sein.“Database” means both a storage algorithm and the hardware in the form of a storage unit. In particular, the databases can be designed as part of a cloud computing infrastructure.
Bei dem sich bewegenden Objekt 10 handelt es sich insbesondere um ein Kraftfahrzeug, ein autonom fahrendes Kraftfahrzeug, ein landwirtschaftliches Fahrzeug wie ein Mähdrescher, ein Roboter in der Produktion oder in Service- und Pflegeeinrichtungen, oder um ein Wasserfahrzeug oder um ein Flugobjekt wie ein Flugtaxi. Das sich bewegende Objekt 10 kann aber auch als ein Motorrad oder ein elektrisches Fahrrad ausgebildet sein. Das sich bewegende Objekt 10 kann im Rahmen der Erfindung auch als Ego-Fahrzeug bezeichnet werden.The moving
Die Sensoreinrichtung 200 ist insbesondere mit dem sich bewegenden Objekt 10 verbunden und umfasst Sensoren 210, die Sensordaten 220 von der Umgebung des Objekts 10 wie Straßenmarkierungen, Fahrzeuge, Personen, Leitplanken, Verkehrsschilder, etc. erfassen und an das Eingabemodul 300 übermitteln.The
Unter Sensordaten 220 sind im Zusammenhang mit der Erfindung sowohl Rohdaten als auch bereits aufbereitete Daten aus den Messergebnissen der Sensoren 220 sowie gegebenenfalls weiteren Datenquellen zu verstehen. Insbesondere kann vorgesehen sein, dass das Eingabemodul 300 mit einer Datenbank 270 verbunden ist, in der weitere Daten enthalten sind. Des Weiteren kann das Eingabemodul 300 eine Benutzerschnittstelle 350 aufweisen beziehungsweise mit einer Benutzerschnittstelle 350 verbunden sein. Die Benutzerschnittstelle 350 ist für die Eingabe und Generierung von Daten in Form von Textnachrichten und/oder Sprachnachrichten und/oder Bildern und Graphiken insbesondere durch einen Benutzer ausgebildet. Für die Eingabe der Daten sind insbesondere eine Tastatur, ein Mikrofon, eine Kamera und/oder ein als Touchscreen ausgebildetes Display vorgesehen.In connection with the invention,
Die Sensoren 210 der Sensoreinrichtung 200 können insbesondere ein oder mehrere Radarsysteme mit einem oder mehreren Radarsensoren, ein oder mehrere LIDAR-Systeme (engl. Light Detection and Ranging) zur optischen Abstands- und Geschwindigkeitsmessung, ein oder mehrere bildaufnehmende 2D/3D-Kameras im sichtbaren Bereich, aber auch im IR- und UV-Bereich, und/oder GPS-Systeme umfassen. Des Weiteren können Beschleunigungssensoren, Geschwindigkeitssensoren, kapazitive Sensoren, induktive Sensoren, Spannungssensoren, Drehmomentsensoren, Drehzahlsensoren, Niederschlagssensoren und/oder Temperatursensoren, etc. vorgesehen sein.The
Insbesondere ist die 2D/3D-bildaufnehmende Kamera als RGB-Kamera im sichtbaren Bereich mit den Grundfarben Blau, Grün und Rot ausgebildet. Es kann aber auch noch zusätzlich eine UV-Kamera im ultravioletten Bereich und/oder eine IR-Kamera im infraroten Bereich vorgesehen sein. Die sich durch ihr Aufnahmespektrum unterscheidenden Kameras können somit unterschiedliche Lichtverhältnisse in dem Aufnahmebereich Modellen. Des Weiteren ist vorgesehen, dass eine 3D-Kamera als Stereokamera ausgebildet ist.In particular, the 2D/3D image-recording camera is designed as an RGB camera in the visible range with the primary colors blue, green and red. However, a UV camera in the ultraviolet range and/or an IR camera in the infrared range can also be provided. The cameras, which differ in their recording spectrum, can therefore model different lighting conditions in the recording area. Furthermore, it is envisaged that a 3D camera is designed as a stereo camera.
Die Aufnahmefrequenz der Sensoreinrichtung 200 ist insbesondere für schnelle Geschwindigkeiten des sich bewegenden Objekts 10 ausgelegt und kann Sensordaten 220 mit einer hohen Bildaufnahmefrequenz aufzunehmen. Des Weiteren kann die Sensoreinrichtung 200 für die Erfassung von akustischen Signalen mit einem Mikrofon ausgestattet sein. Hierdurch können Abrollgeräusche von Reifen oder Motorgeräusche aufgenommen werden.The recording frequency of the
Zudem kann vorgesehen sein, dass die Sensoreinrichtung 200 automatisch den Bildaufnahmeprozess dann startet, wenn sich eine flächenmäßig signifikante Änderung im Aufnahmebereich der Sensoreinrichtung 200 ergibt, beispielsweise wenn eine deutliche Änderung einer Verkehrssituation erkennbar ist. Hierdurch wird ein selektiver Datenerfassungsprozess ermöglicht und nur relevante Sensordaten 220 werden von dem Eingabemodul 300 verarbeitet. Hierdurch können Rechenkapazitäten effizienter genutzt werden.In addition, it can be provided that the
Insbesondere ist vorgesehen, als Kameratyp für eine oder mehrere Kameras eine wetterfeste Action-Kamera zu verwenden, die insbesondere im Außenbereich des Objekts 10 angeordnet sein kann. Eine Action-Kamera verfügt über weitwinkelige Fischaugen-Objektive, wodurch es möglich ist, einen sichtbaren Radius von ca. 180° zu erreichen. Hierdurch kann eine vorausliegende Fahrbahn umfassend abgebildet werden. Action-Kameras können üblicherweise Videos in Full HD (1.920 x 1.080 Pixel) aufzeichnen, jedoch können auch Action-Kameras in Ultra HD bzw. 4K (mindestens 3.840 x 2.160 Pixel) eingesetzt werden, wodurch sich eine deutliche Qualitätssteigerung in der Bildqualität ergibt. Die Bildaufnahmefrequenz beträgt üblicherweise 60 Bilder pro Sekunde in 4K und bis zu 240 pro Sekunde in Full HD. Außerdem kann noch ein integrierter Bildstabilisator vorgesehen sein. Zudem sind Action-Kameras häufig mit einem integrierten Mikrofon ausgestattet. Um Hintergrundgeräusche gezielt auszublenden, können darüber hinaus Verfahren der differentiellen Signalverarbeitung verwendet werden.In particular, it is intended to use a weatherproof action camera as the camera type for one or more cameras, which is particularly suitable for Outside area of the
Die Anbringungsposition einer Kamera an dem Objekt 10 bestimmt, welcher Aufnahmebereich von der Kamera aufgenommen werden kann. Es kann insbesondere vorgesehen sein, dass die Aufnahmebereiche von zwei oder mehr Kameras sich überlappen, um beispielsweise mittels einer nachfolgenden Bildverarbeitung eine Panoramadarstellung zu erzeugen. Hierdurch kann die räumliche Umgebung eines sich bewegenden Objekts 10 umfassend erfasst werden.The attachment position of a camera on the
Radarsensoren können für längere Strecken bis zu 250 Meter verwendet werden und haben den Vorteil, gegenüber Wetter- und Lichtverhältnissen unabhängig zu sein. Die Leistungsfähigkeit eines Radars hängt von vielen Faktoren ab wie den gewählten Hardwarekomponenten, der Softwareverarbeitung und dem Radarecho. So ist beispielsweise die Radargenauigkeit bei einem geringeren Signal-Rausch-Verhältnis weniger präzise als bei einem hohen Signal-Rausch-Verhältnis. Zudem ist die Einbauposition entscheidend für eine hohe Leistungsfähigkeit eines Radarsensors, da sich Effekte wie eine Mehrwegeausbreitung und eine Verzerrung durch Abdeckungen auf die Detektionsgenauigkeit auswirken.Radar sensors can be used for longer distances of up to 250 meters and have the advantage of being independent of weather and lighting conditions. The performance of a radar depends on many factors such as the selected hardware components, software processing and the radar echo. For example, radar accuracy is less precise with a lower signal-to-noise ratio than with a high signal-to-noise ratio. In addition, the installation position is crucial for the high performance of a radar sensor, as effects such as multipath propagation and distortion caused by covers affect the detection accuracy.
Neben bildaufnehmenden Kameras und Radarsensoren stellen LIDAR-Sensoren einen wichtigen Sensortyp für die Wahrnehmung der Umgebung für sich bewegende Objekte 10 dar. Wie mit Kameras und Radarsensoren kann das Umfeld aufgenommen werden und Abstände zu anderen Umgebungsobjekten gemessen werden. Insbesondere 3D-LIDAR-Sensoren können detaillierte Informationen über ein Umgebungsobjekt aufnehmen durch eine hohe Abtastrate. Im Vergleich zu Radarsensoren zeichnen sich LIDAR-Sensoren durch eine höhere Orts- und Tiefenauflösung aus. Bei LIDAR-Sensoren wird zwischen einem mechanischem Scanning-LIDAR mit mechanisch rotierenden Bauteilen für das Scannen eines Laserstrahls und einem SSL-LIDAR (engl. Solid State Lidar) ohne bewegliche Komponenten unterschieden. Ein SLL-LIDAR-System besteht typischerweise aus einer Laserquelle bzw. einer Laserdiode, optischen Elementen wie Linsen und Diffusoren, Strahlsteuerungselementen, Photodetektoren und Signalverarbeitungseinheiten. Der Aufnahmebereich von SLL-LIDAR ist kleiner, aber die Kosten sind geringer und die Zuverlässigkeit ist höher.In addition to image-recording cameras and radar sensors, LIDAR sensors represent an important type of sensor for perceiving the environment for moving
Des Weiteren ist vorteilhafterweise eine GPS-Verbindung vorgesehen, um den geographischen Standort des Objekts 10 zu ermitteln und diesen den aufgenommenen Sensordaten 220 zuzuordnen.Furthermore, a GPS connection is advantageously provided in order to determine the geographical location of the
Insbesondere kann vorgesehen sein, dass die Sensordaten 220 von mehreren sich bewegenden Objekten 10, insbesondere einer Flotte von Objekten 10, an das Eingabemodul 300 übermittelt werden. Es kann jedoch auch vorgesehen sein, dass die Sensordaten 220 zunächst an die Cloud-Computing-Infrastruktur 250 übermittelt werden und von dort an das Eingabemodul 300 weitergegeben werden. Insbesondere kann vorgesehen sein, dass das Eingabemodul 300 in der Cloud-Computing-Infrastruktur 250 integriert ist. Hierdurch kann eine schnelle Berechnung gewährleistet werden, da cloudbasierte Lösungen den Vorteil von hohen und damit schnellen Rechenleistungen bieten.In particular, it can be provided that the
Die von der Sensoreinrichtung 200 erfassten Sensordaten 220 der Umgebung des Objekts 10 werden mittels Datenverbindungen an das Eingabemodul 300 oder zunächst an die Cloud-Computing-Infrastruktur 250 weitergegeben. Insbesondere ist eine drahtlose Datenverbindung vorgesehen, die beispielsweise als Mobilfunkverbindung und/oder einer Nahfelddatenverbindung wie Bluetooth®, Ethernet, NFC (near field communication) oder Wi-Fi® ausgebildet sein kann. Für die Kommunikation der Sensoreinrichtung 200 mit dem Eingabemodul 300 bzw. der Cloud-Computing-Infrastruktur 250 wird insbesondere eine 5G-Mobilfunkverbindung oder 6G-Mobilfunkverbindung verwendet, da auf diese Weise eine Datenübermittlung in Echtzeit erfolgen kann. Die Sensoreinrichtung 200 ist hierfür mit den entsprechenden Mobilfunkmodulen ausgestattet.The
5G ist der Mobilfunkstandard der fünften Generation und zeichnet sich im Vergleich zum 4G-Mobilfunkstandard durch höhere Datenraten bis zu 10 Gbit/sec, der Nutzung höherer Frequenzbereiche wie beispielsweise 2100, 2600 oder 3600 Megahertz, eine erhöhte Frequenzkapazität und damit einen erhöhten Datendurchsatz und eine Echtzeitdatenübertragung aus, da bis zu eine Million Geräte pro Quadratkilometer gleichzeitig ansprechbar sind. Die Latenzzeiten betragen wenige Millisekunden bis unter 1 ms, so dass Echtzeitübertragungen von Daten und von Berechnungsergebnissen möglich sind. Daher können die von der Sensoreinrichtung 200 aufgenommenen Sensordaten 220 in Echtzeit an das Eingabemodul 300 bzw. die Cloud-Computing-Infrastruktur 250 gesendet werden.5G is the fifth generation mobile communications standard and, compared to the 4G mobile communications standard, is characterized by higher data rates of up to 10 Gbit/sec, the use of higher frequency ranges such as 2100, 2600 or 3600 megahertz, increased frequency capacity and thus increased data throughput and real-time data transmission, as up to a million devices per square kilometer can be addressed simultaneously. The latency times range from a few milliseconds to less than 1 ms, so that real-time transmission of data and calculation results is possible. Therefore, the
Durch die Integration des Eingabemoduls 300 in einer Cloud-Computing-Infrastruktur 250 in Verbindung mit einer 5G-Mobilfunkverbindung kann somit eine Verarbeitung der von der Sensoreinrichtung 200 aufgenommenen Sensordaten 220 in Echtzeit sichergestellt werden. Um die Verbindung zu der Cloud-Computing-Infrastruktur 250 mittels einer Mobilfunkverbindung zu schützen, sind insbesondere kryptographische Verschlüsselungsverfahren vorgesehen.By integrating the
In dem Eingabemodul 300 werden Sensordaten 220 weiterverarbeitet, um aus den Rohdaten der Sensordaten 220 für die weitere Verarbeitung handhabbare Datensätze 320 zu generieren. Dabei kann beispielsweise eine Filterung, eine Zeitsynchronisierung, eine Änderung der Datenformate (z.B. MPEG, JPEG, FP16) oder eine Datenfusion der Sensordaten 220 vorgenommen werden. Zudem können die aus der Datenbank 270 abgerufenen Daten sowie die mittels der Benutzerschnittstelle 350 eingegebenen Daten von dem Eingabemodul 300 in die jeweiligen Datensätze 320 integriert werden.
Die Datensätze 320 werden nun sowohl an das Szenario-Analysemodul 400 als auch an das Metadaten-Analysemodul 500 weitergegeben. In dem Szenarien-Analysemodul 400 werden mittels einer Softwareapplikation 450 aus den Datensätzen 320 Szenarien SZi abgeleitet. Ein Beispiel für ein Szenario SZi ist ein Überholvorgang, bei dem ein erstes Fahrzeug sich zunächst hinter einem anderen Fahrzeug befindet, dann einen Spurwechsel auf die andere Fahrbahn durchführt und die Geschwindigkeit erhöht, um das andere Fahrzeug zu überholen. Ein derartiges Szenario wird auch als Cut-In-Szenario bezeichnet. Andere Beispiele von Szenarien ist das Einbiegen in eine andere Straße, das Warten an einer Ampel, das Befahren einer Baustelle, etc.The data sets 320 are now passed on to both the
Im Rahmen der vorliegenden Erfindung wird zwischen einem parametrisierten Szenario SZp und einem konkreten Szenario SZc unterschieden. Ein parametrisiertes Szenario SZp kann auch als logisches Szenario bezeichnet werden. Ein beliebiges parametrisiertes Szenario SZpi wird durch verschiedene Szenarioparameter P1, P2, ..., Pn aus einer Menge von möglichen Szenarioparametern Pi und zugehörigen Szenarioparameterwerten PV1, PV2, ..., PVn aus einer Menge von möglichen Szenarioparameterwerten PVi definiert, wobei Szenarioparameterwerte PVi den Wertebereich eines Szenarioparameters Pi festlegen. Ein Szenarioparameter Pi stellt beispielsweise eine physikalische Größe, eine chemische Größe, ein Drehmoment, eine Drehzahl, eine Spannung, eine Stromstärke, eine Beschleunigung, eine Geschwindigkeit, einen Bremswert, eine Richtung, einen Winkel, einen Radius, einen Ort, eine Zahl, ein bewegliches Objekt wie ein Kraftfahrzeug, eine Person oder einen Radfahrer, ein unbewegliches Objekt wie ein Gebäude oder einen Baum, eine Straßenkonfiguration wie eine Autobahn, ein Straßenschild, eine Ampel, einen Tunnel, einen Kreisverkehr, eine Abbiegespur, ein Verkehrsaufkommen, eine topographische Struktur wie eine Steigung, eine Uhrzeit, eine Temperatur, einen Niederschlagswert, eine Witterung und/oder eine Jahreszeit dar. Szenarioparameter Pi kennzeichnen somit im Rahmen der vorliegenden Erfindung Eigenschaften und Merkmale eines Szenarios. Ein Beispiel für einen Szenarioparameter Pi eines Szenarios SZpi ist die Geschwindigkeit eines Ego-Fahrzeugs und der Wertebereich des zugehörigen Szenarioparameterwertes PVi kann den Bereich von 100 km/h bis 180 km/h umfassen. Für ein anderes Szenario SZpk kann der Wertebereich des Szenarioparameterwertes PVi sich von 40 km/h bis 70 km/h erstrecken.In the context of the present invention, a distinction is made between a parameterized scenario SZp and a concrete scenario SZc. A parameterized scenario SZp can also be referred to as a logical scenario. Any parameterized scenario SZp i is defined by various scenario parameters P 1 , P 2 , ..., P n from a set of possible scenario parameters P i and associated scenario parameter values PV 1 , PV 2 , ..., PV n from a set of possible ones Scenario parameter values PV i are defined, with scenario parameter values PV i defining the value range of a scenario parameter P i . A scenario parameter P i represents, for example, a physical quantity, a chemical quantity, a torque, a speed, a voltage, a current, an acceleration, a speed, a braking value, a direction, an angle, a radius, a location, a number, a moving object such as a motor vehicle, a person or a cyclist, an immovable object such as a building or a tree, a road configuration such as a highway, a street sign, a traffic light, a tunnel, a roundabout, a turning lane, a traffic volume, a topographical structure such as a gradient, a time, a temperature, a precipitation value, a weather and/or a season. Scenario parameters P i thus characterize properties and features of a scenario within the scope of the present invention. An example of a scenario parameter P i of a scenario SZp i is the speed of an ego vehicle and the value range of the associated scenario parameter value PV i can cover the range from 100 km/h to 180 km/h. For another scenario SZp k, the value range of the scenario parameter value PV i can extend from 40 km/h to 70 km/h.
Ein parametrisiertes Szenario SZp umfasst eine zeitliche Folge von Zeitintervallen Δt1, Δt2., ..., Δtn, in denen jeweils verschiedene Szenen und Ereignisse stattfinden. Ein parametrisiertes Szenario SZp beginnt mit einer Startszene und entwickelt sich dann durch auftretende Ereignisse weiter, aus denen im zeitlichen Verlauf neue Folgeszenen entstehen. Die Startszene wird somit durch ein oder mehrere Ereignisse verändert. Bei einem Ereignis kann es sich sowohl um eine von einem Verkehrsteilnehmer aktiv ausgelöste Reaktion wie eine Beschleunigung handeln als auch um ein Ereignis, das zyklisch wiederkehrt, wie beispielsweise die Schaltvorgänge einer Ampel. Die Startszene und die einzelnen Folgeszenen umfassen somit jeweils nur ein kleines Zeitintervall Δt bzw. eine Momentaufnahme, während ein parametrisiertes Szenario SZp eine längere Zeitspanne umfasst. Eine mögliche Veranschaulichung eines Szenarios SZp ist eine Graphendarstellung, bei der die Ereignisse als Kanten und die einzelnen Szenen als Knoten eines Graphen dargestellt werden.A parameterized scenario SZp comprises a temporal sequence of time intervals Δt 1 , Δt 2 ., ..., Δt n , in each of which different scenes and events take place. A parameterized scenario SZp begins with a starting scene and then develops further through occurring events, from which new subsequent scenes emerge over time. The starting scene is thus changed by one or more events. An event can be a reaction actively triggered by a road user, such as an acceleration, or an event that recurs cyclically, such as the switching of a traffic light. The start scene and the individual subsequent scenes therefore only cover a small time interval Δt or a snapshot, while a parameterized scenario SZp covers a longer period of time. A possible illustration of a scenario SZp is a graph representation in which the events are represented as edges and the individual scenes as nodes of a graph.
Bei einem parametrisierten oder logischen Szenario SZp sind sowohl die Szenarioparameter Pi als auch die zugehörigen Szenarioparameterwerte PVi nicht alle festgelegt. Als ein konkretes Szenario SZc wird ein Szenario SZ bezeichnet, bei dem die konkreten Szenarioparameter Pci und die zugehörigen konkreten Szenarioparameterwerte PVci bzw. Wertebereiche der konkreten Szenarioparameterwerte PVci festgelegt sind. Bei beiden Szenarien, sowohl dem parametrisierten Szenario SZp als auch dem konkreten Szenario SZc, handelt es sich jeweils um Szenarien, die insbesondere in einem maschinenlesbaren Code bzw. Skript geschrieben sind.In a parameterized or logical scenario SZp, both the scenario parameters P i and the associated scenario parameter values PV i are not all fixed. A scenario SZ is referred to as a concrete scenario SZc, in which the concrete scenario parameters Pc i and the associated concrete scenario parameter values PVc i or value ranges of the concrete scenario parameters values PVc i are fixed. Both scenarios, both the parameterized scenario SZp and the concrete scenario SZc, are scenarios that are written in particular in a machine-readable code or script.
Die Softwareapplikation 450 erstellt aus den Datensätzen 320 parametrisierte Szenarien SZpi. So kann mittels der Softwareapplikation 450 aus einem oder mehreren Datensätzen 320 für einen bestimmten geographischen Ort ein jeweils passendes parametrisiertes Szenario SZpi abgeleitet werden. Die Softwareapplikation 450 verwendet insbesondere Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz zur Identifikation und Klassifikation der parametrisierten Szenarien SZpi. Bei den Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz kann es sich um Mittelwerte, Minimal- und Maximalwerte, Lookup Tabellen, Modelle zu Erwartungswerten, lineare Regressionsverfahren, Gauß-Prozesse, Fast Fourier Transformationen, Integral- und Differentialrechnungen, Markov-Verfahren, Wahrscheinlichkeitsverfahren wie Monte Carlo-Verfahren, Temporal Difference Learning, erweiterte Kalman-Filter, radiale Basisfunktionen, Datenfelder, konvergente neuronale Netzwerke, tiefe neuronale Netzwerke, rückgekoppelte neuronale Netzwerke, und/oder gefaltete neuronale Netzwerke handeln. Insbesondere können die Algorithmen der künstlichen Intelligenz als Encoder und Decoder mit neuronalen Netzwerken und/oder um zumindest einen Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV) ausgebildet sein.The
Ein neuronales Netzwerk besteht aus Neuronen, die in mehreren Schichten angeordnet und unterschiedlich miteinander verbunden sind. Ein Neuron ist in der Lage, an seinem Eingang Informationen von außerhalb oder von einem anderen Neuron entgegenzunehmen, die Information in einer bestimmten Art zu bewerten und sie in veränderter Form am Neuronen-Ausgang an ein weiteres Neuron weiterzuleiten oder als Endergebnis auszugeben. Hidden-Neuronen sind zwischen den Input-Neuronen und Output-Neuronen angeordnet. Je nach Netzwerktyp können mehrere Schichten von Hidden-Neuronen vorhanden sein. Sie sorgen für die Weiterleitung und Verarbeitung der Informationen. Output-Neuronen liefern schließlich ein Ergebnis und geben dieses an die Außenwelt aus. Neuronale Netzwerke lassen sich durch unbeaufsichtigtes oder überwachtes Lernen trainieren.A neural network consists of neurons arranged in several layers and connected to each other in different ways. A neuron is able to receive information from outside or from another neuron at its input, evaluate the information in a certain way and forward it in a modified form to another neuron at the neuron output or output it as the end result. Hidden neurons are located between the input neurons and output neurons. Depending on the network type, there may be multiple layers of hidden neurons. They ensure the forwarding and processing of the information. Output neurons ultimately deliver a result and output it to the outside world. Neural networks can be trained through unsupervised or supervised learning.
Durch die unterschiedliche Anordnung und Verknüpfung der Neuronen entstehen verschiedene Typen von neuronalen Netzwerken wie insbesondere ein vorwärtsgerichtetes Netzwerk (engl. Feedforward Neural Network, FNN), ein rückgekoppeltes Netzwerk (engl. Recurrent Neural Network, RNN) oder ein gefaltetes neuronales Netzwerk (engl. Convolutional Neural Network, CNN). Ein gefaltetes neuronales Netzwerk besitzt mehrere Faltungsschichten und ist für maschinelles Lernen und Anwendungen im Bereich der Mustererkennung und Bilderkennung sehr gut geeignet. Da ein großer Teil der von den Sensoren aufgenommenen Daten als Bilder vorliegen, werden insbesondere gefaltete neuronale Netzwerke (CNN) verwendet.The different arrangement and connection of the neurons creates different types of neural networks, such as in particular a feedforward neural network (FNN), a feedback network (recurrent neural network, RNN) or a folded neural network (convolutional Neural Network, CNN). A convolutional neural network has multiple convolution layers and is very suitable for machine learning and applications in the field of pattern recognition and image recognition. Since a large part of the data recorded by the sensors is available as images, convolutional neural networks (CNN) are used in particular.
Das Convolutional Neural Network (CNN) ist für maschinelles Lernen und Anwendungen mit Künstlicher Intelligenz (KI) im Bereich der Bild- und Spracherkennung besonders gut geeignet, da es mehrere Faltungsschichten aufweist. Die Funktionsweise eines Convolutional Neural Networks ist in einer gewissen Weise biologischen Vorgängen nachempfunden und der Aufbau ist vergleichbar der Sehrinde des Gehirns. Herkömmliche neuronale Netzwerke bestehen aus voll- oder teilverknüpften Neuronen in mehreren Ebenen und diese Strukturen stoßen bei der Verarbeitung von Bildern an ihre Grenzen, da eine der Pixelanzahl entsprechende Zahl an Eingängen vorhanden sein müsste. Das Convolutional Neural Network setzt sich aus verschiedenen Schichten zusammen und ist vom Grundprinzip ein zum Teil lokal verknüpftes neuronales Feedforward-Netzwerk. Die einzelnen Schichten des CNN sind die Convolutional-Schicht, die Pooling-Schicht und die vollständig verknüpfte Schicht. Das Convolutional Neural Network (CNN) eignet sich daher für maschinelles Lernen und Anwendungen der Künstlichen Intelligenz mit großen Mengen an Eingabedaten wie in der Bilderkennung. Das Netzwerk arbeitet zuverlässig und ist gegenüber Verzerrungen oder anderen optischen Veränderungen unempfindlich. Das CNN kann unter verschiedenen Lichtverhältnissen und in unterschiedlichen Perspektiven aufgenommene Bilder verarbeiten. Es erkennt dennoch die typischen Merkmale eines Bildes. Da das CNN mehrere lokale teilverknüpfte Schichten umfasst, hat es einen wesentlich geringeren Speicherplatzbedarf als vollverknüpfte neuronale Netze, da durch die Faltungsschichten die Speicheranforderungen erheblich reduziert werden. Zudem verkürzt sich hierdurch die Trainingszeit eines CNN, insbesondere bei der Verwendung von modernen Grafikprozessoren.The Convolutional Neural Network (CNN) is particularly well suited for machine learning and artificial intelligence (AI) applications in the field of image and speech recognition because it has multiple convolution layers. The way a convolutional neural network works is to a certain extent modeled on biological processes and the structure is comparable to the visual cortex of the brain. Conventional neural networks consist of fully or partially connected neurons in several levels and these structures reach their limits when processing images, as there would have to be a number of inputs corresponding to the number of pixels. The convolutional neural network is made up of different layers and is basically a partially locally linked feedforward neural network. The individual layers of the CNN are the convolutional layer, the pooling layer and the fully connected layer. The Convolutional Neural Network (CNN) is therefore suitable for machine learning and artificial intelligence applications with large amounts of input data, such as in image recognition. The network works reliably and is insensitive to distortions or other optical changes. The CNN can process images captured under different lighting conditions and from different perspectives. It still recognizes the typical features of an image. Since the CNN includes several local partially connected layers, it has a significantly lower storage space requirement than fully connected neural networks, as the convolutional layers significantly reduce the storage requirements. This also shortens the training time of a CNN, especially when using modern graphics processors.
Die von der Softwareapplikation 450 identifizierten und klassifizierten Szenarien SZpi werden direkt an das Szenarien-Synthesemodul 700 weitergegeben oder sie werden in einer Datenbank, insbesondere in der Cloud-Computing-Infrastruktur 250 gespeichert, aus der sie für eine Weiterverarbeitung von dem Szenarien-Synthesemodul 700 abgerufen werden können. Insbesondere sind sowohl das Szenarien-Analysemodul 400 als auch das Szenarien-Synthesemodul 700 in der Cloud-Computing-Infrastruktur 250 integriert. Dies gilt auch für das Metadaten-Analysemodul 500.The scenarios SZp i identified and classified by the
In dem Metadaten-Analysemodul 500 werden die Datensätze 320 in Metadaten 570 konvertiert und klassifiziert (gelabelt). Hierzu verwendet das Metadaten-Analysemodul 500 eine Softwareapplikation 550, die gleichfalls verschiedene Berechnungsverfahren und/oder Algorithmen der künstlichen Intelligenz wie insbesondere Deep Learning mit beispielsweise zumindest einem gefalteten neuronalen Netzwerk (CNN) und/oder zumindest einem Lernverstärkungs-Agenten (Reinforcement Learning Agent, LV) verwenden kann. Bei den Metadaten 570 handelt es sich beispielsweise um einen Indexwert zur Kritikalität eines Szenarios, eine Identifikation eines Straßentyps wie einer Autobahn, einer Landstraße oder einer Straße in einer Ortschaft wie einer Stadt oder einem Dorf, eine spezifische Kreuzungsanordnung, ein spezifisches Straßenschild, eine spezifische Brücken- oder Tunnelkonstruktion, eine Tageszeitangabe wie vormittags oder nachmittags, einen bestimmten Sonneneinstrahlungswert, eine bestimmte Wettersituation wie ein leichtes Regenschauer oder ein heftiges Gewitter, eine länderspezifische Kennzeichnung wie beispielsweise Deutschland oder die Schweiz, länderspezifische Eigenschaften der Verkehrsschilde, etc. Die klassifizierten Metadaten 570 werden dann an das Szenarien-Synthesemodul 700 weitergeleitet oder sie werden in einer Datenbank, insbesondere in der Cloud-Computing-Infrastruktur 250 gespeichert, aus der sie für eine Weiterverarbeitung von dem Szenarien-Synthesemodul 700 abgerufen werden können.In the
Das Szenarien-Synthesemodul 700 weist eine Softwareapplikation 750 auf, die durch eine Verknüpfung der Metadaten 570 mit den bereits generierten Szenarien SZpi die Menge der verfügbaren Szenarien erweitert. Ein Beispiel für ein Szenario SZpi stellt ein Überholmanöver, ein sogenanntes Cut-in-Szenario dar. Die Szenarioparameter Pi des Szenarios SZpi beziehen sich jedoch in erster Linie auf die Geschwindigkeit des Ego-Fahrzeugs 10, die Geschwindigkeit des von dem Ego-Fahrzeug 10 überholten Target-Fahrzeugs, den Abstand zwischen den beiden Fahrzeugen, eine notwendige Beschleunigung zur Durchführung des Überholmanövers, etc. Die weiteren Rahmenbedingungen des Überholmanövers, wie beispielsweise ein Überholmanöver auf einer Autobahn, werden in dem aus den realen Sensordaten 220 generierten Szenario SZpi als gegeben hingenommen und stellen einen integralen Bestandteil des Szenarios SZpi dar. Durch die Verknüpfung eines solchen Szenarios SZpi mit weiteren Metadaten 570, wie beispielsweise einer Landstraße anstelle einer Autobahn, können weitere Szenarien SZpk generiert werden, wodurch die Menge von verfügbaren parametrisierten virtuellen Szenarien Szpi; Szpk vergrößert wird. Die auf diese Weise erstellte erweiterte Menge von parametrisierten virtuellen Szenarien Szpi; Szpk wird in einer Szenariendatenbank 770, die insbesondere in der Cloud-Computing-Infrastruktur 250 angeordnet ist, gespeichert.The
Für die Erstellung von Testfällen Ti, die für die Verifizierung, Kalibrierung und/oder Validierung von ADAS/ADS-Systemen von Interesse sind, wählt ein Testagent 850 des Testfallmoduls 800 in der Szenariendatenbank 770 aus der erweiterten Menge von parametrisierten virtuellen Szenarien Szpi; Szpk passende parametrisierte Szenarien Szpi; Szpk und konkrete Szenarioparameter Pci; Pck aus. Zudem können von dem Testagenten 850 aus weiteren Datenbanken weitere Parameter, wie beispielsweise Kalibrierungsparameter ausgewählt werden. Die erstellten Testfälle Ti werden in einer Testfalldatenbank 870 gespeichert. Diese von dem Testagenten 850 erstellten relevanten Testfälle Ti decken die in der „Operational Design Domain“ (ODD) festgelegten relevanten Verkehrssituationen ab, die von einem ADAS/ADS-System beherrscht werden müssen. Bei einem Testfall Ti handelt es sich somit um ein relevantes konkretes Szenario SZpi durch die Festlegung von konkreten Szenarioparametern Pci und gegebenenfalls weiteren Parametern. Insbesondere erstellt der Testagent 850 mittels einer Softwareapplikation eine Mehrzahl von Testfällen Ti für eine oder mehrere Fahraufgaben. Die jeweilige Fahraufgabe wird vor dem Starten einer Simulation formuliert, beispielsweise von einem Experten wie einem Ingenieur. Es kann aber auch vorgesehen sein, dass eine Liste von Fahraufgaben von einer Softwareapplikation generiert wird. Eine beispielhafte Fahraufgabe ist ein Spurwechsel auf einer Autobahn.For the creation of test cases T i that are of interest for the verification, calibration and/or validation of ADAS/ADS systems, a
Für die Auswahl und die Gestaltung der Testfälle Ti ist insbesondere eine Teststrategie vorgesehen, die vorgibt, wie der Testagent 850 die Testfälle Ti erstellt. Für die Festlegung der Teststrategie können verschiedene Berechnungsverfahren und Algorithmen, insbesondere Algorithmen der künstlichen Intelligenz vorgesehen sein.For the selection and design of the test cases T i, a test strategy is provided in particular, which specifies how the
Die Teststrategie des Testagenten 850 entscheidet somit über die Konfiguration der Testfälle Ti durch die Auswahl von passenden parametrisierten Szenarien aus der erweiterten Menge von Szenarien Szpi; Szpk und konkreten Szenarioparametern Pci; Pck sowie gegebenenfalls weiteren Parametern. Die verwendete Teststrategie wird durch den Zweck der Simulation vorgegeben, d.h. welche Erkenntnisse über das Verhalten eines ADAS/ADS-Systems bzw. einer bestimmten Fahrfunktion bei der Durchführung einer festgelegten Fahraufgabe durch eine Simulation gewonnen werden sollen. Beispielsweise können für die virtuelle Validierung eines ADAS/ADS-Systems verschiedene parametrisierte Szenarien SZpi und Kombinationen von konkreten Szenarioparametern mittels eines kombinatorischen Verfahrens erstellt werden. Darüber hinaus kann eine iterative Strategie auf der Grundlage mathematischer Optimierer implementiert werden.The test strategy of the
In der Testfalldatenbank 870 können für die Testfälle Ti noch weitere Textnachrichten, Videosequenzen und oder Audiosequenzen, etc. mit weiteren Informationen gespeichert werden, die für eine Erprobung der Testfälle Ti in einer Simulationsumgebung 940 relevant sein können.In the
Für die Erstellung der Simulationsumgebung 940 für die Durchführung eines virtuellen Tests und Trainings eines ADAS/ADS-Systems übergibt der Testagent 850 einen Testfall Ti oder mehrere Testfälle Ti an das Simulationsmodul 900. Zudem kann das Simulationsmodul 900 zusätzliche Informationen aus einer weitere Datenbank 970 abrufen, die für die Erstellung der Simulationsumgebung 940 wichtig sind. Diese Datenbank 970 kann wiederum in der Cloud-Computing-Infrastruktur 250 integriert sein. In der Datenbank 970 können insbesondere weitere historische Daten in Form von Bildern, Graphiken, Zeitreihen, Kenngrößen, etc. gespeichert sein. So können beispielsweise Zielgrößen und Zielwerte in der Datenbank 970 abgelegt sein, die einen Sicherheitsstandard für das ADAS/ADS-System definieren, der bei der Simulation des Verhaltens des ADAS/ADS-Systems in der jeweiligen durch Testfall Ti oder die Testfälle Ti bestimmte Simulationsumgebung eingehalten werden muss.To create the
Darüber hinaus können weitere Datenquellen beziehungsweise Datenbanken für die Erstellung der Simulationsumgebung 940 verwendet werden. Hierzu zählen insbesondere Datenbanken, die Daten über das Straßennetz mit Straßenspezifikationen wie beispielsweise Fahrspuren und Brücken, die Straßeninfrastruktur wie beispielsweise den Straßenbelag, die Randbebauung, die Straßenführung, etc. beinhalten und von Behörden zur Verfügung gestellt werden.In addition, other data sources or databases can be used to create the
Zudem sind Daten über Verkehrszahlen wie das reale stündliche Verkehrsaufkommen an einem bestimmten Verkehrsschauplatz für bestimmte Szenarien-Typen, wie beispielsweise ein Stau, von Interesse. Eine weitere Datenquelle bilden Luftbildaufnahmen beispielsweise von Google Maps. Für Straßenbilder kann aber auch Mapillary verwendet werden. Mapillary sammelt benutzergenerierte Straßenbilder mit Geo-Tags, die von Dashcams und Smartphones aufgezeichnet wurden. Diese Bilder stehen unter einer Open-Source-Lizenz zur Verfügung. Da auch die Wetterverhältnisse für eine Simulationsumgebung 940 wichtig sind, stellen Wetterdaten eine weitere Datenquelle dar. Dabei umfassen Wetterdaten historische Wettermessungen und zukünftige Wettervorhersagen.In addition, data on traffic figures such as the real hourly traffic volume at a specific traffic location are of interest for certain types of scenarios, such as a traffic jam. Another source of data is aerial photography, for example from Google Maps. Mapillary can also be used for street images. Mapillary collects geo-tagged user-generated street images captured by dashcams and smartphones. These images are available under an open source license. Since the weather conditions are also important for a
Die Berechnung und Speicherung der geografischen Koordinaten der erfassten Objekte erfolgt vorzugsweise im EPSG 25832-Koordinatensystem (Universal Transverse Mercator (UTM) Zone 32N). Dieses System wird auch von Behörden in Deutschland eingesetzt. Die laterale und die longitudinale Position werden in Metern dargestellt. Darüber hinaus können globale Referenzsysteme wie das „World Geodetic System 1984 (WGS 84)“ verwendet werden, das auch in GPS-Empfängern (Global Positioning System) Verwendung findet. So kann beispielsweise der gesamte Karteninhalt von Deutschland importiert werden.The calculation and storage of the geographical coordinates of the detected objects is preferably carried out in the EPSG 25832 coordinate system (Universal Transverse Mercator (UTM) Zone 32N). This system is also used by authorities in Germany. The lateral and longitudinal positions are presented in meters. In addition, global reference systems such as the “World Geodetic System 1984 (WGS 84)”, which is also used in GPS (Global Positioning System) receivers, can be used. For example, the entire map content from Germany can be imported.
Das Simulationsmodul 900 weist eine Softwareapplikation 950 auf für die Erstellung der Simulationsumgebung 940 aus einem oder mehreren Testfällen Ti, wobei die Testfälle Ti erfindungsgemäß auf einer Re-Simulation der aus realen Sensordaten 220 abgeleiteten parametrisierten Szenarien SZpi durch eine Variation mittels Metadaten beruhen. Eine definierte Fahraufgabe für ein ADAS/ADS-System und/oder eine bestimmte Fahrfunktion kann in der jeweiligen durch einen oder mehrere Testfälle Ti bestimmten Simulationsumgebung 940 virtuell getestet werden bzw. simuliert werden. Die simulierten Testergebnisse bzw. Trainingsergebnisse können nun beispielsweise an ein Bewertungsmodul übergeben werden, das mit unterschiedlichen Metriken, insbesondere in Form von Leistungsindikatoren (KPIs), die simulierten Testergebnisse bzw. Trainingsergebnisse hinsichtlich der Leistungs- und Funktionsfähigkeit von ein oder mehreren Funktionen bzw. der Gesamtperformance eines ADAS/ADS-Systems bzw. einer Fahrfunktion bewertet. Zudem kann die Qualität des durchgeführten Simulationsverfahrens bewertet insbesondere in Form von Simulationsqualitätskriterien (SQCs). Aus diesen Bewertungen kann das Bewertungsmodul Bewertungsergebnisse erstellen.The
KPIs dienen zur Beschreibung der Leistung eines zu testenden ADAS/ADS-Systems, wobei für verschiedene Bewertungskategorien wie Komfort, Sicherheit, Natürlichkeit des Fahrens und Effizienz unterschiedliche KPIs festgelegt werden. Zusätzlich können weitere KPIs implementiert werden, um die korrekte Funktionalität des zu testenden ADAS/ADS-Systems zu verifizieren. Ein Beispiel für ein KPI ist die Bewertung einer minimalen Distanz zu anderem Fahrzeug oder einer mittleren Beschleunigung bei einem Verzögerungsszenario. Auf Basis einer Bewertungsmetrik lassen sich somit die Ergebnisse für einen simulierten Testfall Ti durch Zahlenwerte bzw. boolesche Werte darstellen.KPIs are used to describe the performance of an ADAS/ADS system under test, with different KPIs being set for different evaluation categories such as comfort, safety, naturalness of driving and efficiency. Additionally, additional KPIs can be implemented to verify the correct functionality of the ADAS/ADS system under test. An example of a KPI is the evaluation of a minimum distance to another vehicle or an average acceleration in a deceleration scenario. Based on an evaluation metric, the results for a simulated test case T i can be represented by numerical values or Boolean values.
In
In einem Schritt S10 werden Sensordaten 220 durch Sensoren 210 zumindest einer Sensoreinrichtung 200, die mit zumindest einem sich bewegenden Objekt 10 verbunden ist, beim Befahren einer oder mehrerer Fahrstrecken erfasst, wobei die Sensoren 210 die Sensordaten 220 von der Umgebung des sich bewegenden Objekts 10 aufnehmen.In a step S10,
In einem Schritt S20 wird eine Mehrzahl von Datensätzen 320 zumindest aus den Sensordaten 220 von einem Eingabemodul 300 generiert.In a step S20, a plurality of
In einem Schritt S30 werden parametrisierte Szenarien SZpi aus den Datensätzen 320 von einem Szenarien-Analysemodul 400 identifiziert und klassifiziert.In a step S30, parameterized scenarios SZp i from the
In einem Schritt S40 werden Metadaten 570 aus den Datensätzen 320 von einem Metadaten-Analysemodul 500 identifiziert und klassifiziert.In a step S40,
In einem Schritt S50 werden die Metadaten 570 mit den parametrisierten Szenarien SZpi von einem Szenarien-Synthesemodul 700 verknüpft und integriert, um weitere parametrisierte Szenarien SZpk zu generieren und damit die Menge von parametrisierten Szenarien Szpi; SZpk zu vergrößern.In a step S50, the
In einem Schritt S60 werden ein oder mehrere Testfälle Ti durch Auswählen von parametrisierten Szenarien SZpi; SZpk aus der erweiterten Menge und von konkreten Szenarioparametern Pci; Pck von einem Testagenten 850 mittels einer Teststrategie für die Fahraufgabe erstellt.In a step S60, one or more test cases T i are created by selecting parameterized scenarios SZp i ; SZp k from the extended set and from concrete scenario parameters Pc i ; Pc k created by a
In einem Schritt S70 wird eine Simulationsumgebung 940 mittels des einen oder mehrerer Testfälle Ti von einem Simulationsmodul 900 erstellt.In a step S70, a
In einem Schritt S80 wird eine Simulation des Verhaltens eines ADAS/ADS-Systems oder einer Fahrfunktion in der Simulationsumgebung 940 für die festgelegte Fahraufgabe durchgeführt.In a step S80, a simulation of the behavior of an ADAS/ADS system or a driving function is carried out in the
Durch die vorliegende Erfindung kann eine optimale Menge an virtuellen parametrisierten Szenarien generiert werden durch die Verknüpfung von bereits vorliegenden, auf realen Sensordaten basierenden Szenarien mit Metadaten, die gleichfalls auf realen Sensordaten basieren. Durch die Vergrößerung der Menge von zur Verfügung stehenden virtuellen Szenarien können verbesserte Simulationsumgebungen für das Testen und Trainieren eines ADAS/ADS-Systems und/oder einer Fahrfunktion insbesondere für Verifizierungs-, Kalibrierungs- und Validierungszwecke erstellt werden. Hierdurch kann die Sicherheit und Funktionsfähigkeit eines Fahrassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS) und/oder einer Fahrfunktion für eine bestimmte Fahraufgabe mit einer hohen Zuverlässigkeit genauer und präziser abgeschätzt werden. Insgesamt können Ressourcen eingespart werden, da sowohl das reale Abfahren von Teststrecken mit Standardverkehrssituationen als auch mit spezifischen Corner-Cases reduziert werden kann. Beispielsweise können selten auftretende Verkehrssituationen, wie beispielsweise, dass in einem Baustellenbereich ein vorausfahrendes Fahrzeug eine Warnbake umfährt, die auf die Fahrspur des Ego-Fahrzeugs fällt, simuliert und für die Funktionsvalidierung in der virtuellen Simulationsumgebung verwendet werden. Zudem können aus den Testfällen wiederum Trainingsdaten für die KI-Algorithmen der verschiedenen Softwareapplikationen in den Modulen generiert werden, so dass das gesamte Simulationssystem sich durch selbstlernende Effekte selbständig fortlaufend verbessert.The present invention allows an optimal amount of virtual parameterized scenarios to be generated by linking existing scenarios based on real sensor data with metadata that is also based on real sensor data. By increasing the amount of virtual scenarios available, improved simulation environments can be created for testing and training an ADAS/ADS system and/or a driving function, particularly for verification, calibration and validation purposes. This allows the safety and functionality of a driving assistance system (ADAS) and/or an automated driving system (ADS) and/or a driving function for a specific driving task to be estimated more accurately and precisely with a high level of reliability. Overall, resources can be saved because both the actual driving of test routes with standard traffic situations and with specific corner cases can be reduced. For example, rarely occurring traffic situations, such as a vehicle in front driving around a warning beacon in a construction site area that falls into the lane of the ego vehicle, can be simulated and used for functional validation in the virtual simulation environment. In addition, training data for the AI algorithms of the various software applications in the modules can be generated from the test cases, so that the entire simulation system continuously improves itself through self-learning effects.
BezugszeichenReference symbols
- 1010
- sich bewegendes Objektmoving object
- 100100
- Systemsystem
- 200200
- SensoreinrichtungSensor device
- 210210
- SensorenSensors
- 220220
- SensordatenSensor data
- 250250
- Cloud-Computing-InfrastrukturCloud computing infrastructure
- 270270
- DatenbankDatabase
- 300300
- EingabemodulInput module
- 320320
- Datensatzrecord
- 350350
- BenutzerschnittstelleUser interface
- 400400
- Szenarien-AnalysemodulScenario analysis module
- 450450
- SoftwareapplikationSoftware application
- 500500
- Metadaten-AnalysemodulMetadata analysis module
- 550550
- SoftwareapplikationSoftware application
- 570570
- MetadatenMetadata
- 700700
- Szenarien-SynthesemodulScenario synthesis module
- 750750
- SoftwareapplikationSoftware application
- 770770
- SzenariendatenbankScenario database
- 800800
- TestfallmodulTest case module
- 850850
- TestagentTest agent
- 870870
- TestfalldatenbankTest case database
- 900900
- SimulationsmodulSimulation module
- 940940
- SimulationsumgebungSimulation environment
- 950950
- SoftwareapplikationSoftware application
- 970970
- DatenbankDatabase
- 10001000
- ComputerprogrammproduktComputer program product
- 10501050
- ProgrammcodeProgram code
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 8862346 B2 [0008]US 8862346 B2 [0008]
- US 9361650 B2 [0009]US 9361650 B2 [0009]
- US 10026130 B1 [0010]US 10026130 B1 [0010]
- US 10789650 B1 [0011]US 10789650 B1 [0011]
- US 2022048536 A1 [0012]US 2022048536 A1 [0012]
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022119179.6A DE102022119179A1 (en) | 2022-08-01 | 2022-08-01 | Method, system and computer program product for testing and training a driver assistance system (ADAS) and/or an automated driving system (ADS) and/or a driving function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022119179.6A DE102022119179A1 (en) | 2022-08-01 | 2022-08-01 | Method, system and computer program product for testing and training a driver assistance system (ADAS) and/or an automated driving system (ADS) and/or a driving function |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022119179A1 true DE102022119179A1 (en) | 2024-02-01 |
Family
ID=89508467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022119179.6A Pending DE102022119179A1 (en) | 2022-08-01 | 2022-08-01 | Method, system and computer program product for testing and training a driver assistance system (ADAS) and/or an automated driving system (ADS) and/or a driving function |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022119179A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8862346B2 (en) | 2012-03-20 | 2014-10-14 | Eaton Corporation | System and method for simulating the performance of a virtual vehicle |
US9361650B2 (en) | 2013-10-18 | 2016-06-07 | State Farm Mutual Automobile Insurance Company | Synchronization of vehicle sensor information |
US10026130B1 (en) | 2014-05-20 | 2018-07-17 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle collision risk assessment |
US10789650B1 (en) | 2016-04-27 | 2020-09-29 | State Farm Mutual Automobile Insurance Company | Systems and methods for reconstruction of a vehicular crash |
US20220048536A1 (en) | 2018-10-24 | 2022-02-17 | Avl List Gmbh | Method and device for testing a driver assistance system |
-
2022
- 2022-08-01 DE DE102022119179.6A patent/DE102022119179A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8862346B2 (en) | 2012-03-20 | 2014-10-14 | Eaton Corporation | System and method for simulating the performance of a virtual vehicle |
US9361650B2 (en) | 2013-10-18 | 2016-06-07 | State Farm Mutual Automobile Insurance Company | Synchronization of vehicle sensor information |
US10026130B1 (en) | 2014-05-20 | 2018-07-17 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle collision risk assessment |
US10789650B1 (en) | 2016-04-27 | 2020-09-29 | State Farm Mutual Automobile Insurance Company | Systems and methods for reconstruction of a vehicular crash |
US20220048536A1 (en) | 2018-10-24 | 2022-02-17 | Avl List Gmbh | Method and device for testing a driver assistance system |
Non-Patent Citations (2)
Title |
---|
International Civil Aviation Organization (ICAO): World Geodetic System - 1984 (WGS-84) Manual. Doc 9674 AN/946. Second Edition. Montreal, Kanada : 2002. S. 1-138. URL: https://www.icao.int/NACC/Documents/Meetings/2014/ECARAIM/REF08-Doc9674.pdf [abgerufen am 2022-09-22]. |
Stadt Karlsruhe: UTM Koordinaten (EPSG 25832). 18-02-2022. S. 1-3. URL: https://web1.karlsruhe.de/service/Formulare/LA/Hilfe_Koordinatensysteme.pdf [abgerufen am 2022-09-22]. |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018121595B4 (en) | UNSUPERVISED TRAINING OF AGENTS FOR AUTONOMOUS DRIVING APPLICATIONS | |
DE102020129456A1 (en) | TRAJECTORY PREDICTION FROM A PRECALCULATED OR DYNAMICALLY GENERATED BANK OF TRAJECTORIES | |
DE102020111682A1 (en) | SYSTEMS AND METHODS FOR IMPLEMENTING AN AUTONOMOUS VEHICLE REACTION TO A SENSOR FAILURE | |
DE102019131118A1 (en) | SYSTEM AND METHOD FOR EVALUATING THE OPERATION OF ENVIRONMENTAL DETECTION SYSTEMS OF VEHICLES | |
DE102017126877A1 (en) | Automated copilot control for autonomous vehicles | |
DE102017120707A1 (en) | WATER DEVICE RECOGNITION FOR VEHICLE NAVIGATION | |
DE102022112059B3 (en) | Method, system and computer program product for calibrating and validating a driver assistance system (ADAS) and/or an automated driving system (ADS) | |
DE102020128153A1 (en) | SAMPLING OF DRIVING SCENARIOS FOR TRAINING/COORDINATION OF MACHINE LEARNING MODELS FOR VEHICLES | |
DE102020128433A1 (en) | Simulation of an autonomous vehicle to improve the safety and reliability of an autonomous vehicle | |
DE102021125166A1 (en) | DETERMINATION OF CROSS WIND RISKS | |
DE102021127118A1 (en) | Identifying objects with LiDAR | |
DE102021124913A1 (en) | METRIC BACKPROPAGATION FOR EVALUATION OF SUBSYSTEMS PERFORMANCE | |
DE102015223656A1 (en) | Driver assistance system and method for lane recommendation | |
WO2017102623A1 (en) | Method and device for predicting a movement of a road traffic participant in a traffic space | |
DE102021211781A1 (en) | VEHICLE OPERATION USING BEHAVIOR RULES CHECKS | |
DE102021133340A1 (en) | CROSS-MODALITY ACTIVE LEARNING FOR OBJECT RECOGNITION | |
DE102020128155A1 (en) | CONDITIONAL MOVEMENT PREDICTIONS | |
DE102022100549A1 (en) | RANKED FAULT CONDITIONS | |
DE102021132722A1 (en) | SELECTING TEST SCENARIOS TO EVALUATE AUTONOMOUS VEHICLE PERFORMANCE | |
DE102020122086A1 (en) | MEASURING CONFIDENCE IN DEEP NEURAL NETWORKS | |
DE102021104323A1 (en) | RIGHT OF RIGHT DECISION OF A VEHICLE | |
DE102020128978A1 (en) | TRAINING DEEP NEURAL NETWORKS WITH SYNTHETIC IMAGES | |
DE102019114626A1 (en) | System and method for hardware checking in a motor vehicle | |
DE102022102187A1 (en) | HIGH-FIDELITY DATA-DRIVEN MULTIMODAL SIMULATION | |
DE102019117136A1 (en) | COMMUNICATION AND CONTROL FOR TRAFFIC INFRASTRUCTURE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |