DE202017102238U1 - Aktorsteuerungssystem - Google Patents

Aktorsteuerungssystem Download PDF

Info

Publication number
DE202017102238U1
DE202017102238U1 DE202017102238.2U DE202017102238U DE202017102238U1 DE 202017102238 U1 DE202017102238 U1 DE 202017102238U1 DE 202017102238 U DE202017102238 U DE 202017102238U DE 202017102238 U1 DE202017102238 U1 DE 202017102238U1
Authority
DE
Germany
Prior art keywords
machine learning
value
learning system
observation
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202017102238.2U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE202017102238.2U priority Critical patent/DE202017102238U1/en
Publication of DE202017102238U1 publication Critical patent/DE202017102238U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Abstract

Aktorsteuerungssystem (40) zum Steuern eines Aktors (10), umfassend mindestens einen Computer und mindestens ein maschinenlesbares Speichermedium, auf dem Befehle gespeichert sind, die beim Ausführen durch den mindestens einen Computer bewirken, dass der mindestens eine Computer ein Verfahren mit den folgenden Schritten ausführt: – Empfangen eines ermittelten Beobachtungswerts (B), der einen Zustand eines Aktorsystems umfassend den Aktor (10) und eine Umgebung (20) des Aktors (10) charakterisiert; – Ermitteln eines ersten Ausgabewerts (p_cls) eines ersten maschinellen Lernsystems (60) abhängig von dem Beobachtungswert (B), wobei der erste Ausgabewert (p_cls) wenigstens einen Teil des Beobachtungswerts (B) charakterisiert, – Ermitteln eines zweiten Ausgabewerts (p_det) eines zweiten maschinellen Lernsystems (70), wobei der zweite Ausgabewert (p_det) eine Wahrscheinlichkeit charakterisiert, dass der Beobachtungswert (B) derart manipuliert wurde, dass der erste Ausgabewert (p_cls) den wenigstens einen Teil des ersten Beobachtungswerts (B) nicht korrekt charakterisiert, und – Ansteuern des Aktors (10) abhängig von dem ermittelten ersten Ausgabewert (p_cls) und dem ermittelten zweiten Ausgabewert (p_det), wobei das zweite maschinelle Lernsystem (70) den zweiten Ausgabewert (p_det) abhängig von Zwischenergebnissen (y_zw) des ersten maschinellen Lernsystems (60) ermittelt.An actuator control system (40) for controlling an actuator (10) comprising at least one computer and at least one machine-readable storage medium having stored thereon instructions for causing, by the at least one computer, the at least one computer to perform a method comprising the following steps : Receiving a determined observation value (B) which characterizes a state of an actuator system comprising the actuator (10) and an environment (20) of the actuator (10); Determining a first output value (p_cls) of a first machine learning system (60) as a function of the observation value (B), the first output value (p_cls) characterizing at least part of the observation value (B), determining a second output value (p_det) of a second one a machine learning system (70), the second output value (p_det) characterizing a probability that the observation value (B) has been manipulated such that the first output value (p_cls) does not correctly characterize the at least a portion of the first observation value (B), and Driving the actuator (10) depending on the determined first output value (p_cls) and the determined second output value (p_det), wherein the second machine learning system (70) the second output value (p_det) depending on intermediate results (y_zw) of the first machine learning system (60 ).

Description

Die Erfindung betrifft ein Aktorsteuerungssystem.The invention relates to an actuator control system.

Stand der TechnikState of the art

Aus der DE 10 2005 050 577 A1 ist ein neuronales Netz für eine Steuerungsvorrichtung bekannt. Die Erfindung prüft ein neuronales Netz 1 für eine Steuerungsvorrichtung. Das neuronale Netz weist eine Mehrzahl erster Neuronen N1, N2, ..., Nn in einer ersten Schicht und einem zweiten Neuron M in einer auf die erste Schicht folgenden zweiten Schicht auf. Aus einer vorgegebenen Mehrzahl von Testsignal-Kombinationen wird jede Testsignal-Kombination ausgewählt. Jede Testsignal-Kombination ordnet jedem ersten Neuron N1, N2, ..., Nn einen Test-Eingangssignalvektor ut1, ut2, ..., utk zu, welcher entweder ein Nullsignal ist oder das zugehörige erste Neuron N1, N2, ..., Nn derart sättigt, dass das erste Neuron N1, N2, ..., Nn einen unteren Sättigungswert φmin ausgibt, oder das zugehörige erste Neuron N1, N2, ..., Nn derart sättigt, dass das erste Neuron N1, N2, ..., Nn einen oberen Sättigungswert ausgibt. Die Testsignal-Kombination wird an die ersten Neuronen N1, N2, ..., Nn angelegt und das Ausgangssignal p des zweiten Neurons M wird erfasst. Ein Teil-Prüfungssignal wird gespeichert, wenn das Ausgangs-signal p größer als ein vorgegebener Schwellwert ist. Ein positives Gesamt-Prüfsignal wird ausgegeben, nachdem jede der Testsignal-Kombinationen angelegt wird und wenn kein Teil-Prüfsignal gespeichert ist für die vorgegebene Mehrzahl der Testsignal-Kombinationen gespeichert wirdFrom the DE 10 2005 050 577 A1 For example, a neural network is known for a control device. The invention tests a neural network 1 for a control device. The neural network has a plurality of first neurons N1, N2,..., Nn in a first layer and a second neuron M in a second layer following the first layer. From a given plurality of test signal combinations, each test signal combination is selected. Each test signal combination assigns to each first neuron N1, N2, ..., Nn a test input signal vector ut1, ut2, ..., utk, which is either a zero signal or the associated first neuron N1, N2,. Nn is saturated so that the first neuron N1, N2, ..., Nn outputs a lower saturation value φmin, or the associated first neuron N1, N2, ..., Nn saturates such that the first neuron N1, N2, .. ., Nn outputs an upper saturation value. The test signal combination is applied to the first neurons N1, N2, ..., Nn and the output signal p of the second neuron M is detected. A partial test signal is stored when the output signal p is greater than a predetermined threshold. A positive overall test signal is output after each of the test signal combinations is applied and when no partial test signal is stored for the predetermined plurality of test signal combinations is stored

Vorteil der ErfindungAdvantage of the invention

Ein Aktorsteuerungssystem nach Anspruch 1 hat demgegenüber dem Vorteil, dass es ein maschinelles Lernverfahren aufweist, das besonders robust gegenüber Irreführungsbeispielen (engl. „Adversarial Examples“) ist. Adversarial Examples sind geringfügig manipulierte Eingangsdaten des maschinellen Lernverfahrens (die bei Bilddaten den unmanipulierten Eingangsdaten so ähnlich sind, dass sie für menschliche Experten praktisch nicht zu unterscheiden sind), die zu einer erheblichen Änderung der Ausgabe des maschinellen Lernverfahrens führen. An actuator control system according to claim 1, on the other hand, has the advantage that it has a machine learning method which is particularly robust against misleading examples (English: "Adversarial Examples"). Adversarial Examples are slightly manipulated machine learning input data (which are so similar in image data to the unmanipulated input data that they are virtually indistinguishable to human experts) that result in a significant change in the machine learning output.

Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche.Advantageous developments are the subject of the dependent claims.

Offenbarung der ErfindungDisclosure of the invention

In einem ersten Aspekt betrifft die Erfindung daher ein Aktorsteuerungssystem zum Steuern eines Aktors mit den Merkmalen des unabhängigen Anspruchs 1. Das Aktorsteuerungssystem ist eingerichtet, einen Beobachtungswert zu empfangen und mittels eines ersten und zweiten maschinellen Lernsystems eine Ansteuerung für den Aktor zu generieren. Der ermittelte Beobachtungswert kann insbesondere ein Ausgangsignal eines Sensors umfassen oder abhängig von einem Ausgangssignal eines Sensors ermittelt worden sein.In a first aspect, the invention therefore relates to an actuator control system for controlling an actuator having the features of independent claim 1. The actuator control system is adapted to receive an observation value and to generate a control for the actuator by means of a first and second machine learning system. The determined observation value can in particular comprise an output signal of a sensor or be determined as a function of an output signal of a sensor.

In einem weiterführenden Aspekt ist hierbei das erste maschinelle Lernsystem ein erstes neuronales Netzwerk mit einer ersten Verkettung neuronaler Schichten, und das zweite maschinelle Lernsystem ein zweites neuronales Netzwerk mit einer zweiten Verkettung neuronaler Schichten, wobei die neuronalen Schichten der ersten und zweiten Verkettung neuronaler Schichten in Signalverarbeitungsrichtung bis zu einer letzten gemeinsamen Zwischenschicht gemeinsame neuronale Schichten sind und in Signalverarbeitungsrichtung ab dieser letzten gemeinsamen Zwischenschicht separat (d.h. untereinander nicht verknüpfte) sind.In a further aspect, the first machine learning system is a first neural network with a first concatenation of neural layers, and the second machine learning system a second neural network with a second concatenation of neural layers, wherein the neural layers of the first and second concatenation of neural layers in the signal processing direction are common neural layers up to a last common intermediate layer and are separate (ie not linked to one another) in the signal processing direction starting from this last common intermediate layer.

Dies bedeutet, dass erstes und zweites neuronales Netz ein gemeinsames neuronales Netz bilden, das eine Verkettung gemeinsamer neuronaler Schichten umfasst, wobei diese Verkettung den Beobachtungswert empfängt. Das neuronale Netz ist hierbei derart aufgebaut ist, dass sowohl die Ermittlung des ersten Ausgabewerts als auch die Ermittlung des zweiten Ausgabewerts ausschließlich („ausschließlich“ im Sinne von „bei fixierten Parametern des neuronalen Netzes ausschließlich“) von Ausgabewerten der gemeinsamen neuronalen Schichten abhängig sind, und dass das erste und zweite neuronale Netz ferner so aufgebaut sind, dass abhängig von den Ausgabewerten der gemeinsamen neuronalen Schichten ein erstes Zwischenergebnis und ein zweites Zwischenergebnis ermittelt werden, wobei der erste Ausgabewert abhängig vom ersten Zwischenergebnis und unabhängig vom zweiten Zwischenergebnis ermittelt wird, und wobei der zweite Ausgabewert abhängig vom zweiten Zwischenergebnis und unabhängig vom ersten Zwischenergebnis ermittelt wird.This means that the first and second neural networks form a common neural network comprising a concatenation of common neural layers, this concatenation receiving the observation value. The neural network is in this case constructed in such a way that both the determination of the first output value and the determination of the second output value exclusively ("exclusively" in the sense of "fixed parameters of the neural network exclusively") are dependent on output values of the common neural layers, and in that the first and second neural networks are further configured such that a first intermediate result and a second intermediate result are determined depending on the output values of the common neural layers, wherein the first output value is determined as a function of the first intermediate result and independently of the second intermediate result, and wherein the second output value is determined as a function of the second intermediate result and independently of the first intermediate result.

Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:Hereinafter, embodiments of the invention will be explained in more detail with reference to the accompanying drawings. In the drawings show:

1 schematisch eine Interaktion zwischen Aktor und Aktorsteuerungssystem; 1 schematically an interaction between actuator and actuator control system;

2 schematisch eine Interaktion zwischen Trainingssystem und Aktorsteuerungssystem; 2 schematically an interaction between training system and actuator control system;

3 eine Ausführungsform eines Trainingsverfahrens; 3 an embodiment of a training method;

4 eine weitere Ausführungsform des Trainingsverfahrens; 4 another embodiment of the training method;

5 einen beispielhaften Aufbau des ersten und zweiten maschinellen Lernsystems; 5 an exemplary construction of the first and second machine learning system;

6 schematisch den Aufbau eines Residualblocks; 6 schematically the structure of a Residualblocks;

7 schematisch den Aufbau eines multiplen Residualblocks. 7 schematically the structure of a multiple residual block.

Beschreibung der AusführungsbeispieleDescription of the embodiments

1 zeigt eine einen Aktor 10 in seiner Umgebung 20 in Interaktion mit einem Aktorsteuerungssystem 40. Aktor 10 und Umgebung 20 werden gemeinschaftlich nachfolgend auch als Aktorsystem bezeichnet. Ein Zustand des Aktorsystems wird mit einem Sensor 30 erfasst, der auch durch eine Mehrzahl von Sensoren gegeben sein kann. Ein Ausgangssignal S des Sensors 30 wird an das Aktorsteuerungssystem 40 übermittelt. Das Aktorsteuerungssystem 40 ermittelt hieraus ein Ansteuersignal A, welches der Aktor 10 empfängt. 1 shows an an actor 10 in his environment 20 in interaction with an actuator control system 40 , actuator 10 and environment 20 are collectively referred to below as the actuator system. A state of the actuator system is with a sensor 30 detected, which may also be given by a plurality of sensors. An output signal S of the sensor 30 is sent to the actuator control system 40 transmitted. The actuator control system 40 determined from this a drive signal A, which is the actuator 10 receives.

Bei dem Aktor 10 kann es sich beispielsweise um einen (teil-)autonomen Roboter, beispielsweise ein (teil-)autonomes Kraftfahrzeug handeln. Bei dem Sensor 30 kann es sich beispielsweise um einen oder mehrere Videosensoren und/oder einen oder mehrere Radarsensoren und/oder einen oder mehrere Ultraschallsensoren und/oder einen oder mehrere Positionssensoren (beispielsweise GPS) handeln. Alternativ oder zusätzlich kann der Sensor 30 auch ein Informationssystem umfassen, das eine Information über einen Zustand des Aktorsystems ermittelt, wie beispielsweise ein Wetterinformationssystem, das einen aktuellen oder zukünftigen Zustand des Wetters in der Umgebung 20 ermittelt.At the actor 10 it may, for example, be a (partially) autonomous robot, for example a (partially) autonomous motor vehicle. At the sensor 30 For example, it may be one or more video sensors and / or one or more radar sensors and / or one or more ultrasonic sensors and / or one or more position sensors (for example GPS). Alternatively or additionally, the sensor 30 Also include an information system that determines information about a state of the actuator system, such as a weather information system, the current or future state of the weather in the area 20 determined.

In einem anderen Ausführungsbeispiel kann es sich bei dem Aktor 10 um einen Fertigungsroboter handeln, bei dem Sensor 30 dann beispielsweise um einen optischen Sensor handelt, der Eigenschaften von Fertigungserzeugnissen des Fertigungsroboters erfasst.In another embodiment, it may be in the actuator 10 to deal with a manufacturing robot, the sensor 30 then, for example, is an optical sensor that detects properties of manufacturing products of the production robot.

In einem weiteren Ausführungsbeispiel kann es sich bei dem Aktor 10 um ein Freigabesystem handeln, welches eingerichtet ist, die Aktivität eines Geräts freizugeben oder nicht. Bei dem Sensor 30 kann es sich beispielsweise um einen optischen Sensor (beispielsweise zur Erfassung von Bild- oder Videodaten) handeln, der eingerichtet ist, ein Gesicht zu erfassen. Der Aktor 10 ermittelt abhängig vom Ansteuersignal A ein Freigabesignal, das benutzt werden kann, um abhängig vom Wert des Freigabesignals das Gerät freizugeben. Bei dem Gerät kann es sich beispielsweise um eine physische oder logische Zugangskontrolle handeln. Abhängig vom Wert des Ansteuersignals A kann die Zugangskontrolle dann vorsehen, dass Zugang gewährt wird, oder nicht.In a further embodiment, it may be in the actuator 10 to be a sharing system that is set up to release the activity of a device or not. At the sensor 30 it may, for example, be an optical sensor (for example for the acquisition of image or video data) that is set up to detect a face. The actor 10 determined depending on the drive signal A, a release signal that can be used to release depending on the value of the enable signal, the device. The device may be, for example, a physical or logical access control. Depending on the value of the drive signal A, the access control can then provide that access is granted or not.

Das Aktorsteuerungssystem 40 empfängt das Ausgangssignal S des Sensors in einer optionalen Empfangseinheit 50, die das Ausgangssignal S in einen Beobachtungswert B umwandelt (alternativ kann auch unmittelbar das Ausgangssignal S als Beobachtungswert B übernommen werden). Der Beobachtungswert B kann beispielsweise ein Ausschnitt oder eine Weiterverarbeitung des Ausgangssignals S sein. Der Beobachtungswert B wird einem ersten maschinellen Lernsystem 60 zugeführt.The actuator control system 40 receives the output signal S of the sensor in an optional receiving unit 50 which converts the output signal S into an observation value B (alternatively, the output signal S can also be taken over directly as the observation value B). The observation value B may, for example, be a section or a further processing of the output signal S. The observation value B becomes a first machine learning system 60 fed.

Das erste maschinelle Lernsystem 60 ermittelt aus dem Beobachtungswert B einen ersten Ausgabewert p_cls. Das erste maschinelle Lernsystem 60 kann in einer Ausführungsform als Klassifikator eingesetzt werden. In diesem Fall kann der erste Ausgabewert p_cls eine Wahrscheinlichkeit charakterisieren, dass der Beobachtungswert B oder ein Teil des Beobachtungswerts B als einer Klasse (aus einer Mehrzahl von Klassen) zugehörig klassifiziert wird. Der erste Ausgabewert kann beispielsweise eine vektorwertige Größe sein, die für jede Klasse der Mehrzahl von Klassen mittels einer zugeordneten Zahl im Werteintervall [0; 1] angibt, wie hoch die Wahrscheinlichkeit ist, dass der Beobachtungswert der jeweiligen Klasse zuzuordnen ist. Der erste Ausgabewert p_cls kann auch eine skalare Größe sein, beispielsweise ein Bezeichner derjenigen Klasse, deren oben beschriebene Wahrscheinlichkeit den größten Wert annimmt. The first machine learning system 60 determines from the observation value B a first output value p_cls. The first machine learning system 60 can be used as a classifier in one embodiment. In this case, the first output value p_cls may characterize a probability that the observation value B or a part of the observation value B is classified as belonging to a class (of a plurality of classes). The first output value may, for example, be a vector-valued quantity which, for each class of the plurality of classes, is assigned by means of an assigned number in the value interval [0; 1] indicates the probability of the observation value being assigned to the respective class. The first output value p_cls can also be a scalar quantity, for example an identifier of the class whose probability described above assumes the greatest value.

Es ist auch möglich, dass ein Beobachtungswert B eine Vielzahl von Größen umfasst, beispielsweise Pixel eines Bilds. Es ist dann möglich, dass eine semantische Segmentierung des Bilds durchgeführt wird, d.h. dass die oben beschriebenen Zuordnung zu Klassen für jede dieser Größen, also beispielsweise jeden Pixel des Bilds, einzeln durchgeführt wird, sodass p_cls auch in diesem Sinne eine vektorwertige Größe sein kann.It is also possible that an observation value B comprises a plurality of sizes, for example pixels of an image. It is then possible that a semantic segmentation of the image is performed, i. that the above-described assignment to classes for each of these variables, for example each pixel of the image, is carried out individually, so that p_cls can also be a vector-valued variable in this sense.

In einer alternativen Ausführungsform ist es auch möglich, dass das erste maschinelle Lernsystem 60 eine Regression ausführt, d.h. der erste Ausgabewert p_cls ist eine (im Rahmen der für die digitale Datenverarbeitung notwendigen Diskretisierung) kontinuierliche Größe.In an alternative embodiment, it is also possible that the first machine learning system 60 performs a regression, ie, the first output value p_cls is a continuous size (as part of the discretization necessary for digital data processing).

Das erste maschinelle Lernsystem 60 umfasst ein Block 61, der aus dem Beobachtungswert B ein Zwischenergebnis y_zw ermittelt (y_zw kann wieder eine vektorwertige Größe sein). Die weiteren Signalverarbeitungsschritte des ersten maschinellen Lernsystems 60 erfolgen in Abhängigkeit dieses Zwischenergebnisses y_zw, d.h. der erste Ausgabewert p_cls wird abhängig von diesem Zwischenergebnis y_zw ermittelt.The first machine learning system 60 includes a block 61 which determines an intermediate result y_zw from the observation value B (y_zw can again be a vector-valued variable). The further signal processing steps of the first machine learning system 60 occur as a function of this intermediate result y_zw, ie, the first output value p_cls is determined depending on this intermediate result y_zw.

Das Aktorsteuerungssystem 40 umfasst ferner ein zweites maschinelles Lernsystem 70. Das zweite maschinelle Lernsystem 70 empfängt das Zwischenergebnis y_zw und ermittelt, hieraus einen zweiten Ausgabewert p_det, der beispielsweise eine Zahl im Wertebereich [0; 1] sein kann und eine Wahrscheinlichkeit charakterisieren kann, dass der Beobachtungswert B derart manipuliert wurde, dass der erste Ausgabewert p_cls wenigstens einen Teil des ersten Beobachtungswerts B nicht korrekt charakterisiert. Im Ausführungsbeispiel wird dies dadurch erreicht, dass das zweite maschinelle Lernsystem derart eingerichtet ist, dass der erste Ausgabewert p_det eine Wahrscheinlichkeit charakterisiert, dass es sich bei dem Beobachtungswert B um ein Irreführungsbeispiel handelt.The actuator control system 40 further comprises a second machine learning system 70 , The second machine learning system 70 receives the intermediate result y_zw and determines, from this a second output value p_det, for example, a number in the value range [0; 1] and can characterize a probability that the observation value B has been manipulated such that the first output value p_cls does not correctly characterize at least part of the first observation value B. In the exemplary embodiment, this is achieved in that the second machine learning system is set up such that the first output value p_det characterizes a probability that the observation value B is an erroneous example.

Die Manipulation des Beobachtungswerts B kann hierbei durch eine unmittelbare Manipulation des Beobachtungswerts B geschehen, aber auch durch eine Störung des Ausgangssignals S des Sensors 30 oder durch eine Störung der Umgebung 20.The manipulation of the observation value B can be done here by an immediate manipulation of the observation value B, but also by a disturbance of the output signal S of the sensor 30 or by a disturbance of the environment 20 ,

Erster Ausgabewert p_cls und zweiter Ausgabewert p_det werden einer Ausgabeeinheit 80 übermittelt, die hieraus das Ansteuersignal A ermittelt. Beispielsweise ist es möglich, dass die Ausgabeeinheit zunächst überprüft, ob der zweite Ausgabewert p_det kleiner ist als ein vorgebbarer Schwellenwert. Ist dies der Fall, wird abhängig vom ersten Klassifikationsergebnis p_cls das Ansteuersignal A ermittelt. Dies ist der Normalfall. Wird hingegen ermittelt, dass der zweite Ausgabewert p_det nicht kleiner ist als der vorgebbare Schwellenwert, so kann vorgesehen sein, dass das Ansteuersignal A derart ausgebildet ist, dass es den Aktor A in einen abgesicherten Modus überführt. First output value p_cls and second output value p_det become an output unit 80 transmitted, which determines therefrom the drive signal A. For example, it is possible that the output unit first checks whether the second output value p_det is smaller than a predefinable threshold value. If this is the case, the drive signal A is determined as a function of the first classification result p_cls. This is the normal case. If, on the other hand, it is determined that the second output value p_det is not smaller than the predefinable threshold value, it can be provided that the drive signal A is designed such that it transfers the actuator A into a safe mode.

Das Aktorsteuerungsystem 40 umfasst in einer Ausführungsform einen Computer und ein maschinenlesbares Speichermedium (nicht dargestellt), auf dem ein Computerprogramm gespeichert ist, das, wenn es vom Computer ausgeführt wird, diesen veranlasst, die beschriebenen Funktionalitäten des Aktorsteuerungssystems 40 auszuführen. Erstes maschinelles Lernsystem 60 und zweites maschinelles Lernsystem 70 können hier insbesondere als separate oder gemeinsame Computerprogramme implementiert sein.The actuator control system 40 in one embodiment comprises a computer and a machine-readable storage medium (not shown) on which is stored a computer program which, when executed by the computer, causes the described functionality of the actuator control system 40 perform. First machine learning system 60 and second machine learning system 70 may be implemented here especially as separate or common computer programs.

2 illustriert die Interaktion zwischen einem Trainingssystem 90 und dem ersten maschinellen Lernsystem 60 und dem zweiten maschinellen Lernsystem 70. Das Trainingssystem 90 hält einen Satz von Trainingsdaten und zugehörigen gewünschten Ergebnissen vor. Aus dem Satz von Trainingsdaten werden ein oder mehrere Beobachtungswerte B ausgewählt und dem ersten maschinellen Lernsystem 60 zur Verfügung gestellt. Es kann sich hierbei um einzelne Beobachtungswerte handeln, also solchen, die dem ersten maschinellen Lernsystem 60 auch bei Interaktion des Aktorsteuerungssystems 40 mit Aktor 10 und Sensor 30 zugeführt werden. Es kann sich aber auch um einen Stapel (engl. „batch“), also eine Mehrzahl von solchen Beobachtungswerten handeln. 2 illustrates the interaction between a training system 90 and the first machine learning system 60 and the second machine learning system 70 , The training system 90 Presents a set of training data and associated desired results. From the set of training data, one or more observation values B are selected and the first machine learning system 60 made available. These can be individual observation values, ie those that are the first machine learning system 60 even with interaction of the actuator control system 40 with actuator 10 and sensor 30 be supplied. However, it can also be a batch, ie a plurality of such observation values.

Das erste maschinelle Lernsystem 60 ermittelt aus diesen ihm zugeführten Beobachtungswerten einen ersten Ausgabewert p_cls. Ebenso ermittelt das zweite maschinelle Lernsystem 60 analog zu 1 einen zweiten Ausgabewert p_det. Erster Ausgabewert p_cls und zweiter Ausgabewert p_det werden wieder dem Trainingssystem 90 zugeführt. Das Trainingssystem 90 ermittelt hieraus ein Parameteranpassungssignal P, das kodiert, welcher Parameter des ersten maschinellen Lernsystems 60 und welcher Parameter des zweiten maschinellen Lernsystems 70 wie ihren Wert ändern sollen. Diese gewünschte Anpassung erfolgt beispielsweise durch die Vorgabe gewünschter Werte für den ersten Ausgabewert p_cls und den zweiten Ausgabewert p_det und Backpropagation. Das Trainingssystem 90 führt zu diesem Zweck das Parameteranpassungssignal P einem Anpassungsblock 95 zu, der die Parameter im ersten maschinellen Lernsystem 60 und im zweiten maschinellen Lernsystem 70 entsprechend anpasst.The first machine learning system 60 determines from these observation values supplied to it a first output value p_cls. Likewise, the second machine learning system determines 60 analogous to 1 a second output value p_det. First output value p_cls and second output value p_det are returned to the training system 90 fed. The training system 90 determines therefrom a parameter adjustment signal P which encodes which parameter of the first machine learning system 60 and which parameter of the second machine learning system 70 how to change their value. This desired adaptation takes place, for example, by specifying desired values for the first output value p_cls and the second output value p_det and backpropagation. The training system 90 For this purpose, the parameter adjustment signal P leads to an adaptation block 95 to that of the parameters in the first machine learning system 60 and in the second machine learning system 70 adapts accordingly.

Trainingssystem 90 umfasst in einer Ausführungsform einen Computer und ein maschinenlesbares Speichermedium (nicht dargestellt), auf dem ein Computerprogramm gespeichert ist, das, wenn es vom Computer ausgeführt wird, diesen veranlasst, die beschriebenen Funktionalitäten des Lernsystems 90 auszuführen.training system 90 in one embodiment comprises a computer and a machine-readable storage medium (not shown) on which is stored a computer program which, when executed by the computer, causes the described functionalities of the learning system 90 perform.

3a zeigt in einem Flussdiagramm eine Ausführungsform eines Verfahren zum Trainieren der Parameter des ersten maschinellen Lernsystems 60 und des zweiten maschinellen Lernsystems 70 durch das Trainingssystem 90. 3a shows in a flowchart an embodiment of a method for training the parameters of the first machine learning system 60 and the second machine learning system 70 through the training system 90 ,

Zunächst trainiert das Trainingssystem 90 in einer ersten Phase 1000 die Parameter des ersten maschinellen Lernsystems 60 mit einer Trainings-Menge für das erste maschinelle Lernsystem (60) an Beobachtungswerten und dazugehörigen gewünschten ersten Ausgabewerten. Die Parameter des zweiten maschinellen Lernsystems 60 werden in diesem Schritt konstant gehalten, die zweiten Ausgabewerte p_det ignoriert.First, the training system trains 90 in a first phase 1000 the parameters of the first machine learning system 60 with a training set for the first machine learning system ( 60 ) at observation values and associated desired first output values. The parameters of the second machine learning system 60 are kept constant in this step, the second output values p_det are ignored.

Die erste Phase 1000 muss nicht zwingend vom Trainingssystem 90 durchgeführt werden. Es ist auch möglich, dass zu Beginn des Verfahrens die Parameter des ersten maschinellen Lernsystems 60 bereits vollständig trainiert sind.The first phase 1000 does not necessarily have the training system 90 be performed. It is also possible that at the beginning of the procedure the parameters of the first machine learning system 60 already fully trained.

Nun werden in einer zweiten Phase 1100 die trainierten Parameter des ersten maschinellen Lernsystems 60 (optional mit Ausnahme der Parameter des Blocks 61) eingefroren und die Parameter des zweiten maschinellen Lernsystems 70 (optional inklusive der Parameter des Blocks 61) trainiert. Now in a second phase 1100 the trained parameters of the first machine learning system 60 (optional except the parameters of the block 61 ) and the parameters of the second machine learning system 70 (optionally including the parameters of the block 61 ) trained.

Der Ablauf der zweiten Phase 1100 ist in 3b genauer gezeigt. Zunächst (1110) für jeden Beobachtungswert B, der in einer Trainings-Menge für das zweite maschinelle Lernsystem (70) enthalten ist, entschieden, ob er manipuliert wird oder nicht. Dies kann beispielsweise zufällig mit einer vorgebbaren Wahrscheinlichkeit, beispielsweise 50%, erfolgen. The process of the second phase 1100 is in 3b shown in more detail. First ( 1110 ) for each observation value B stored in a training set for the second machine learning system ( 70 ), whether it is manipulated or not. This can happen, for example, at random with a predefinable probability, for example 50%.

Anschließend (1120) werden die gewünschten zweiten Ausgabewerte p_det von Beobachtungswerten B, die manipuliert werden sollen, den Wert „1“ gesetzt, ansonsten auf den Wert „0“.Subsequently ( 1120 ), the desired second output values p_det of observation values B to be manipulated are set to the value "1", otherwise to the value "0".

Im folgenden Schritt 1130 werden Parameter σ und α vorgegeben. σ ist ein vorgebbarer Parameter im Wertebereich [0; 1], α ist ebenfalls ein vorgebbarer Parameter, vorzugsweise im Wertebereich [0; 1], besonders bevorzugt im Bereich [0.2; 0.3], noch weiter bevorzugt im Bereich [0.24; 0.26]. Im Ausführungsbeispiel wird α auf den Wert 0.25 gesetzt.In the following step 1130 Parameters σ and α are specified. σ is a predefinable parameter in the value range [0; 1], α is likewise a specifiable parameter, preferably in the value range [0; 1], more preferably in the range [0.2; 0.3], even more preferably in the range [0.24; 0:26]. In the exemplary embodiment, α is set to the value 0.25.

Dann (1140) werden Beobachtungswerte B, die manipuliert werden sollen, durch ihre manipulierte Form Badv ersetzt, die mit dem unten angegebenen Algorithmus ermittelt werden können. Then ( 1140 ) Are replaced observation values B, which are to be manipulated by their manipulated Form B adv, which can be determined by the below algorithm.

Für Beobachtungswerte B, für die entschieden wurde, dass sie manipuliert werden sollen, wird eine Manipulation Badv beispielsweise wie folgt durchgeführt: Es wird ein Initialwert Badv 0 = B initialisiert, und dann iterativ Werte Badv n gemäß der folgenden Formel ermittelt: Badv n+1 = Clipε B{Badv n + α[(1 – σ)sgn(∇BJcls(Badv n, ytrue(B))) + σsgn(∇BJdet(Badv n,1))]} (Formel 1) For observation values B that have been decided to be manipulated, a manipulation B adv is performed, for example, as follows: an initial value B adv 0 = B is initialized, and then iteratively determines values B adv n according to the following formula: B adv n + 1 = Clip ε B {B adv n + α [(1 - σ) sgn (∇ B J cls (B adv n , y true (B))) + σsgn (∇ B J det (B adv n , 1))]} (formula 1)

Hierbei ist Jcls eine Kostenfunktion des ersten maschinellen Lernsystems 60. Wird das erste maschinelle Lernsystem 60 als Klassifikator eingesetzt, ist dies bevorzugt eine Kreuzentropie des ersten maschinellen Lernsystems 60, also die Kreuzentropie der ersten Ausgabewerte p_cls und der gewünschten Bezeichner der Klassifikation.Here, J cls is a cost function of the first machine learning system 60 , Will be the first machine learning system 60 used as a classifier, this is preferably a cross entropy of the first machine learning system 60 , ie the cross entropy of the first output values p_cls and the desired identifier of the classification.

Jdet ist eine Kostenfunktion des zweiten maschinellen Lernsystems 70. Bevorzugt ist dies eine Kreuzentropie des zweiten maschinellen Lernsystems 70, also die Kreuzentropie der zweiten Ausgabewerte p_det und dem Label „1“, das für manipulierte Beobachtungen Badv vorgesehen ist.J det is a cost function of the second machine learning system 70 , This is preferably a cross entropy of the second machine learning system 70 , ie the cross entropy of the second output values p_det and the label "1", which is provided for manipulated observations B adv .

Die Funktion Clipε B(z) normiert Werte einer Variablen z auf eine ε-Kugel um B. Die Norm kann hierbei eine L2-Norm sein, oder auch eine L-Norm.The function Clip ε B (z) normalizes values of a variable z to an ε-sphere by B. The norm can be an L 2 -norm, or an L -norm.

Die Anzahl der Iterationen kann beispielsweise mittels eines Konvergenzkriteriums begrenzt werden, oder auf einen festen Wert vorgegeben werden, beispielsweise 10.The number of iterations may be limited, for example, by means of a convergence criterion, or may be set to a fixed value, for example 10 ,

Im nun folgenden Schritt 1150 werden die trainierten Parameter des ersten maschinellen Lernsystems 60 (optional mit Ausnahme der Parameter des Blocks 61) eingefroren und die Parameter des zweiten maschinellen Lernsystems 70 (optional inklusive der Parameter des Blocks 61) trainiert. In the next step 1150 become the trained parameters of the first machine learning system 60 (optional except the parameters of the block 61 ) and the parameters of the second machine learning system 70 (optionally including the parameters of the block 61 ) trained.

Das Trainieren der Parameter erfolgt mittels der beschriebenen Kostenfunktion Jdet des zweiten maschinellen Lernsystems 70 und Backpropagation.The training of the parameters takes place by means of the described cost function J det of the second machine learning system 70 and backpropagation.

Damit endet die zweite Phase 1100.This ends the second phase 1100 ,

Diese Form des Lernens kann derart durchgeführt werden, dass der Trainingsmengen so groß gewählt wird, dass die erste Phase 1000 und die zweite Phase 1100 jeweils nur einmalig durchgeführt wird. Um ein Trainieren der Parameter des zweiten maschinellen Lernsystems 60 zu gewährleisten, ist vorteilhafterweise vorgesehen, den Wert für die Wahrscheinlichkeit, dass die Beobachtungen B manipuliert werden sollen, auf den Wert „1“ zu setzen.This form of learning can be carried out in such a way that the training amounts are chosen so large that the first phase 1000 and the second phase 1100 each carried out only once. To train the parameters of the second machine learning system 60 It is advantageously provided to set the value for the probability that the observations B are to be manipulated to the value "1".

4 zeigt in einem Flussdiagramm eine weitere Ausführungsform des Verfahrens zum Trainieren der Parameter des ersten maschinellen Lernsystems 60 und des zweiten maschinellen Lernsystems 70 durch das Trainingssystem 90. Dieses Verfahren macht das Aktorsteuerungssystem 40 besonders robust gegen Angreifer, die Beobachtungsdaten auch mittels Kenntnissen über den inneren Aufbau des zweiten maschinellen Lernsystems 70 manipulieren. 4 shows in a flow chart a further embodiment of the method for training the parameters of the first machine learning system 60 and the second machine learning system 70 through the training system 90 , This procedure makes the actuator control system 40 particularly robust against attackers, the observation data also through knowledge of the internal structure of the second machine learning system 70 manipulate.

Zunächst wird in einem ersten Schritt 2000 eine Untermenge von Beobachtungswerten B aus einem Trainings-Menge ausgewählt. Der Trainings-Menge umfasst erneut Paare von Beobachtungswerten B und zugehörige gewünschte ersten Ausgabewerte.First, in a first step 2000 a subset of observation values B are selected from a training set. The training set again comprises pairs of observation values B and associated desired first output values.

Nun (2100) wird mit einer vorgebbaren Wahrscheinlichkeit von beispielsweise 50% entschieden, ob die Beobachtungswerte B dieser Untermenge manipuliert werden sollen oder nicht. Wenn ja, folgt Schritt 2200, andernfalls Schritt 2300.Well 2100 ) is decided with a predetermined probability of, for example 50%, whether the observation values B of this subset should be manipulated or not. If so, follow step 2200 otherwise step 2300 ,

In Schritt 2200 wird für die Datenpunkte der ausgewählten Untermenge wird dann der zweiten Ausgabewert auf den Wert „1“ gesetzt. Es folgt Schritt 2210, in dem die Variable σ optional mittels eines (Pseudo-)Zufallszahlengenerators zufällig auf einen Wert aus dem Werteintervall [0; 1] gesetzt und gespeichert. Eine derartige zufällige Wahl von σ macht das Aktorsteuerungssystem 40 besonders robust gegen eine breite Klasse möglicher Manipulationen der Beobachtungswerte B. (Alternativ kann die Variable σ auch auf einen festen Wert festgelegt werden, oder einmalig zufällig ausgewählt werden). Die Variable α wird wie in Schritt 1130 beschrieben gewählt.In step 2200 for the data points of the selected subset, the second output value is then set to the value "1". It follows step 2210 in which the variable σ is optionally randomized by means of a (pseudo) random number generator to a value from the value interval [0; 1] set and saved. Such a random choice of σ makes the actuator control system 40 particularly robust against a broad class of possible manipulations of the Observation values B. (Alternatively, the variable σ can also be set to a fixed value, or one-time randomly selected). The variable α becomes as in step 1130 described selected.

Im folgenden Schritt 2210 werden für alle Beobachtungswerte B der ausgewählten Untermenge Manipulationswerte Badv wie in Schritt 1150 beschrieben ermittelt und die ursprünglichen Beobachtungswerte B durch die zugehörigen ermittelten manipulierten Beobachtungswerte Badv ersetzt. Es folgt Schritt 2400.In the following step 2210 For all observation values B of the selected subset, manipulation values B adv are as in step 1150 and the original observation values B are replaced by the associated manipulated observation values B adv . It follows step 2400 ,

In Schritt 2300 wird für die Datenpunkte der ausgewählten Untermenge dann der zweiten Ausgabewert auf den Wert „0“ gesetzt.In step 2300 For the data points of the selected subset, the second output value is then set to the value "0".

Wurde hingegen entschieden, dass keine Manipulation der Beobachtungswerte B durchgeführt werden soll, werden in Schritt 2300 die Beobachtungswerte B in der Untermenge belassen, und es folgt ebenfalls Schritt 2400.On the other hand, if it has been decided that no manipulation of the observation values B should be performed, in step 2300 the observation values B are left in the subset, and it also follows step 2400 ,

Nun werden in Schritt 2400 die Parameter des ersten maschinellen Lernsystems 60 und des zweiten maschinellen Lernsystems 70 mit der (ggf. manipulierten) Untermenge von Beobachtungswerten und den zugehörigen ersten und zweiten gewünschten Ausgabewerten trainiert.Now in step 2400 the parameters of the first machine learning system 60 and the second machine learning system 70 with the (possibly manipulated) subset of observation values and the associated first and second desired output values trained.

Soll das Verfahren mehrfach iteriert durchgeführt werden, können die Datenpunkte der ausgewählten Untermenge aus der Trainings-Menge entfernt werden (2500) und es kann an dieser Stelle zurückverzweigt werden zu Schritt 2000, und das Verfahren beispielsweise so lange durchgeführt werden, bis die Trainings-Menge keine Datenpunkte mehr enthält.If the method is to be performed repeatedly iterated, the data points of the selected subset can be removed from the training set ( 2500 ) and it can be branched back to step at this point 2000 and, for example, the procedure is performed until the training set no longer contains data points.

Optional kann das so beschriebene Verfahren für die gleichen Trainings-Mengen mehrfach durchgeführt werden, beispielsweise mit einer vorgebbaren Häufigkeit.Optionally, the method described in this way can be performed repeatedly for the same training quantities, for example with a predefinable frequency.

5 zeigt den Aufbau des ersten maschinellen Lernsystems 60 und des zweiten maschinellen Lernsystems 70 gemäß einer Ausführungsform der Erfindung, in dem beide durch künstliche neuronale Netze gegeben sind. 5 shows the structure of the first machine learning system 60 and the second machine learning system 70 according to an embodiment of the invention in which both are given by artificial neural networks.

Das erste maschinelle Lernsystem 60 besteht aus einer Eingabeschicht 100, dem der Beobachtungswert B zugeführt wird, gefolgt von einer Konvolutionsschicht 110, multiplen (hier beispielhaft: fünffachen) Residualblöcken 120a, 120b, 120c einem global-average Pooling Schicht 130 und einer Fully-connected Schicht 140, dessen Ausgabewert der erste Ausgabewert p_cls ist. Ein Ausgangssignal einer vorhergehenden Schicht des neuronalen Netzes wird in üblicher Weise der folgenden Schicht als Eingabesignal zugeführt. Es kann vorgesehen sein, dass die Dimensionalität dieses Signals von einem oder mehrerer der multiplen Residualblöcke 120a, 120b, 120c reduziert wird. Der globalaverage Pooling Layer ist in üblicher Weise ebenfalls eingerichtet, eine dimensionale Reduktion durchzuführen.The first machine learning system 60 consists of an input layer 100 to which the observation value B is fed, followed by a convolution layer 110 , multiple (here exemplary: five times) Residualblöcken 120a . 120b . 120c a global-average pooling layer 130 and a fully-connected layer 140 whose output value is the first output value p_cls. An output signal of a preceding layer of the neural network is supplied in the usual manner to the following layer as an input signal. It can be provided that the dimensionality of this signal from one or more of the multiple residual blocks 120a . 120b . 120c is reduced. The globalaverage pooling layer is also set up in the usual way to perform a dimensional reduction.

Konvolutionsschicht 110 führt vorteilhafterweise eine 3 × 3-Konvolution durch. Konvolutionsschicht 110 advantageously performs a 3 × 3 convolution.

Das zweite maschinelle Lernsystem 70 besteht aus einer Konvolutionsschicht 170, gefolgt von einer optionalen max-pooling Schicht 155, einer Konvolutionsschicht 160, einer weiteren, ebenfalls optionalen max-pooling Schicht 165, zwei weiteren Konvolutionsschichten 170, 175 und einer global-average Pooling Schicht 180. Das Ausgangssignal der global-average Pooling Schicht 180 ist das zweite Ausgabesignal p_det.The second machine learning system 70 consists of a convolution layer 170 followed by an optional max-pooling layer 155 , a convolution layer 160 , another, also optional max-pooling layer 165 , two more convolutional layers 170 . 175 and a global-average pooling layer 180 , The output of the global-average pooling layer 180 is the second output signal p_det.

Konvolutionsschicht 175 ist hierbei vorteilhafterweise eine Konvolution mit einer geringeren Schrittweite als die Konvolutionsschichten 150, 160 und 170. Beispielsweise führt die Konvolutionsschicht 175 eine 1 × 1-Konvolution durch, die Konvolutionsschichten 150, 160, 170 eine 3 × 3-Konvolution.Konvolutionsschicht 175 this is advantageously a convolution with a smaller step size than the convolution layers 150 . 160 and 170 , For example, the convolution layer leads 175 a 1 × 1 convolution, the convolution layers 150 . 160 . 170 a 3x3 convolution.

Es sei angemerkt, dass die in 5 illustrierten Konvolutionsschichten 110, 150, 160, 170, 175 jeweils die eigentliche Konvolution umfassen, sowie ferner eine Stapel-Normalisierung (engl. „batch normalization“), in der die Werte des Eingangssignals x für den Fall, dass es ein hochdimensionales Signal ist, das aus einem Stapel von Beobachtungswerten B gewonnen wurde, hinsichtlich dieses Stapels von Beobachtungswerten normalisiert werden, und einen Aktivierungsblock, in dem das Ausgangssignal als Aktivierungsfunktion des Eingangssignals verwendet wird, beispielsweise eine Rectified Linear Unit (ReLu). It should be noted that in 5 illustrated convolutional layers 110 . 150 . 160 . 170 . 175 each comprise the actual convolution, as well as a batch normalization in which the values of the input signal x in the case that it is a high-dimensional signal obtained from a stack of observation values B with respect to of this stack of observation values, and an activation block in which the output signal is used as the activation function of the input signal, for example a rectified linear unit (ReLu).

Das Eingangssignal y_zw des zweiten maschinellen Lernsystems 70, das der Konvolutionsschicht 150 zugeführt wird, wird aus dem ersten maschinellen Lernsystem 70 als Ausgangssignal des Eingangsblocks 100 oder des Konvolutionsblocks 110 oder eines der multiplen Residualblöcke 120a, 120b, 120c abgezweigt.The input signal y_zw of the second machine learning system 70 , that of the convolution layer 150 is fed from the first machine learning system 70 as the output of the input block 100 or the convolution block 110 or one of the multiple residual blocks 120a . 120b . 120c diverted.

6 illustriert den Aufbau eines Residualblocks, aus dem wie in 7 illustriert multiple Residualblöcke zusammengesetzt sind. Ein Eingangssignal x des Residualblocks wird zunächst einem Konvolutionsblock 200 zugeführt. Auf den Residualblock folgt eine Stapel-Normalisierung 210. 6 illustrates the construction of a residual block, from which, as in 7 illustrated multiple residual blocks are composed. An input signal x of the residual block is first a convolution block 200 fed. The residual block is followed by a stack normalization 210 ,

Es folgt ein Aktivierungsblock 220, in dem das Ausgangssignal als Aktivierungsfunktion des Eingangssignals verwendet wird, beispielsweise eine Rectified Linear Unit (ReLu). Es folgt ein weiterer Konvolutionsblock 230, eine weiterer Stapel-Normalisierungs-block 240 und ein Additionsblock 260. Das Eingangssignal x wird parallel zum Konvolutionsblock 200 einem optionalen noch weiteren Konvolutionsblock 270 und einem noch weiteren Stapel-Normalisierungs-Block 280. Das Ausgangssignal des noch weiteren Stapel-Normalisierungs-Blocks 280 wird dem Additionsblock 260 zugeführt. Noch weiterer Konvolutionsblock 270 und noch weiterer Stapel-Normalisierungs-Block 280 werden nur benötigt, wenn der Residualblock x eine dimensionale Reduktion des Eingangssignals x durchführen soll. In diesem Fall führen auch Konvolutionsblock 200 und Stapel-Normalisierungs-Block 210 die dimensionale Reduktion durch. This is followed by an activation block 220 , in which the output signal is used as the activation function of the input signal, for example a Rectified linear unit (ReLu). There follows another convolution block 230 , another stack normalization block 240 and an addition block 260 , The input signal x becomes parallel to the convolution block 200 an optional yet further convolution block 270 and yet another stack normalization block 280 , The output of the still further stack normalization block 280 becomes the addition block 260 fed. Yet another convolution block 270 and still another stack normalization block 280 are only needed if the residual block x is to perform a dimensional reduction of the input signal x. In this case lead also convolution block 200 and stack normalization block 210 the dimensional reduction through.

Additionsblock 260 addiert das Ausgangssignal des weiteren Stapel-Normalisierungs-Blocks 240 bzw. des weiteren Aktivierungsblocks 250 und das Ausgangssignal des Stapel-Normalisierungs-Blocks 280 bzw. das Eingangssignal x, und führt es optional einem noch weiteren Aktivierungsblock 290 zu, um das Ausgangssignal y zu gewinnen.addition block 260 adds the output of the further stack normalization block 240 or the further activation block 250 and the output of the stack normalization block 280 or the input signal x, and optionally carries it to yet another activation block 290 to win the output signal y.

7 illustriert den Aufbau eines multiplen Residualblocks. Eingangssignal x wird einem ersten Residualblock 300 zugeführt, dem weitere Residualblöcke 310, 320, 330, 340 folgen, um das Ausgangssignal y zu gewinnen. Soll der multiple Residualblock eine dimensionale Reduktion durchführen, wird der erste Residualblock 300 so gewählt, dass er diese dimensionale Reduktion durchführt (d.h. er weist Konvolutionsblock 270 und Stapel-Normalisierungsblock 280 auf, vgl. 4). Andernfalls wird der erste Residualblock 300 ebenso wie die weiteren Residualblöcke 310, 320, 330, 340 so gewählt, dass er keine dimensionale Reduktion durchführt. 7 illustrates the construction of a multiple residual block. Input signal x becomes a first residual block 300 supplied, the other Residualblöcke 310 . 320 . 330 . 340 follow to win the output signal y. If the multiple residual block is to perform a dimensional reduction, the first residual block becomes 300 chosen so that he performs this dimensional reduction (ie he has convolution block 270 and stack normalization block 280 on, cf. 4 ). Otherwise, the first residual block will be 300 as well as the other residual blocks 310 . 320 . 330 . 340 chosen so that it performs no dimensional reduction.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102005050577 A1 [0002] DE 102005050577 A1 [0002]

Claims (15)

Aktorsteuerungssystem (40) zum Steuern eines Aktors (10), umfassend mindestens einen Computer und mindestens ein maschinenlesbares Speichermedium, auf dem Befehle gespeichert sind, die beim Ausführen durch den mindestens einen Computer bewirken, dass der mindestens eine Computer ein Verfahren mit den folgenden Schritten ausführt: – Empfangen eines ermittelten Beobachtungswerts (B), der einen Zustand eines Aktorsystems umfassend den Aktor (10) und eine Umgebung (20) des Aktors (10) charakterisiert; – Ermitteln eines ersten Ausgabewerts (p_cls) eines ersten maschinellen Lernsystems (60) abhängig von dem Beobachtungswert (B), wobei der erste Ausgabewert (p_cls) wenigstens einen Teil des Beobachtungswerts (B) charakterisiert, – Ermitteln eines zweiten Ausgabewerts (p_det) eines zweiten maschinellen Lernsystems (70), wobei der zweite Ausgabewert (p_det) eine Wahrscheinlichkeit charakterisiert, dass der Beobachtungswert (B) derart manipuliert wurde, dass der erste Ausgabewert (p_cls) den wenigstens einen Teil des ersten Beobachtungswerts (B) nicht korrekt charakterisiert, und – Ansteuern des Aktors (10) abhängig von dem ermittelten ersten Ausgabewert (p_cls) und dem ermittelten zweiten Ausgabewert (p_det), wobei das zweite maschinelle Lernsystem (70) den zweiten Ausgabewert (p_det) abhängig von Zwischenergebnissen (y_zw) des ersten maschinellen Lernsystems (60) ermittelt.Actuator control system ( 40 ) for controlling an actor ( 10 ), comprising at least one computer and at least one machine-readable storage medium having stored therein instructions which, when executed by the at least one computer, cause the at least one computer to perform a method comprising the steps of: receiving a determined observation value (B); a state of an actuator system comprising the actuator ( 10 ) and an environment ( 20 ) of the actuator ( 10 ) characterized; Determining a first output value (p_cls) of a first machine learning system ( 60 ) depending on the observation value (B), wherein the first output value (p_cls) characterizes at least part of the observation value (B), - determining a second output value (p_det) of a second machine learning system ( 70 ), wherein the second output value (p_det) characterizes a probability that the observation value (B) has been manipulated in such a way that the first output value (p_cls) does not correctly characterize the at least one part of the first observation value (B), and - activating the actuator ( 10 ) depending on the determined first output value (p_cls) and the determined second output value (p_det), wherein the second machine learning system ( 70 ) the second output value (p_det) depending on intermediate results (y_zw) of the first machine learning system ( 60 ). Aktorsteuerungssystem (40 nach Anspruch 1, wobei der erste Ausgabewert (p_cls) wenigstens einen Teil des Beobachtungswerts (B) als einer Klasse aus einer Mehrzahl von Klassen zugehörig klassifiziert, und der zweite Ausgabewerts (p_det) eine Wahrscheinlichkeit charakterisiert, dass der Beobachtungswert (B) derart manipuliert wurde, dass der wenigstens eine Teil des ersten Beobachtungswerts (B) vom ersten maschinellen Lernsystem (60) fehlklassifiziert wurde.Actuator control system ( 40 according to claim 1, wherein the first output value (p_cls) classifies at least part of the observation value (B) as belonging to a class of a plurality of classes, and the second output value (p_det) characterizes a probability that the observation value (B) has been manipulated in such a way in that the at least part of the first observation value (B) is obtained from the first machine learning system (B). 60 ) was misclassified. Aktorsteuerungssystem (40) nach Anspruch 1 oder 2, wobei der zweite Ausgabewert (p_det) eine Wahrscheinlichkeit charakterisiert, dass der Beobachtungswert (B) ein Irreführungsbeispiel, des ersten maschinellen Lernsystems (60) ist;Actuator control system ( 40 ) according to claim 1 or 2, wherein the second output value (p_det) characterizes a probability that the observation value (B) is an erroneous example of the first machine learning system ( 60 ); Aktorsteuerungssystem (40) nach einem der Ansprüche 1 bis 3, wobei das erste maschinelle Lernsystem (60) ein erstes neuronales Netzwerk mit einer ersten Verkettung neuronaler Schichten (100, 110, 120a, 120b, 120c, 130, 140) ist, und das zweite maschinelle Lernsystem (70) ein zweites neuronales Netzwerk mit einer zweiten Verkettung neuronaler Schichten (100, 110, 120a, 120b, 120c, 150, 155, 160, 165, 170, 175, 180) ist, wobei die neuronalen Schichten der ersten (100, 110, 120a, 120b, 120c, 130, 140) und zweiten (100, 110, 120a, 120b, 120c, 150, 155, 160, 165, 170, 175, 180) Verkettung neuronaler Schichten bis zu einer letzten gemeinsamen Zwischenschicht (100, 110, 120a, 120b, 120c) gemeinsame neuronale Schichten sind und ab dieser letzten gemeinsamen Zwischenschicht (100, 110, 120a, 120b, 120c) separat sind.Actuator control system ( 40 ) according to one of claims 1 to 3, wherein the first machine learning system ( 60 ) a first neural network with a first concatenation of neural layers ( 100 . 110 . 120a . 120b . 120c . 130 . 140 ), and the second machine learning system ( 70 ) a second neural network with a second concatenation of neural layers ( 100 . 110 . 120a . 120b . 120c . 150 . 155 . 160 . 165 . 170 . 175 . 180 ), where the neural layers of the first ( 100 . 110 . 120a . 120b . 120c . 130 . 140 ) and second ( 100 . 110 . 120a . 120b . 120c . 150 . 155 . 160 . 165 . 170 . 175 . 180 ) Concatenation of neural layers up to a last common intermediate layer ( 100 . 110 . 120a . 120b . 120c ) are common neural layers and from this last common intermediate layer ( 100 . 110 . 120a . 120b . 120c ) are separate. Aktorsteuerungssystem (40) nach Anspruch 4, wobei die gemeinsamen neuronalen Schichten eine Konvolutionsschicht (110) umfassen.Actuator control system ( 40 ) according to claim 4, wherein the common neural layers comprise a convolution layer ( 110 ). Aktorsteuerungssystem (40) nach Anspruch 4 oder 5, wobei die gemeinsamen neuronalen Schichten mindestens einen multiplen, insbesondere 5-fachen, Residualblock (120a, 120b, 120c) umfassen.Actuator control system ( 40 ) according to claim 4 or 5, wherein the common neuronal layers at least one multiple, in particular 5 times, residual block ( 120a . 120b . 120c ). Aktorsteuerungssystem (40) nach einem der Ansprüche 4 bis 6, wobei das zweite neuronale Netz neben den gemeinsamen neuronalen Schichten noch mindestens drei, insbesondere genau vier, weitere Konvolutionsschichten (150, 160, 170, 175) umfasst.Actuator control system ( 40 ) according to any one of claims 4 to 6, wherein the second neural network in addition to the common neural layers at least three, in particular exactly four, further convolution layers ( 150 . 160 . 170 . 175 ). Aktorsteuerungssystem (40) nach einem der Ansprüche 1 bis 7, wobei der Aktor (10) ein autonomer oder teilautonomer Roboter, insbesondere ein Kraftfahrzeug oder ein Fertigungsroboter, ist.Actuator control system ( 40 ) according to one of claims 1 to 7, wherein the actuator ( 10 ) is an autonomous or teilautautonomer robot, in particular a motor vehicle or a manufacturing robot. Aktorsteuerungssystem (40) nach einem der Ansprüche 1 bis 7, wobei der Aktor (10) ein Freigabesystem und die Beobachtung (B) ein Ausgangssignal eines Bild- und/oder Videoerfassungssystems ist.Actuator control system ( 40 ) according to one of claims 1 to 7, wherein the actuator ( 10 ) is a release system and the observation (B) is an output of an image and / or video capture system. Aktorsteuerungssystem (40) nach einem der Ansprüche 1 bis 9, dessen zweites (60) maschinelles Lernsystem mit einem Trainingssystem (90) trainiert wurde, wobei das Trainingssystem (90) zum Trainieren des Aktorsteuerungssystems (40) nach einem der Ansprüche 1 bis 9 eingerichtet ist, wobei das Trainingssystem (90) mindestens einen zweiten Computer und mindestens ein zweites maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch den mindestens einen zweiten Computer bewirken, dass der mindestens eine zweite Computer ein Verfahren zum Trainieren des zweiten maschinellen Lernsystems (70) mit den folgenden Schritten ein- oder mehrfach ausführt: b) Auswahl einer Untermenge von Beobachtungswerten (B) aus einer Trainings-Menge für das zweite maschinelle Lernsystem (70), die Paare von Beobachtungswerten (B) und zugehörigen gewünschten ersten Ausgabewerten umfasst, c) Entscheiden, ob die Beobachtungswerte (B) dieser Untermenge manipuliert werden sollen oder nicht, d) Setzen des gewünschten zweiten Ausgabewerts auf den Wert eines vorgebbaren ersten Zahlenwerts, wenn die Beobachtungen (B) nicht manipuliert werden bzw. auf einen zweiten, vom ersten Zahlenwert verschiedenen, vorgebbaren zweiten Zahlenwert, wenn die Beobachtungen (B) manipuliert werden, e) Manipulation der Beobachtungswerte (B) dieser Untermenge, sofern entschieden wurde, dass die Manipulation durchgeführt werden soll, f) Ersetzen der ursprünglichen Beobachtungswerte (B) durch die zugehörigen manipulierten Beobachtungswerte (Badv), und g) Trainieren der Parameter des ersten maschinellen Lernsystems (60) und des zweiten maschinellen Lernsystems (70) mit der (ggf. manipulierten) Untermenge von Beobachtungswerten (B, Badv) und zugehörigen ersten und zweiten gewünschten Ausgabewerten.Actuator control system ( 40 ) according to one of claims 1 to 9, the second ( 60 ) machine learning system with a training system ( 90 ), whereby the training system ( 90 ) for training the actuator control system ( 40 ) is arranged according to one of claims 1 to 9, wherein the training system ( 90 ) comprises at least one second computer and at least one second machine-readable storage medium having stored thereon instructions which, when executed by the at least one second computer, cause the at least one second computer to implement a method for training the second machine learning system ( 70 ) performs the following steps one or more times: b) selecting a subset of observation values (B) from a training set for the second machine learning system (B) 70 c) deciding whether or not the observation values (B) of this subset should be manipulated; d) setting the desired second output value to the value of a predeterminable first numerical value, if the observations (B) are not manipulated or a second, from the first Numerical value different, definable second numerical value, when the observations (B) are manipulated, e) manipulation of the observation values (B) of this subset, if it has been decided that the manipulation is to be performed, f) replacing the original observation values (B) with the corresponding ones manipulated observation values (B adv ), and g) training the parameters of the first machine learning system ( 60 ) and the second machine learning system ( 70 ) with the (possibly manipulated) subset of observation values (B, B adv ) and associated first and second desired output values. Aktorsteuerungssystem (40) nach Anspruch 10, wobei die auf dem zweiten maschinenlesbaren Speichermedium gespeicherten Befehle des Trainingssystem (90) bewirken, dass der mindestens eine zweite Computer ein Verfahren nicht nur zum Trainieren des zweiten (70), sondern auch zum Trainieren des ersten maschinellen Lernsystems (60) durchführt, bei welchem vor Durchführung der Schritte b) bis g) der folgende Schritt durchgeführt wird: a) Trainieren des ersten maschinellen Lernsystems (60) mit einer Trainings-Menge für das erste maschinelle Lernsystem (60) aus Beobachtungswerten (B) und zugehörigen gewünschten ersten Ausgabewerten.Actuator control system ( 40 ) according to claim 10, wherein the instructions stored on the second machine-readable storage medium of the training system ( 90 ) cause the at least one second computer to perform a procedure not only for training the second ( 70 ), but also to train the first machine learning system ( 60 ), in which the following step is carried out before carrying out steps b) to g): a) training the first machine learning system ( 60 ) with a training amount for the first machine learning system ( 60 ) from observation values (B) and associated desired first output values. Aktorsteuerungssystem (40) nach Anspruch 10 oder 11, bei dem die manipulierten Beobachtungswerte (Badv) abhängig von einem Wert einer ersten Kostenfunktion (Jcls) des ersten maschinellen Lernsystems (60) für den jeweiligen ursprünglichen Beobachtungswert (B) generiert werden.Actuator control system ( 40 ) according to claim 10 or 11, wherein the manipulated observation values (B adv ) depend on a value of a first cost function (J cls ) of the first machine learning system ( B ). 60 ) are generated for the respective original observation value (B). Aktorsteuerungssystem (40) nach Anspruch 12, bei dem die manipulierten Beobachtungswerte (Badv) auch abhängig von einem Wert einer zweiten Kostenfunktion (Jdet) des zweiten maschinellen Lernsystems (70) für den jeweiligen ursprünglichen Beobachtungswert (B) generiert werden.Actuator control system ( 40 ) according to claim 12, in which the manipulated observation values (B adv ) are also dependent on a value of a second cost function (J det ) of the second machine learning system (B). 70 ) are generated for the respective original observation value (B). Aktorsteuerungssystem (40) nach Anspruch 13, wobei die manipulierten Beobachtungswerte (Badv) von Beobachtungswerten (B) abhängig von einem Gradienten der ersten Kostenfunktion (Jcls), insbesondere einer ersten Kreuzentropie, des ersten maschinellen Lernsystems (60) ist und abhängig von einem Gradienten der zweiten Kostenfunktion (Jder), insbesondere einer zweiten Kreuzentropie, des zweiten maschinellen Lernsystems (70) ist. Actuator control system ( 40 ) according to claim 13, wherein the manipulated observation values (B adv ) of observation values (B) depend on a gradient of the first cost function (J cls ), in particular a first cross entropy, of the first machine learning system (B). 60 ) and, depending on a gradient of the second cost function (J that ), in particular a second cross entropy, of the second machine learning system (J), 70 ). Aktorsteuerungssystem (40) nach Anspruch 14, wobei ein Parameter (σ), der charakterisiert, wie stark der Gradient der ersten Kostenfunktion (Jcls) relativ zum Gradienten der zweiten Kostenfunktion (Jdet) gewichtet wird zufällig gewählt wird.Actuator control system ( 40 ) according to claim 14, wherein a parameter (σ) characterizing how much the gradient of the first cost function (J cls ) is weighted relative to the gradient of the second cost function (J det ) is chosen randomly.
DE202017102238.2U 2017-04-13 2017-04-13 Aktorsteuerungssystem Active DE202017102238U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202017102238.2U DE202017102238U1 (en) 2017-04-13 2017-04-13 Aktorsteuerungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202017102238.2U DE202017102238U1 (en) 2017-04-13 2017-04-13 Aktorsteuerungssystem

Publications (1)

Publication Number Publication Date
DE202017102238U1 true DE202017102238U1 (en) 2017-05-12

Family

ID=58993306

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202017102238.2U Active DE202017102238U1 (en) 2017-04-13 2017-04-13 Aktorsteuerungssystem

Country Status (1)

Country Link
DE (1) DE202017102238U1 (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017115751A1 (en) * 2017-07-13 2019-01-17 Horsch Leeb Application Systems Gmbh Device for controlling an actuator of an agricultural machine
WO2019081545A1 (en) * 2017-10-26 2019-05-02 Robert Bosch Gmbh Method and apparatus for automatically producing an artificial neural network
CN110059709A (en) * 2017-12-19 2019-07-26 罗伯特·博世有限公司 For manipulating actuator and determining abnormal method, equipment and computer program
DE102018210959A1 (en) * 2018-07-04 2020-01-09 Audi Ag Method for monitoring a traffic component, in particular a motor vehicle, for an unauthorized activity, and system
WO2020057868A1 (en) 2018-09-20 2020-03-26 Robert Bosch Gmbh Method and device for operating a control system
DE102018216079A1 (en) * 2018-09-20 2020-03-26 Robert Bosch Gmbh Method and device for operating a control system
CN110942134A (en) * 2018-09-25 2020-03-31 罗伯特·博世有限公司 Method and device for operating a control system
WO2020126597A1 (en) * 2018-12-19 2020-06-25 Robert Bosch Gmbh Method, computer program, machine-readable storage medium, and device for data prediction
DE102018216295B4 (en) 2018-09-25 2022-05-05 Robert Bosch Gmbh Method and device for determining a control signal for controlling an actuator
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
US12014553B2 (en) 2019-02-01 2024-06-18 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US12136030B2 (en) 2023-03-16 2024-11-05 Tesla, Inc. System and method for adapting a neural network model on a hardware platform

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005050577A1 (en) 2005-10-21 2007-05-03 Robert Bosch Gmbh Neuronal network testing method for person motor vehicle, involves outputting positive overall-test signal after each test signal-combination is created, where no partial-signal is stored for given set of test signal-combinations

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005050577A1 (en) 2005-10-21 2007-05-03 Robert Bosch Gmbh Neuronal network testing method for person motor vehicle, involves outputting positive overall-test signal after each test signal-combination is created, where no partial-signal is stored for given set of test signal-combinations

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12020476B2 (en) 2017-03-23 2024-06-25 Tesla, Inc. Data synthesis for autonomous control systems
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
DE102017115751A1 (en) * 2017-07-13 2019-01-17 Horsch Leeb Application Systems Gmbh Device for controlling an actuator of an agricultural machine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US12086097B2 (en) 2017-07-24 2024-09-10 Tesla, Inc. Vector computational unit
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
WO2019081545A1 (en) * 2017-10-26 2019-05-02 Robert Bosch Gmbh Method and apparatus for automatically producing an artificial neural network
US11727277B2 (en) 2017-10-26 2023-08-15 Robert Bosch Gmbh Method and apparatus for automatically producing an artificial neural network
CN110059709A (en) * 2017-12-19 2019-07-26 罗伯特·博世有限公司 For manipulating actuator and determining abnormal method, equipment and computer program
US11797304B2 (en) 2018-02-01 2023-10-24 Tesla, Inc. Instruction set architecture for a vector computational unit
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
DE102018210959A1 (en) * 2018-07-04 2020-01-09 Audi Ag Method for monitoring a traffic component, in particular a motor vehicle, for an unauthorized activity, and system
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US12079723B2 (en) 2018-07-26 2024-09-03 Tesla, Inc. Optimizing neural network structures for embedded systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11983630B2 (en) 2018-09-03 2024-05-14 Tesla, Inc. Neural networks for embedded devices
DE102018216079A1 (en) * 2018-09-20 2020-03-26 Robert Bosch Gmbh Method and device for operating a control system
US11995553B2 (en) 2018-09-20 2024-05-28 Robert Bosch Gmbh Parameterization of a machine learning system for a control system
DE102018216078A1 (en) * 2018-09-20 2020-03-26 Robert Bosch Gmbh Method and device for operating a control system
WO2020057868A1 (en) 2018-09-20 2020-03-26 Robert Bosch Gmbh Method and device for operating a control system
DE102018216295B4 (en) 2018-09-25 2022-05-05 Robert Bosch Gmbh Method and device for determining a control signal for controlling an actuator
EP3629252A1 (en) 2018-09-25 2020-04-01 Robert Bosch GmbH Method and device for operating a control system
CN110942134A (en) * 2018-09-25 2020-03-31 罗伯特·博世有限公司 Method and device for operating a control system
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11908171B2 (en) 2018-12-04 2024-02-20 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
WO2020126597A1 (en) * 2018-12-19 2020-06-25 Robert Bosch Gmbh Method, computer program, machine-readable storage medium, and device for data prediction
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US12014553B2 (en) 2019-02-01 2024-06-18 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data
US12136030B2 (en) 2023-03-16 2024-11-05 Tesla, Inc. System and method for adapting a neural network model on a hardware platform

Similar Documents

Publication Publication Date Title
DE202017102238U1 (en) Aktorsteuerungssystem
DE202017102235U1 (en) training system
DE102018200724A1 (en) Method and device for improving the robustness against "Adversarial Examples"
DE202017102381U1 (en) Device for improving the robustness against "Adversarial Examples"
EP3701434A1 (en) Method and apparatus for automatically producing an artificial neural network
WO2019206775A1 (en) Method and device for determining a network configuration of a neural network
WO2019001649A1 (en) Knowledge transfer between different deep learning architectures
DE102018208763A1 (en) Method, apparatus and computer program for operating a machine learning system
DE102005050577A1 (en) Neuronal network testing method for person motor vehicle, involves outputting positive overall-test signal after each test signal-combination is created, where no partial-signal is stored for given set of test signal-combinations
DE102017218889A1 (en) Unarmed parameterized AI module and method of operation
EP3853778B1 (en) Method and device for operating a control system
DE102018220941A1 (en) Evaluation of measured variables with AI modules taking into account measurement uncertainties
DE10201018B4 (en) Neural network, optimization method for setting the connection weights of a neural network and analysis methods for monitoring an optimization method
DE69404143T2 (en) DETECTION SYSTEM AND DETECTION METHOD
DE102018220608A1 (en) Machine learning system, as well as a method, a computer program and a device for creating the machine learning system
EP3786853A1 (en) Compression of a deep neural network
DE202019105304U1 (en) Device for creating an artificial neural network
DE4209296A1 (en) Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions
DE102008043953A1 (en) Device for generating and / or processing an object signature, monitoring device, method and computer program
DE102021204040A1 (en) Method, device and computer program for creating training data in the vehicle
EP3701428B1 (en) Method and apparatus for improving the robustness of a machine learning system
DE202019105256U1 (en) Device for creating a machine learning system
DE102019216184A1 (en) Method for the robustification of a neural network against adversarial disturbances
DE102019113958A1 (en) A method of enhancing the performance of a vehicle system having a neural network for controlling a vehicle component
DE102019214500A1 (en) Method, device and computer program for creating a machine learning system

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years