Nvidia Orin: Next-Gen-Prozessor für autonome Fahrzeuge mit hoher Rechenleistung
Nvidias Kombiprozessor Orin leistet bis zu 200 Billionen Operationen pro Sekunde – gekoppelt mit GPUs sogar ausreichend fürs autonome Fahren auf Stufe 5.
- Martin Fischer
Nvidia arbeitet an einer neuen Generation von Hard- und Software für Autonomes Fahren und Robotik – und hat nun die Plattform Drive AGX Orin vorgestellt. Herzstück ist der neu entwickelte Kombiprozessor Orin (System-on-Chip/SoC), der aus insgesamt 17 Milliarden Transistoren besteht. Nvidia erklärte gegenüber heise online, dass Orin in einem 8-Nanometer-Fertigungsverfahren hergestellt wird und bekräftigte dies auch auf erneute Nachfage. Nvidia zufolge soll es erste Samples im zweiten Quartal 2021 geben, eingesetzt werden solle der Chip ab dem Jahr 2022.
GPU-Architektur der nächsten Generation
Orin enthält zwölf standardisierte ARM-Prozessorkerne der Hercules-Serie – Nvidia kehrt also seiner bisherigen Custom-Chip-Strategie den Rücken. Die Hercules-Kerne kündigte ARM fürs Jahr 2020 an und versprach eine um 15 Prozent höhere Rechenleistung im Vergleich zu Cortex-A76-Rechenkernen – bei einer Fertigung von 7 beziehungsweise später 5 nm. Dazu kommt eine Grafikeinheit samt "GPU-Architektur der nächsten Generation". Inwiefern die Orin-GPU bereits Anleihen aus Nvidias im Jahr 2020 kommender Profi-GPU-Generation enthalten wird, ist unklar. Letzteres führte Nvidia auch auf Nachfrage nicht näher aus.
Zusammen mit zusätzlichen Beschleunigerkernen soll Orin eine besonders hohe Rechenleistung in den Anwendungsbereichen des Machinellen Lernens (Deep Learning) und Machinellen Sehens (Computer Vision) entfachen. Nvidia spricht pro Orin-SoC von kombiniert 200 Billionen Operationen pro Sekunde (200 TOPS INT8). Allerdings ist unklar, wie Nvidia die Rechenleistung genau ermittelt. Die maximale Transferrate liegt bei 200 GByte pro Sekunde, die Video-Engines dekodieren 8K mit 30 fps und 4K mit 60 fps; unterstützen dabei die Formate VP9, H.265 und H.264.
Voll skalierbar
Wie der Vorgänger Xavier (30 TOPS, Volta) ist auch Orin eine voll skalierbare Plattform – das ist etwa für das Umsetzen des automatisierten Fahrens wichtig. Bei letzterem unterscheidet man fünf Stufen, die den Grad der Entlastung des Fahrers durch automatisierte Systeme beschreiben. Je höher die Stufe, desto mehr Rechen- und Erkennungsleistung ist erforderlich. Für die Stufe 3 (hochautomatisiert) veranschlagt Nvidia zwei Orin-SoCs mit insgesamt 400 TOPS Rechenleistung und einer Leistungsaufnahme von 130 Watt; für Stufe 5 (autonom) bereits zwei Orin-SoCs und zwei GPUs mit insgesamt 2000 TOPS bei 750 Watt. Im Zuge der Orin-Ankündigung gab Nvidia auch bekannt, interessierten Firmen aus dem Automobilbereich Zugang zum mit Testwagendaten trainierten Drive Neural Network zu gewähren.
Nvidia steht im Bereich des Autonomen Fahrens unter Druck – so kehrte etwa der E-Auto-Hersteller Tesla dem GPU-Spezialisten den Rücken und entwickelte einen eigenen Baustein "FSD" zum Steuern seiner Autos. Dieser wird im 14-nm-FinFET-Prozess von Samsung gefertigt, bereits in alle aktuellen Tesla-Modelle ab Werk eingebaut – und ersetzt den zuvor genutzten Nvidia-SoC Xavier. FSD leistet 144 TOPS bei 72 Watt. (mfi)