Jetson Nano: Künstliche Intelligenz für die Massen

Redakteur: Michael Eckstein

472 GFLOPS für 99 US-Dollar: Nvidias neue CUDA-X-Computing-Plattform Jetson Nano soll die Einstiegshürden für KI-Projekte drastisch nach unten verschieben. Das Produkt spricht das Millionenheer an Makern und Technologiefans an – aber auch professionelle Embedded Designer etwa in Start-Ups.

Anbieter zum Thema

Intelligente Großfamilie: Mit dem Jetson Nano Entwickler-Kit und Modu erweitert Nvidia seine KI-Plafform Jetson nach unten.
Intelligente Großfamilie: Mit dem Jetson Nano Entwickler-Kit und Modu erweitert Nvidia seine KI-Plafform Jetson nach unten.
(Bild: Nvidia)

Nvidia hat seine KI-Plattform Jetson um ein Modul samt passendem Entwicklungs-Kit nach unten erweitert: Jetson Nano spricht Tüftler, Technologiefans und Embedded-Designer an, die für ihre KI-Projekte eine günstige und trotzdem leistungsfähige Plattform suchen. „Mit Nano steigt die Reichweite unserer Jetson-Plattform auf rund 30 Millionen Hersteller, Entwickler, Erfinder und Studenten weltweit“, sagt Deepu Talla, Vice President und General Manager of Autonomous Machines von Nvidia, bei der Vorstellung der neuen Plattform zur GPU Technology Conference.

Laut Nvidia ist das jüngste Mitglied der Jetson-Familie, zu der auch die Modelle Jetson AGX Xavier für vollautonome Maschinen und Jetson TX1/TX2 für KI-Processing am Edge gehören, softwarekompatibel mit allen anderen CUDA-X-basierten Produkten. Jetson Nano ist in zwei Versionen erhältlich: als Entwickler-Kit für 99 US-Dollar oder als „production-ready“-System-on-Modul für 129 US-Dollar. Letzteres wird voraussichtlich ab Juni 2019 in den Handel kommen.

Jetson Nano verfügt über eine Quad-Core 64-Bit-ARM-A57-CPU und einen integrierten 128-Core-Grafikprozessor (Graphic Processing Unit, GPU) mit Maxwell-Architektur. In Kombination mit 4 GB 64-Bit-LPDDR4-Speicher erreicht das Modul 472 GFLOPS Rechenleistung. Als Speicherdurchsatz gibt der Hersteller 25,6 GBit/s an. Damit ist Nano deutlich performanter als typische Maker-Boards auf Raspberry-Pi- oder Arduino-Basis. Trotzdem verbraucht das Modul je nach aktiviertem Leistungsmodus lediglich zwischen 5 W und 10 W.

Softwarekompatibel mit größeren Systemen

Laut Nvidia basiert Jetson Nano auf der hauseigenen CUDA-X-Technologie. Die „Computer Unified Device Architecture“ ist in der Lage, einzelne Programmteile auf die GPU auszulagern und so den Hauptprozessor zu entlasten. Zudem ist die GPU viel besser für das massenhafte parallele Verarbeiten bestimmter Routinen geeignet. Das beschleunigt die Verarbeitung neuronaler Netze erheblich. Der Clou sei jedoch die Softwarekompatibilität: Laut Talla laufen auf der Nano-Plattform sämtliche Modelle, die ursprünglich für andere auf CUDA-X basierende Plattformen geschrieben.

„Jetson Nano unterstützt hochauflösende Sensoren, kann mehrere Sensorfunktionen parallel bearbeiten, und zudem auf jeden Sensor-Datenstrom mehrere neuronale Netze anwenden“, sagt Talla bei der Einführung der neuen Plattform zur GPU Technology Conference. Darüber hinaus unterstütze Jetson Nano mehrere populäre KI-Frameworks. Entwickler sollen dadurch schnell ihre bevorzugten KI-Modelle und -Frameworks in das Produkt integrieren können.

Vollständige Desktop-Linux-Umgebung enthalten

Das ebenfalls neu veröffentlichte JetPack 4.2 SDK ist ein kompletter KI-Software-Stack mit beschleunigten Bibliotheken für Deep Learning, Computer Vision, Computer Graphics und Multimedia Processing, der die gesamte Jetson-Familie unterstützt. Enthalten ist eine vollständige Desktop-Linux-Umgebung (Linux for Tegra) basierend auf Ubuntu 18.04 mit beschleunigter Grafik, Unterstützung für NVIDIA CUDA Toolkit 10.0 und Bibliotheken wie cuDNNN 7.3 und TensorRT 5. Das SDK bietet zudem die Möglichkeit, beliebte Open-Source-Machine-Learning-(ML)-Frameworks wie TensorFlow, PyTorch, Caffe, Keras und MXNet sowie Frameworks für die Entwicklung von Computer Vision und Robotik wie OpenCV und ROS zu installieren.

Die vollständige Kompatibilität mit diesen Frameworks soll Entwicklern das Bereitstellen KI-basierter Inferenz-Workloads für Jetson erheblich erleichtern. Jetson Nano ermöglicht Echtzeit-Computer-Vision und Inferencing für viele komplexe „Deep Neural Network“-(DNN)-Modelle. Damit lassen sich zum Beispiel multisensorische autonome Roboter und IoT-Geräte mit intelligentem Edge-Processing realisieren. Mithilfe von ML-Frameworks soll es zudem möglich sein, neuronale Netze direkt auf dem Jetson Nano weiter zu trainieren.

Bildergalerie

Anschlussfreundiges Entwickler-Kit

Das Entwickler-Kit hat eine Grundfläche von nur 80 mm x 100 mm und lässt sich per Micro-USB oder einen 5V-DC-Buchsenadapter mit Strom versorgen. Als Boot-Medium nutzt das Entwickler-Kit eine MicroSD-Karte. An Bord befinden sich vier Hochgeschwindigkeits-USB 3.0-Ports, MIPI CSI-2-Kamerastecker, HDMI 2.0 und DisplayPort 1.3, Gigabit Ethernet, ein M.2-Key-E-Modul, MicroSD-Kartensteckplatz und ein 40-poliger GPIO-Stecker. „Die Anschlüsse arbeiten sofort mit vielen beliebten Peripheriegeräten und Sensoren zusammen“, sagt Talla. So ließen sich direkt Projekte wie der 3D-druckbare Deep-Learning-JetBot umsetzen, den Nvidia auf GitHub als Open-Source zur Verfügung stellt.

Der Kamerastecker auf der Platine ist kompatibel mit preiswerten MIPI CSI-Sensoren. Dazu zählen laut Nvidia auch Module, die auf dem 8-MP-IMX219 basieren und von Jetson-Ökosystempartnern erhältlich sind. Ebenfalls unterstützt Jetson Nano demnach das Raspberry Pi Camera Module v2, die Treiberunterstützung dafür ist im JetPack enthalten.

Jetson Nano Module: System-on-Module für KI-Processing

Kern des Kits ist das System-on-Module (SoM), auf dem das System-on-a-Chip (SoC) neben 16 GB eMMC-Onboard-Speicher und dem Energiemanagement untergebracht sind. Es gleicht einem SO-DIMM mit 260-poligem Anschluss. Das Jetson Nano-Compute-Modul misst lediglich 45 mm x 70 mm und nutzt das Unified-Memory-Subsystem von Nvidia. CPU, GPU und Multimedia-Engines können darüber gemeinsam auf den Speicher zugreifen. Nvidia will es ab Juni 2019 für 129 US-Dollar (ab 1000 Stück) für Embedded-Designer zur Integration in Produktionssysteme ausliefern.

Neben PCIe, MIPI DSI, weiteren GPIO stehen zwölf Lanes MIPI CSI-2 zum Anschluss von bis zu drei x4-Kameras oder bis zu vier Kameras in x4/x2-Konfigurationen zur Verfügung. So gerüstet soll es bis zu acht HD-Videoströme in Echtzeit verarbeiten können. Dank seines geringen Stromverbrauchs eignet sich das Produkt nach Angaben des Herstellers unter anderem als intelligente Videoanalyseplattform für Netzwerk-Videorekorder (NVR), Smart Kameras und IoT-Gateways.

Laut Nvidia kann Jetson Nano viele KI-Netzwerke ausführen, zum Beispiel ML-Frameworks wie TensorFlow, PyTorch, Caffe/Caffe2, Keras, MXNet. Durch das Integrieren von Funktionen wie Bilderkennung, Objekterkennung und -lokalisierung, Posenabschätzung, semantische Segmentierung, Video-Optimierung und intelligente Analytik sollen sich beispielsweise autonome Maschinen und komplexe KI-Systeme aufbauen lassen.

(ID:45821773)