Nvidia hat das Jetson Orin Nano Super Developer Kit vorgestellt, eine leistungsstarke KI-Plattform, die eine 70-prozentige Steigerung der generativen KI-Inferenzgeschwindigkeit bietet und gleichzeitig die Speicherbandbreite im Vergleich zum Vorgänger verdoppelt.

Preis bei 249 $, das Kit bietet Entwicklern, Forschern und Studenten ein kostengünstiges Werkzeug zum Erstellen und Bereitstellen fortschrittlicher KI-Anwendungen am Edge.

Das NVIDIA Jetson Orin Nano Super Developer Kit ist ein kompaktes Edge KI-Board für die Entwicklung von KI-gestützten Einsteigergeräten wie Robotern, Drohnen und intelligenten Kameras.

Es ist Die Kombination aus verbesserter Hardwareleistung und abwärtskompatiblen Softwareoptimierungen macht es zu einer attraktiven Lösung für Robotik, Computer Vision und generative Echtzeit-KI-Arbeitslasten – Bereiche, in denen Rechenleistung erforderlich ist Erfüllen Sie Energie-und Platzbeschränkungen.

Vergleich der Konfiguration des Jetson Orin Nano Super Developer Kit

NVIDIA Jetson Orin Nano Developer Kit
(Original)NVIDIA Jetson Orin Nano Super Developer KitGPU NVIDIA Ampere-Architektur

1.024 CUDA-Kerne

32 Tensor Kerne

635 MHz

NVIDIA Ampere-Architektur

1.024 CUDA-Kerne

32 Tensorkerne

1.020 MHz

AI PERF40 INT8 TOPS (sparse)

20 INT8 TOPS (Dense)

10 FP16 TFLOPs 

67 TOPS (sparse)

33 TOPS (Dense)

17 FP16 TFLOPs 

CPUArm Cortex-A78AE v8.2 mit 6 Kernen, 64-Bit-CPU

1,5 GHz

Arm Cortex-A78AE v8.2 mit 6 Kernen 64-Bit-CPU

1,7 GHz

Speicher8 GB 128-Bit LPDDR5 

68 GB/s

8 GB 128-Bit LPDDR5 

102 GB/s

MODULLEISTUNG7W | 15W7W | 15W | 25 W

Erschwingliche KI-Leistungssteigerungen für Edge Computing

Der Jetson Orin Nano Super basiert auf der Ampere-GPU-Architektur von Nvidia, die Folgendes bietet war ein Eckpfeiler seiner KI-Angebote in Rechenzentren, in der Cloud und jetzt auch im Edge Computing. Das Entwicklerkit enthält das Jetson Orin Nano 8GB System-on-Module (SoM) und bringt eine verbesserte Effizienz für Aufgaben wie transformatorbasierte Modelle, Sprachmodelle und Robotiksimulationen.

Nvidia meldet einen 1,7-fachen Anstieg der generativen KI-Inferenz Leistung, ermöglicht durch Hardware-Upgrades und Softwareoptimierung. Bemerkenswert ist, dass das neue System eine spärliche Rechenleistung von 67 TOPS (Billionen Operationen pro Sekunde) erreicht – gegenüber 40 TOPS in der vorherigen Orin Nano-Serie – und die Speicherbandbreite auf 102 GB/s erhöht, ein deutlicher Sprung gegenüber den früheren 68 GB/s.

Laut Nvidia behält das Entwicklerkit den gleichen kompakten Formfaktor bei und bietet gleichzeitig eine höhere Effizienz. Deepu Talla, Nvidias Vizepräsident für Embedded und Edge Computing, bemerkte die Auswirkungen des Upgrades und sagte: „Es ist, als hätten wir Orin Nano genommen und ihm einen Superhelden-Umhang verpasst.“

Diese Verbesserungen ermöglichen es Entwicklern, mit KI umzugehen Aufgaben, die bisher auf Cloud-Systeme beschränkt waren, wie das Ausführen kompakter großer Sprachmodelle (LLMs) wie Llama-3.1 und Gemma-2. Durch die Ermöglichung der lokalen Ausführung kleinerer, optimierter Modelle Jetson Orin Nano Super reduziert die Abhängigkeit von Cloud-Ressourcen und Latenz – entscheidend für Robotik, autonome Maschinen und andere Echtzeitanwendungen.

[eingebetteter Inhalt]

Software-Updates erweitern die Leistungssteigerung auf vorhandene Geräte

Neben der Hardware-Veröffentlichung stellte Nvidia ein JetPack SDK vor Update, das der gesamten Jetson Orin-Familie zugute kommt, einschließlich älterer Orin Nano-und NX-Modelle. Dieses Update schaltet den Super-Modus frei, eine Einstellung mit höherer Leistung, die die GPU-und CPU-Taktfrequenzen erhöht, um die Leistung zu verbessern.

Entwickler können den Super-Modus mit dem Power Mode Selector-Tool von Nvidia aktivieren, auf das über die Befehlszeile oder die grafische Oberfläche zugegriffen werden kann. Mit dieser Funktion kann vorhandene Hardware ohne zusätzliche Investitionen ähnliche Leistungssteigerungen wie der Jetson Orin Nano Super erzielen.

Durch die Sicherstellung der Softwareparität in der gesamten Orin-Reihe maximiert Nvidia den Lebenszyklus und den Wert seiner Edge-KI-Plattformen und sorgt so für mehr Leistung Es erleichtert Entwicklern die Skalierung ihrer Projekte.

Reale Anwendungen: Robotik, Vision-Modelle und generative KI

Nvidias Jetson Orin Nano Super wurde speziell für Edge-Anwendungen entwickelt, die eine effiziente KI-Verarbeitung erfordern. Zu den Hauptschwerpunkten zählen Robotik, Computer Vision und generative KI:

Im Bereich Robotik Nvidia Die Isaac-Plattform bietet Simulationstools und die Generierung synthetischer Daten, um die Entwicklung zu beschleunigen. Mit Isaac Sim können Entwickler beispielsweise Prototypen von Robotersystemen in virtuellen Umgebungen erstellen, bevor sie diese in der realen Welt einsetzen. In ähnlicher Weise erleichtert der Omniverse Replicator von Nvidia die Erstellung hochwertiger synthetischer Daten für das Training von KI-Modellen.

Für Computer Vision unterstützt der Jetson Orin Nano Super transformatorbasierte Modelle wie Metas selbstüberwachtes Vision-Transformer-Modell DINOv2 und CLIP, die eine verbesserte Genauigkeit für liefern Bild Erkennungs-, Klassifizierungs-und Objekterkennungsaufgaben.

Diese Modelle ermöglichen es Systemen, hochauflösende Bilder und Videostreams effizienter zu analysieren, wodurch sich das Gerät ideal für Anwendungen wie automatisierte Qualitätskontrolle, Überwachung und autonome Navigation eignet.

Generative KI-Workloads profitieren ebenfalls von den Fähigkeiten der Plattform. Durch lokales Ausführen kompakter LLMs – wie zum Beispiel Llama-3.1 8B oder Googles Gemma-2 – Entwickler können Anwendungen wie Retrieval-Augmented Generation (RAG) Chatbots oder implementieren Inhaltszusammenfassung in Echtzeit.

Durch die Kombination aus geringer Latenz und reduziertem Stromverbrauch eignet sich der Jetson Orin Nano Super gut für Edge-Umgebungen, in denen Bandbreite und Cloud-Zugriff begrenzt sind.

Entwickler-Ökosystem und Long-Term Support

Nvidia gibt an, dass es sich verpflichtet hat, die Jetson-Community durch umfassende Ressourcen und Tools zu unterstützen. Das Jetson AI Lab stellt Entwicklern vorgefertigte Container, Bereitstellungshandbücher und Tutorials für die Implementierung von KI-Modellen zur Verfügung. Beispiele hierfür sind die Integration von Ollama für die Chatbot-Bereitstellung und die Nutzung von Frameworks von Hugging Face, Google, Microsoft und Meta.

Das Entwickler-Kit auch bietet Unterstützung für bis zu vier Kameras und ermöglicht die Multi-Stream-Verarbeitung für visionsbasierte Aufgaben – entscheidend für Robotik und autonome Systeme.

Um langfristige Stabilität zu gewährleisten, hat Nvidia den Produktlebenszyklus von Jetson Orin verlängert 2032, was Entwicklern und Unternehmen Vertrauen in die Verfügbarkeit der Plattform für zukünftige Bereitstellungen gibt.

Ein Schritt vorwärts für Edge AI

Mit dem Jetson Orin Nano Super, Nvidia kombiniert verbesserte KI-Leistung mit Erschwinglichkeit und erfüllt so den wachsenden Bedarf an Echtzeit-Computing auf dem Gerät. Die Fähigkeit der Plattform, kompakte generative KI-Modelle auszuführen, hochauflösende Bilder zu verarbeiten und die Robotikentwicklung zu beschleunigen, macht sie zu einem unverzichtbaren Werkzeug für Entwickler, die an Edge-Lösungen arbeiten.

Indem Hardware-Verbesserungen neben Software-Optimierungen angeboten werden, die auf bestehende Lösungen anwendbar sind Geräten hat Nvidia ein robustes Ökosystem für die Edge-KI-Entwicklung geschaffen.

Categories: IT Info