KI4U

Nvidia Blackwell Revolution

Die Zukunft der generativen KI durch Nvidia

Nvidia stellt mit der Einführung der Blackwell-Plattform einen entscheidenden Wendepunkt in der Entwicklung und Anwendung generativer Künstlicher Intelligenz (KI) dar. CEO Jensen Huang beschreibt Blackwell als „die treibende Kraft hinter der neuen industriellen Revolution“, die das Potenzial hat, den Betrieb generativer KI mit Sprachmodellen, die bis zu mehrere Billionen Parameter umfassen, grundlegend zu verändern. Diese fortschrittliche Plattform kombiniert die leistungsfähigsten Chips der Welt und setzt neue Maßstäbe in der KI-Technologie.

Blackwell: Eine technologische Meisterleistung

Die Architektur hinter der Revolution

Blackwells Architektur basiert auf einer innovativen Verbindung zweier Dies, die mit TSMCs 4NP-Prozess gefertigt und über eine Geschwindigkeit von 10 TB/Sekunde verbunden sind, sodass sie als eine einzige CUDA-GPU funktionieren. Die Plattform verfügt zudem über die zweite Generation der Transformer Engine, die KI-Anwendungen mit FP4-Genauigkeit ermöglicht, und verbesserte NVLink-Kommunikationstechnologien für den Datenaustausch zwischen bis zu 576 Grafikprozessoren. Eine dedizierte Dekompressions-Engine soll Datenbankabfragen beschleunigen und eine neue Zuverlässigkeits- und Service-Engine (RAS Engine) ermöglicht präventive Wartung durch KI.

Leistungsmerkmale und Effizienz

Mit 192 Gigabyte HBM3e-Speicher bietet Blackwell eine KI-Rechenleistung von bis zu 20 PetaFLOPS bei FP4-Präzision. Diese Leistung übertrifft den Grafikprozessor H100 um das Vierfache in Bezug auf die Trainingsleistung und bietet eine bis zu 30-mal höhere Inferenzleistung. Der Einsatz von Mixture-of-Expert-Modellen wie GPT-4 ermöglicht einen deutlichen Leistungssprung, wobei die neue NVLink- und NVLink Switch 7.2-Technologie eine effizientere Kommunikation zwischen GPUs und somit eine Optimierung bisheriger Engpässe ermöglicht.

KI-Supercomputing auf neuem Level

Neue Generation DGX SuperPOD

Neben Blackwell präsentiert Nvidia den DGX SuperPOD, eine hochmoderne, flüssigkeitsgekühlte Rack-Scale-Architektur mit einer KI-Supercomputing-Leistung von 11,5 ExaFLOPS bei FP4-Präzision. Dieses System kann auf eine gewaltige Anzahl von Chips erweitert werden und ist damit eine zentrale Ressource für Forschung und Entwicklung im Bereich der Künstlichen Intelligenz. Das Herzstück bildet der GB200 NVL72, der 36 Nvidia GB200 Superchips mit je 36 Grace CPUs und 72 Blackwell GPUs verbindet, was einer gigantischen GPU mit 720 PetaFLOPS für Training FP8 und 1,44 ExaFLOPS für Inferenz in FP4 entspricht.

Verfügbarkeit und Implementierung

Nvidias Blackwell-Plattform und die damit verbundenen Systeme wie der DGX SuperPOD werden erwartungsgemäß von fast allen großen Cloud-Anbietern und Serverherstellern eingesetzt. Unternehmen wie Amazon Web Services, Google, Meta, Microsoft und OpenAI gehören zu den ersten, die diese fortschrittliche Technologie nutzen werden. Die Verfügbarkeit beider Systeme ist für das laufende Jahr angekündigt.

Fazit: Ein neues Zeitalter für KI und Computing

Mit der Vorstellung von Blackwell und dem DGX SuperPOD leitet Nvidia ein neues Zeitalter der Künstlichen Intelligenz und des High-Performance-Computing ein. Diese technologischen Fortschritte bieten beispiellose Möglichkeiten für die Entwicklung und Anwendung generativer KI-Modelle und stellen einen Meilenstein in der Geschichte der Computertechnologie dar. Die Kombination aus innovativer Hardware, verbesserten Kommunikationstechnologien und erweiterten KI-Fähigkeiten macht Nvidia zu einem zentralen Akteur in der zukünftigen Landschaft der Künstlichen Intelligenz.

Interesse geweckt?

Zukunftssicher mit KI:
Anwendungsmöglichkeiten & Trends für Künstliche Intelligenz erkennen und umsetzen. Wir helfen.