Kategorien
KI-News

NVIDIA revolutioniert mit Blackwell-Plattform das Computing

In einer wegweisenden Ankündigung hat NVIDIA die Einführung seiner innovativen Blackwell-Plattform angekündigt, die das Zeitalter des Computings neu definieren soll. Die Blackwell-Plattform soll es Unternehmen ermöglichen, generative KI in Echtzeit auf großen Sprachmodellen zu nutzen, und das zu Kosten und Energieverbrauch, die bis zu 25-mal niedriger sind als bei bisherigen Technologien. Diese bahnbrechende Entwicklung wurde von NVIDIA-CEO Jensen Huang während der Hausmesse GTC 2024 im kalifornischen San José enthüllt.

Benannt nach dem angesehenen Mathematiker David Harold Blackwell, gilt die Blackwell-Plattform als der Nachfolger der renommierten Hopper-Architektur von NVIDIA. Jensen Huang sieht in der generativen KI die Schlüsseltechnologie dieser Ära und behauptet, dass Blackwell für diese industrielle Revolution bereit ist.

Die Blackwell-Plattform beeindruckt mit innovativen Eigenschaften, die eine Revolution im KI-Training und der Echtzeit-Inferenz für Modelle mit bis zu 10 Billionen Parametern versprechen. Zu den Highlights gehören der weltweit stärkste Chip mit 208 Milliarden Transistoren, eine Transformer Engine der zweiten Generation, die Rechen- und Modellgrößen verdoppelt, sowie die fünfte Version von NVLink für eine reibungslose Kommunikation zwischen GPUs. Darüber hinaus bietet die Plattform eine spezielle RAS-Engine für Zuverlässigkeit, sichere KI-Funktionen zum Schutz von Modellen und Daten und eine Dekomprimierungs-Engine zur Beschleunigung von Datenbankabfragen.

Das Herzstück der Blackwell-Plattform ist der GB200 Grace Blackwell Superchip, der die B200 Tensor Core GPUs mit der NVIDIA Grace CPU kombiniert. Dieses System liefert beeindruckende 1,4 Exaflops KI-Leistung mit 30 TB schnellem Speicher und verspricht eine bis zu 30-fache Leistungssteigerung gegenüber früheren Technologien.

Blackwell-basierte Produkte werden über verschiedene Partner verfügbar sein, darunter Cloud-Dienste wie AWS, Google Cloud und Microsoft Azure sowie Serverhersteller wie Cisco, Dell und Lenovo. Softwarefirmen wie Ansys, Cadence und Synopsys werden ebenfalls Blackwell-Prozessoren einsetzen, um ihre technische Simulationssoftware zu beschleunigen.

Die Blackwell-Beschleunigerarchitektur soll laut NVIDIA bis zu 2-mal so schnell sein wie AMDs MI300X und Nvidias Vormachtstellung bei KI-Chips für die nächsten Jahre festigen.

In Bezug auf die interne Architektur besteht die Blackwell-„GPU“ aus zwei einzelnen Chips, die in einem maßgeschneiderten 4NP TSMC-Prozess hergestellt werden. Diese Chips sind über ein schnelles Interface miteinander verbunden und erreichen performancemäßig eine ähnliche Leistung wie eine einzelne GPU. Der GB200 Grace Blackwell Superchip nutzt acht 24-GByte-Stapel des schnellen HBM3e-Speichers und bietet damit eine beeindruckende Speicherkapazität und Transferrate.

Die Blackwell-Plattform unterstützt auch neuartige Datenformate wie das 4-bittige Gleitkommaformat (FP4), das die Effizienz beim KI-Inferencing von Large Language Models deutlich steigert. Zudem stellt NVIDIA die Option FP6 vor, das Speicher-, Cache- und Registerplatz spart und dadurch die Energieeffizienz verbessert.

Mit der Blackwell-Plattform setzt NVIDIA erneut Maßstäbe im Bereich des KI-Computings und festigt seine Position als Marktführer im Bereich der Beschleunigerchips für Rechenzentren. Die Zukunft des Computings verspricht dank Blackwell eine noch nie dagewesene Leistung bei gleichzeitig niedrigeren Kosten und einem reduzierten Energieverbrauch.

https://www.heise.de/news/Nvidias-neue-KI-Chips-Blackwell-GB200-und-schnelles-NVLink-9658475.html

Schreibe einen Kommentar