Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Tippen zum Übersetzen – Aufnahme

Nach Region erkunden

flag Nvidia startet Groq 3 LPU-Racks für schnellere, effizientere KI-Inferenz, Versand Ende 2026.

flag Nvidia hat die Groq 3 Language Processing Unit (LPU) und damit verbundene LPX-Server-Racks ins Leben gerufen und die Groq®s-Technologie in seine Vera Rubin-Plattform integriert, um die KI-Inferenzgeschwindigkeit und -Effizienz zu erhöhen. flag Das System mit 256 LPUs pro Rack liefert bis zu 1.500 Token pro Sekunde mit 35-mal höherem Durchsatz pro Watt und zielt auf Billionen-Parameter-Modelle und agentische KI-Workloads ab. flag Die Plattform wurde entwickelt, um Nvidias Rubin GPUs und Vera CPUs zu ergänzen und zielt darauf ab, Latenz und Stromverbrauch zu reduzieren und gleichzeitig einen höheren Umsatz pro Million Token zu ermöglichen. flag Die Groq 3 LPX-Racks werden voraussichtlich Ende 2026 ausgeliefert, wobei Nvidia auch die Open-Source-Softwareplattform Dynamo 1.0 einführt, um die großflächige KI-Inferenz zu rationalisieren. flag Der Umzug markiert einen strategischen Wandel hin zu spezialisierter Inferenz-Hardware inmitten wachsender Konkurrenz und steigender Nachfrage von Hyperscalern und AI-Dienstleistern.

45 Artikel