Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Nvidia startet Groq 3 LPU-Racks für schnellere, effizientere KI-Inferenz, Versand Ende 2026.
Nvidia hat die Groq 3 Language Processing Unit (LPU) und damit verbundene LPX-Server-Racks ins Leben gerufen und die Groq®s-Technologie in seine Vera Rubin-Plattform integriert, um die KI-Inferenzgeschwindigkeit und -Effizienz zu erhöhen.
Das System mit 256 LPUs pro Rack liefert bis zu 1.500 Token pro Sekunde mit 35-mal höherem Durchsatz pro Watt und zielt auf Billionen-Parameter-Modelle und agentische KI-Workloads ab.
Die Plattform wurde entwickelt, um Nvidias Rubin GPUs und Vera CPUs zu ergänzen und zielt darauf ab, Latenz und Stromverbrauch zu reduzieren und gleichzeitig einen höheren Umsatz pro Million Token zu ermöglichen.
Die Groq 3 LPX-Racks werden voraussichtlich Ende 2026 ausgeliefert, wobei Nvidia auch die Open-Source-Softwareplattform Dynamo 1.0 einführt, um die großflächige KI-Inferenz zu rationalisieren.
Der Umzug markiert einen strategischen Wandel hin zu spezialisierter Inferenz-Hardware inmitten wachsender Konkurrenz und steigender Nachfrage von Hyperscalern und AI-Dienstleistern.
Nvidia launches Groq 3 LPU racks for faster, more efficient AI inference, shipping late 2026.