Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Red Hat und AWS arbeiten zusammen, um Red Hat-KI-Inferenz-Server auf AWS-Trainium- und Inferentia-Chips zu betreiben, die 40% bessere Preisleistung als GPUs versprechen, mit einer Entwickler-Vorschau für Januar 2026.
Red Hat und AWS haben ihre Partnerschaft erweitert, um Red Hat-KI-Inference-Server auf AWS-Trainium- und Inferentia-Chips zu betreiben und bieten bis zu 40 % bessere Preis-Leistung als herkömmliche GPU-basierte Instanzen.
Die Integration unterstützt OpenShift und umfasst einen neuen AWS Neuron Operator, Ansible Collection und vLLM Plugin für eine optimierte KI-Bereitstellung.
Die Lösung, für Entwickler Vorschau im Januar 2026 gesetzt, zielt darauf ab, Unternehmen KI Effizienz und Skalierbarkeit zu steigern.
4 Artikel
Red Hat and AWS are teaming up to run Red Hat’s AI Inference Server on AWS’s Trainium and Inferentia chips, promising 40% better price-performance than GPUs, with a developer preview set for January 2026.