Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Tippen zum Übersetzen – Aufnahme

Nach Region erkunden

flag Red Hat und AWS arbeiten zusammen, um Red Hat-KI-Inferenz-Server auf AWS-Trainium- und Inferentia-Chips zu betreiben, die 40% bessere Preisleistung als GPUs versprechen, mit einer Entwickler-Vorschau für Januar 2026.

flag Red Hat und AWS haben ihre Partnerschaft erweitert, um Red Hat-KI-Inference-Server auf AWS-Trainium- und Inferentia-Chips zu betreiben und bieten bis zu 40 % bessere Preis-Leistung als herkömmliche GPU-basierte Instanzen. flag Die Integration unterstützt OpenShift und umfasst einen neuen AWS Neuron Operator, Ansible Collection und vLLM Plugin für eine optimierte KI-Bereitstellung. flag Die Lösung, für Entwickler Vorschau im Januar 2026 gesetzt, zielt darauf ab, Unternehmen KI Effizienz und Skalierbarkeit zu steigern.

4 Artikel