Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Das chinesische AI-Startup DeepSeek führt eine neue Methode ein, um große Modelle effizienter zu machen, Kosten zu senken und die Skalierbarkeit zu erhöhen.
DeepSeek, ein chinesisches AI-Startup, hat eine neue Schulungsmethode namens Manifold-Constrained Hyper-Connections vorgestellt, die große KI-Modelle effizienter und skalierbarer machen und gleichzeitig die Kosten für Rechen- und Energiekosten senken soll.
Die Technik, die in einem von Gründer Liang Wenfeng mitverfassten und auf arXiv veröffentlichten Papier ausführlich erläutert wird, behandelt Trainingsinstabilität und Gedächtnisprobleme in früheren Modellen und ermöglicht ein stabiles Training über 3 bis 27 Milliarden Parametersysteme mit minimaler Rechenleistung.
Aufbauend auf ByteDances früheren Arbeiten spiegelt der Ansatz Chinas Drang nach KI-Innovation wider, trotz US-Halbleiterbeschränkungen.
Die Veröffentlichung fördert die Vorfreude auf DeepSeeks nächstes großes Modell, möglicherweise R2, das rund um das Frühlingsfest im Februar erwartet wird.
Chinese AI startup DeepSeek introduces new method to make large models more efficient, reducing costs and boosting scalability.