Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Meta bringt das multimodale KI-Modell Llama 3.2 für die Bild- und Textverarbeitung auf den Markt.
Meta hat Llama 3.2 eingeführt, das erste multimodale KI-Modell, das Bilder und Text verarbeiten kann.
Es umfasst Vision-Modelle mit 11 Milliarden und 90 Milliarden Parametern sowie leichte Textmodelle mit 1 Milliarde und 3 Milliarden Parametern, die für vielfältige Hardware ausgelegt sind.
Llama 3.2 zielt darauf ab, KI-Anwendungen in Bereichen wie Augmented Reality und Dokumentenanalyse zu verbessern und bietet wettbewerbsfähige Leistung in Bilderkennungsaufgaben gegen Rivalen wie OpenAI und Anthropoc.
Artikel
Weiterführende Lektüre
Sie haben noch 14 kostenlose Artikel diesen Monat. Abonnieren Sie für unbegrenzten Zugriff.