Lerne Sprachen natürlich mit frischen, authentischen Inhalten!

Beliebte Themen
Nach Region erkunden
Meta bringt das multimodale KI-Modell Llama 3.2 für die Bild- und Textverarbeitung auf den Markt.
Meta hat Llama 3.2 eingeführt, das erste multimodale KI-Modell, das Bilder und Text verarbeiten kann.
Es umfasst Vision-Modelle mit 11 Milliarden und 90 Milliarden Parametern sowie leichte Textmodelle mit 1 Milliarde und 3 Milliarden Parametern, die für vielfältige Hardware ausgelegt sind.
Llama 3.2 zielt darauf ab, KI-Anwendungen in Bereichen wie Augmented Reality und Dokumentenanalyse zu verbessern und bietet wettbewerbsfähige Leistung in Bilderkennungsaufgaben gegen Rivalen wie OpenAI und Anthropoc.
Vor 7 Monaten
10 Artikel