Meta bringt das multimodale KI-Modell Llama 3.2 für die Bild- und Textverarbeitung auf den Markt.

Meta hat Llama 3.2 eingeführt, das erste multimodale KI-Modell, das Bilder und Text verarbeiten kann. Es umfasst Vision-Modelle mit 11 Milliarden und 90 Milliarden Parametern sowie leichte Textmodelle mit 1 Milliarde und 3 Milliarden Parametern, die für vielfältige Hardware ausgelegt sind. Llama 3.2 zielt darauf ab, KI-Anwendungen in Bereichen wie Augmented Reality und Dokumentenanalyse zu verbessern und bietet wettbewerbsfähige Leistung in Bilderkennungsaufgaben gegen Rivalen wie OpenAI und Anthropoc.

September 25, 2024
10 Artikel