KI-Feature für WhatsApp und Co.: Meta präsentiert Chatbot Meta AI mit neuem Sprachmodell Llama 3

Andreas Frischholz
40 Kommentare
KI-Feature für WhatsApp und Co.: Meta präsentiert Chatbot Meta AI mit neuem Sprachmodell Llama 3
Bild: Meta AI

Meta hat mit Llama 3 eine neue Version des Open-Source-Sprachmodells vorgestellt, die deutlich leistungsfähiger als die Vorgänger sein soll. Davon profitieren wird der Chatbot Meta AI, den der Konzern nun auch als eigenständige App anbietet – vorerst aber noch nicht in Deutschland.

Meta AI wurde bereits im September 2023 auf der Connect-Konferenz angekündigt, nun wird aber der Funktionsumfang deutlich erweitert. Meta bringt einen Chatbot an den Start, der mit ChatGPT, Microsoft Copilot und Google Gemini konkurrieren soll. Im Kern beherrscht dieser die typischen Fähigkeiten wie das Beantworten von Fragen oder Generieren von Bildern.

Integration in Meta-Netzwerke

Das Besondere ist aber die Integration in die sozialen Netzwerke und Messenger-Dienste des Konzerns. So lässt sich Meta AI auch über die Suchleisten von Facebook, Instagram, WhatsApp und Messenger aufrufen. Wie das in Praxis aussehen soll, beschreibt Meta in der Mitteilung. Eines der Beispiele: Wenn man in einem Gruppen-Chat etwa eine Reise plant, könnte der Chatbot die passenden Flugverbindungen heraussuchen. Der Zugang zu Echtzeitdaten erfolgt über Bing.

GIF Meta AI: Suchfunktion in WhatsApp und Co mit dem Chatbot (Bild: Meta)

Ebenfalls integriert wird Meta AI in den News-Feed. Damit erhalten Nutzer etwa die Möglichkeit, bei einem Beitrag nach zusätzlichen Informationen zu dem jeweiligen Thema zu fragen. Verbessert worden sein soll auch die Bildgenerierung.

Derzeit erfolgt der Start von Meta AI – ausschließlich auf Englisch – in den USA und mehr als einem Dutzend weiteren Ländern. Die EU und Deutschland zählen aber noch nicht dazu. Manche Funktionen wie die Echtzeit-Bildergenerierung in WhatsApp sind auch in den USA noch auf die Beta-Versionen des Messenger-Dienstes beschränkt.

Meta will den Chatbot perspektivisch in sämtliche Produkte des Konzerns einbauen. In den USA das bereits bei der Ray-Ban Meta Smart Glasses der Fall, bald soll sich Meta AI auch über die VR-Brille Meta Quest nutzen lassen.

Llama 3 soll Spitze bei den Open-Source-Modellen übernehmen

Meta AI basiert auf Llama 3, dem neuesten Large Language Model (LLM) von Meta, das ebenfalls veröffentlicht wurde. Das erscheint zunächst in zwei Varianten, einer mit 70 Milliarden Parametern und einer mit 8 Milliarden Parametern. Wie Metas AI-Chef Yann LeCun auf Threads betont, ist bereits das kleinere Llama-3-Modell leistungsfähiger als die Llama-2-Generation.

Konkurrenz zu Gemini und Claude

Das größere Llama-3-Modell bewegt sich laut den von Meta bereitgestellten Benchmarks auf einem ähnlichen Leistungsniveau wie Googles Gemini 1.5 Pro und Anthropics Claude 3 Sonnet, während die Variante mit 7 Milliarden Parametern demnach besser abschneidet als die vergleichbaren Open-Source-Modelle von Mistral und Google. Bei Google handelt es sich in diesem Fall nicht um die Gemini-Modelle, sondern um das Gemma-Modell mit 7 Milliarden Parametern.

Besseres Verständnis von Fremdsprachen

Profitiert haben beide Modelle von dem Trainingsdatensatz, der siebenmal größer war als der bei den Vorgängern. Llama 2 wurde mit 2 Billionen Token trainiert, für Llama 3 verwendete Meta 15 Billionen Token. Die Daten sollen aus öffentlich verfügbaren Quellen stammen, der Fokus lag auf hochwertigen Inhalten, um die Qualität zu steigern. Um die Sprachvielfalt zu verbessern, achtete man insbesondere auch auf nicht-englische Inhalte. Fünf Prozent der Pretraining-Daten von Llama 3 solle über 30 Sprachen abdecken. Meta erwartet aber, dass das Sprachmodell weiterhin am besten auf Englisch funktioniert.

Trainiert wurden beide Modelle auf zwei Clustern mit 24.000 GPUs. Diese sind Teil der Infrastruktur, die Meta derzeit für die Entwicklung und den Betrieb von KI-Modellen aufbaut.

Das Llama-3-Spitzenmodell kommt erst noch

Wie im Vorfeld erwartet, sind die beiden jetzt veröffentlichten Modelle aber nur die Vorläufer. Das leistungsfähigste Modell soll eine Größe von über 400 Milliarden Parameter haben, befindet sich aber noch in der Trainingsphase. Die Veröffentlichung soll in den kommenden Monaten erfolgen.