IBM integriert zwei der neuesten Llama 4-Modelle von Meta, Scout und Maverick, in die watsonx.ai-Plattform.
IBM hat die neuesten Open-Source-KI-Modelle von Meta integriert –Lama 4 Scout und Llama 4 Maverick – in die watsonx.ai-Plattform integriert. Diese Experten-Mixtur (MoE)-Modelle der nächsten Generation bieten leistungsstarke multimodale Funktionen mit deutlich verbesserter Kosteneffizienz, Skalierbarkeit und Rechenleistung. Mit Llama 4 unterstützt IBM nun 13 Metamodelle auf watsonx.ai und unterstreicht damit sein Engagement für einen offenen, multimodellbasierten Ansatz für generative KI.
Architektur mit Expertenmix: Effizienz ohne Kompromisse
Die neuen Llama 4-Modelle von Meta stellen einen bedeutenden Fortschritt in der KI-Architektur dar. Beide Modelle nutzen MoE, das intelligent nur eine Teilmenge von Modellexperten für jeden Token aktiviert, anstatt das gesamte Netzwerk einzubeziehen. Diese gezielte Inferenzstrategie erhöht den Durchsatz und senkt die Betriebskosten ohne Qualitätseinbußen.
Lama 4 Scout Scout verfügt über insgesamt 109 Milliarden Parameter, verteilt auf 16 Experten, doch nur 17 Milliarden davon sind während der Inferenz aktiv. Diese effiziente Konfiguration ermöglicht höhere Parallelität und schnellere Reaktionszeiten und liefert gleichzeitig außergewöhnliche Leistung bei Codierung, Long-Context-Reasoning und Bildverständnisaufgaben. Trotz seines kompakten Speicherbedarfs wird Scout mit 40 Billionen Token trainiert und übertrifft Modelle mit deutlich größeren aktiven Parametersätzen.
Lama 4 Maverick Mit 400 Milliarden Parametern und 128 Experten geht Maverick noch einen Schritt weiter und arbeitet dennoch mit nur 17 Milliarden aktiven Parametern pro Inferenz. Meta berichtet, dass Maverick OpenAIs GPT-4o und Googles Gemini 2.0 Flash bei multimodalen Benchmarks durchweg übertrifft und bei Reasoning- und Coding-Workloads die Leistung von DeepSeek-V3 erreicht, obwohl es deutlich effizienter ist.
Modell | Gesamtparameter | Aktive Parameter | Anzahl der Experten | Kontextfenster |
---|---|---|---|---|
Lama 4 Scout | 109 Mrd | 17 Mrd | 16 | 10 Millionen Token |
Lama 4 Maverick | 400 Mrd | 17 Mrd | 128 | 10 Millionen Token |
Vorreiter bei der Langzeit-KI
Llama 4 Scout führt ein bahnbrechendes Kontextfenster mit bis zu 10 Millionen Token ein – derzeit das längste in der Branche. Diese Weiterentwicklung ermöglicht die Zusammenfassung mehrerer Dokumente, eine detaillierte Codebasisanalyse und eine langfristige Benutzerpersonalisierung. Meta führt diesen Meilenstein auf zwei architektonische Innovationen zurück: verschachtelte Aufmerksamkeitsebenen (ohne Positionseinbettungen) und eine Technik zur Aufmerksamkeitsskalierung während der Inferenzzeit. Diese Verbesserungen, die zusammen als „iRope“ bezeichnet werden, bringen Meta seiner Vision einer KI mit unbegrenzter Kontextlänge näher.
Native Multimodalität für reale Anwendungsfälle
Herkömmliche LLMs werden ausschließlich mit Text trainiert und anschließend für andere Datentypen angepasst. Llama 4-Modelle hingegen gelten als „nativ multimodal“, d. h. sie werden von Grund auf mit einer Kombination aus Text-, Bild- und Videodaten trainiert. Dadurch können sie verschiedene Eingabetypen auf natürliche Weise verarbeiten und integriertere, kontextbezogene Ergebnisse liefern.
Während des Trainings verschmelzen die Modelle visuelle und sprachliche Daten in frühen Verarbeitungsphasen und schulen so das System effektiv darin, modalitätsübergreifend zu interpretieren und zu schlussfolgern. Das Ergebnis ist eine überragende Leistung beim bildbasierten Schlussfolgern, einschließlich der Fähigkeit, mehrere Bilder pro Eingabeaufforderung zu verarbeiten und bestimmte visuelle Elemente mit Textantworten zu verknüpfen.
Enterprise-Bereitstellung auf IBM Watsonx
Mit watsonx.ai können Entwickler und Unternehmen auf Llama 4 Scout oder Maverick zugreifen und diese optimieren, optimieren und in Cloud-, On-Premise- oder Edge-Umgebungen bereitstellen. Die Enterprise-Plattform von IBM unterstützt den gesamten KI-Lebenszyklus und bietet Tools für Entwickler aller Erfahrungsstufen – von Code- bis hin zu Low-Code- und No-Code-Umgebungen.
watsonx.ai umfasst vorgefertigte Integrationen mit Vektordatenbanken, Agenten-Frameworks und fortschrittlicher Infrastruktur, die die Implementierung von KI im großen Maßstab erleichtern. Robuste Governance-Tools gewährleisten Compliance, Sicherheit und Auditierbarkeit auf Unternehmensniveau und unterstützen Teams bei der verantwortungsvollen Entwicklung und schnelleren Bereitstellung.
Eine strategische Allianz für die KI-Transformation
Die Partnerschaft von IBM mit Meta verbindet offene Innovation mit praktischer Unternehmensreife. Während Meta die Grenzen der Modellarchitektur erweitert, bietet IBM die Infrastruktur, Governance und Bereitstellungsflexibilität, die moderne Unternehmen benötigen, um schnell zu agieren, ohne dabei Kontrolle oder Kosteneffizienz einzubüßen.
Mit der Einführung von Llama 4 auf watsonx.ai erhalten IBM-Kunden einen neuen Satz leistungsstarker Tools, mit denen sie in einer Vielzahl von Anwendungsfällen Mehrwert erzielen können – ohne Abhängigkeit von einem Anbieter und mit der Gewissheit, auf einer für Unternehmen konzipierten Plattform zu arbeiten.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed