IBM intègre deux des derniers modèles Llama 4 de Meta, Scout et Maverick, dans la plateforme watsonx.ai.
IBM a intégré les derniers modèles d'IA open source de Meta :Llama 4 Scout et Llama 4 Maverick, intégrés à sa plateforme watsonx.ai. Ce modèle de mélange d'experts (MoE) de nouvelle génération est conçu pour offrir des capacités multimodales hautes performances, avec une rentabilité, une évolutivité et une puissance de traitement considérablement améliorées. Avec Llama 4, IBM prend désormais en charge 13 métamodèles sur watsonx.ai, renforçant ainsi son engagement en faveur d'une approche ouverte et multimodèle de l'IA générative.
Les nouveaux modèles Llama 4 de Meta représentent une avancée significative dans l'architecture de l'IA. Les deux modèles utilisent le MoE, qui active intelligemment un sous-ensemble d'« experts » du modèle pour chaque jeton, au lieu d'impliquer l'ensemble du réseau. Cette stratégie d'inférence ciblée augmente le débit et réduit les coûts opérationnels sans compromettre la qualité.
Llama 4 Scout Avec 109 milliards de paramètres répartis entre 16 experts, seuls 17 milliards sont actifs lors de l'inférence. Cette configuration efficace permet une meilleure concurrence et des temps de réponse plus rapides, tout en offrant des performances exceptionnelles pour les tâches de codage, de raisonnement en contexte long et de compréhension d'images. Malgré son faible encombrement, Scout est entraîné sur 40 XNUMX milliards de jetons et surpasse les modèles dotés de jeux de paramètres actifs nettement plus importants.
Llama 4 Maverick Maverick va plus loin avec 400 milliards de paramètres et 128 experts, tout en fonctionnant avec seulement 17 milliards de paramètres actifs par inférence. Meta rapporte que Maverick surpasse GPT-4o d'OpenAI et Gemini 2.0 Flash de Google sur tous les plans lors des benchmarks multimodaux, et qu'il égale les performances de DeepSeek-V3 sur les charges de travail de raisonnement et de codage, tout en étant bien plus performant.
Modèle | Paramètres totaux | Paramètres actifs | Nombre d'experts | Fenêtre contextuelle |
---|---|---|---|---|
Llama 4 Scout | 109B | 17B | 16 | 10 millions de jetons |
Llama 4 Maverick | 400B | 17B | 128 | 10 millions de jetons |
Llama 4 Scout introduit une fenêtre contextuelle révolutionnaire pouvant atteindre 10 millions de jetons, la plus longue du secteur à ce jour. Cette avancée permet la synthèse multi-documents, l'analyse approfondie de la base de code et la personnalisation utilisateur à long terme. Meta attribue cette avancée à deux innovations architecturales : les couches d'attention entrelacées (sans inclusions positionnelles) et une technique de mise à l'échelle de l'attention en fonction du temps d'inférence. Regroupées sous le nom d'« iRope », ces améliorations rapprochent Meta de sa vision d'une IA à longueur de contexte infinie.
Les LLM traditionnels sont entraînés uniquement sur du texte, puis adaptés à d'autres types de données. En revanche, les modèles Llama 4 sont considérés comme « nativement multimodaux », ce qui signifie qu'ils sont entraînés dès le départ à partir d'une combinaison de données textuelles, d'images et de vidéos. Cela leur permet de traiter naturellement différents types d'entrées et de fournir des résultats plus intégrés et contextuels.
Avec watsonx.ai, les développeurs et les entreprises peuvent accéder à Llama 4 Scout ou Maverick et les affiner, les optimiser et les déployer dans des environnements cloud, sur site ou en périphérie. La plateforme IBM de niveau entreprise prend en charge l'intégralité du cycle de vie de l'IA et offre des outils aux développeurs de tous niveaux, du code aux environnements low-code et no-code.
watsonx.ai inclut des intégrations prédéfinies avec des bases de données vectorielles, des frameworks d'agents et une infrastructure avancée qui facilitent l'exploitation de l'IA à grande échelle. Des outils de gouvernance robustes garantissent une conformité, une sécurité et une auditabilité de niveau entreprise, aidant les équipes à développer de manière responsable et à déployer plus rapidement.
Le partenariat d'IBM avec Meta allie innovation ouverte et préparation pratique des entreprises. Alors que Meta repousse les limites de l'architecture modèle, IBM offre l'infrastructure, la gouvernance et la flexibilité de déploiement dont les entreprises contemporaines ont besoin pour évoluer rapidement sans sacrifier le contrôle ni la rentabilité.
L'arrivée de Llama 4 sur watsonx.ai offre aux clients IBM un nouvel ensemble d'outils hautes performances pour libérer de la valeur dans un large éventail de cas d'utilisation, sans dépendance vis-à-vis des fournisseurs et avec l'assurance de fonctionner sur une plate-forme conçue pour l'entreprise.
S'engager avec StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS
Lors du salon DTW 2025, Dell a dévoilé des avancées significatives en matière de stockage, de cyber-résilience, d'automatisation du cloud privé et d'opérations de périphérie avec NativeEdge. (suite…)
AMD dévoile les processeurs Ryzen Threadripper 9000, le GPU Radeon AI PRO R9700 et le GPU RX 9060 XT au COMPUTEX 2025, élargissant ainsi…
HPE met à jour son infrastructure d'IA avec des serveurs ProLiant, Private Cloud AI, Alletra SDK et la prise en charge d'OpsRamp pour RTX PRO 6000…
Dell étend son usine d'IA avec NVIDIA, en ajoutant de nouveaux serveurs PowerEdge, une mise en réseau plus rapide et des services gérés pour l'adoption de l'IA en entreprise.
La nouvelle station de travail Pro Max Plus de Dell avec Qualcomm AI-100 NPU offre une inférence d'IA de niveau entreprise aux professionnels mobiles en périphérie.…
Intel lancera les GPU Arc Pro B50 et B60 au Computex 2025. Ces GPU permettent une inférence IA avancée et des performances de station de travail…