IBM intègre deux des derniers modèles Llama 4 de Meta, Scout et Maverick, dans la plateforme watsonx.ai.
IBM a intégré les derniers modèles d'IA open source de Meta :Llama 4 Scout et Llama 4 Maverick, intégrés à sa plateforme watsonx.ai. Ce modèle de mélange d'experts (MoE) de nouvelle génération est conçu pour offrir des capacités multimodales hautes performances, avec une rentabilité, une évolutivité et une puissance de traitement considérablement améliorées. Avec Llama 4, IBM prend désormais en charge 13 métamodèles sur watsonx.ai, renforçant ainsi son engagement en faveur d'une approche ouverte et multimodèle de l'IA générative.
Architecture mixte d'experts : efficacité sans compromis
Les nouveaux modèles Llama 4 de Meta représentent une avancée significative dans l'architecture de l'IA. Les deux modèles utilisent le MoE, qui active intelligemment un sous-ensemble d'« experts » du modèle pour chaque jeton, au lieu d'impliquer l'ensemble du réseau. Cette stratégie d'inférence ciblée augmente le débit et réduit les coûts opérationnels sans compromettre la qualité.
Llama 4 Scout Avec 109 milliards de paramètres répartis entre 16 experts, seuls 17 milliards sont actifs lors de l'inférence. Cette configuration efficace permet une meilleure concurrence et des temps de réponse plus rapides, tout en offrant des performances exceptionnelles pour les tâches de codage, de raisonnement en contexte long et de compréhension d'images. Malgré son faible encombrement, Scout est entraîné sur 40 XNUMX milliards de jetons et surpasse les modèles dotés de jeux de paramètres actifs nettement plus importants.
Llama 4 Maverick Maverick va plus loin avec 400 milliards de paramètres et 128 experts, tout en fonctionnant avec seulement 17 milliards de paramètres actifs par inférence. Meta rapporte que Maverick surpasse GPT-4o d'OpenAI et Gemini 2.0 Flash de Google sur tous les plans lors des benchmarks multimodaux, et qu'il égale les performances de DeepSeek-V3 sur les charges de travail de raisonnement et de codage, tout en étant bien plus performant.
Modèle | Paramètres totaux | Paramètres actifs | Nombre d'experts | Fenêtre contextuelle |
---|---|---|---|---|
Llama 4 Scout | 109B | 17B | 16 | 10 millions de jetons |
Llama 4 Maverick | 400B | 17B | 128 | 10 millions de jetons |
Ouvrir la voie à l'IA à contexte long
Llama 4 Scout introduit une fenêtre contextuelle révolutionnaire pouvant atteindre 10 millions de jetons, la plus longue du secteur à ce jour. Cette avancée permet la synthèse multi-documents, l'analyse approfondie de la base de code et la personnalisation utilisateur à long terme. Meta attribue cette avancée à deux innovations architecturales : les couches d'attention entrelacées (sans inclusions positionnelles) et une technique de mise à l'échelle de l'attention en fonction du temps d'inférence. Regroupées sous le nom d'« iRope », ces améliorations rapprochent Meta de sa vision d'une IA à longueur de contexte infinie.
Multimodalité native pour les cas d'utilisation réels
Les LLM traditionnels sont entraînés uniquement sur du texte, puis adaptés à d'autres types de données. En revanche, les modèles Llama 4 sont considérés comme « nativement multimodaux », ce qui signifie qu'ils sont entraînés dès le départ à partir d'une combinaison de données textuelles, d'images et de vidéos. Cela leur permet de traiter naturellement différents types d'entrées et de fournir des résultats plus intégrés et contextuels.
Lors de l'apprentissage, les modèles fusionnent les données visuelles et linguistiques dès les premières étapes du traitement, apprenant ainsi au système à interpréter et à raisonner simultanément sur plusieurs modalités. Il en résulte des performances supérieures en raisonnement par images, notamment la capacité à traiter plusieurs images par invite et à associer des éléments visuels spécifiques à des réponses textuelles.
Déploiement d'entreprise sur IBM WatsonX
Avec watsonx.ai, les développeurs et les entreprises peuvent accéder à Llama 4 Scout ou Maverick et les affiner, les optimiser et les déployer dans des environnements cloud, sur site ou en périphérie. La plateforme IBM de niveau entreprise prend en charge l'intégralité du cycle de vie de l'IA et offre des outils aux développeurs de tous niveaux, du code aux environnements low-code et no-code.
watsonx.ai inclut des intégrations prédéfinies avec des bases de données vectorielles, des frameworks d'agents et une infrastructure avancée qui facilitent l'exploitation de l'IA à grande échelle. Des outils de gouvernance robustes garantissent une conformité, une sécurité et une auditabilité de niveau entreprise, aidant les équipes à développer de manière responsable et à déployer plus rapidement.
Une alliance stratégique pour la transformation de l'IA
Le partenariat d'IBM avec Meta allie innovation ouverte et préparation pratique des entreprises. Alors que Meta repousse les limites de l'architecture modèle, IBM offre l'infrastructure, la gouvernance et la flexibilité de déploiement dont les entreprises contemporaines ont besoin pour évoluer rapidement sans sacrifier le contrôle ni la rentabilité.
L'arrivée de Llama 4 sur watsonx.ai offre aux clients IBM un nouvel ensemble d'outils hautes performances pour libérer de la valeur dans un large éventail de cas d'utilisation, sans dépendance vis-à-vis des fournisseurs et avec l'assurance de fonctionner sur une plate-forme conçue pour l'entreprise.
S'engager avec StorageReview
Infolettre | YouTube | Podcast iTunes/Spotify | Followers | Twitter | TikTok | Flux RSS