Entreprise

IBM ajoute les modèles Llama 4 de Meta à watsonx.ai

IBM intègre deux des derniers modèles Llama 4 de Meta, Scout et Maverick, dans la plateforme watsonx.ai.

IBM a intégré les derniers modèles d'IA open source de Meta :Llama 4 Scout et Llama 4 Maverick, intégrés à sa plateforme watsonx.ai. Ce modèle de mélange d'experts (MoE) de nouvelle génération est conçu pour offrir des capacités multimodales hautes performances, avec une rentabilité, une évolutivité et une puissance de traitement considérablement améliorées. Avec Llama 4, IBM prend désormais en charge 13 métamodèles sur watsonx.ai, renforçant ainsi son engagement en faveur d'une approche ouverte et multimodèle de l'IA générative.

Architecture mixte d'experts : efficacité sans compromis

Les nouveaux modèles Llama 4 de Meta représentent une avancée significative dans l'architecture de l'IA. Les deux modèles utilisent le MoE, qui active intelligemment un sous-ensemble d'« experts » du modèle pour chaque jeton, au lieu d'impliquer l'ensemble du réseau. Cette stratégie d'inférence ciblée augmente le débit et réduit les coûts opérationnels sans compromettre la qualité.

Llama 4 Scout Avec 109 milliards de paramètres répartis entre 16 experts, seuls 17 milliards sont actifs lors de l'inférence. Cette configuration efficace permet une meilleure concurrence et des temps de réponse plus rapides, tout en offrant des performances exceptionnelles pour les tâches de codage, de raisonnement en contexte long et de compréhension d'images. Malgré son faible encombrement, Scout est entraîné sur 40 XNUMX milliards de jetons et surpasse les modèles dotés de jeux de paramètres actifs nettement plus importants.

Llama 4 Maverick Maverick va plus loin avec 400 milliards de paramètres et 128 experts, tout en fonctionnant avec seulement 17 milliards de paramètres actifs par inférence. Meta rapporte que Maverick surpasse GPT-4o d'OpenAI et Gemini 2.0 Flash de Google sur tous les plans lors des benchmarks multimodaux, et qu'il égale les performances de DeepSeek-V3 sur les charges de travail de raisonnement et de codage, tout en étant bien plus performant.

Modèle Paramètres totaux Paramètres actifs Nombre d'experts Fenêtre contextuelle
Llama 4 Scout 109B 17B 16 10 millions de jetons
Llama 4 Maverick 400B 17B 128 10 millions de jetons

Ouvrir la voie à l'IA à contexte long

Llama 4 Scout introduit une fenêtre contextuelle révolutionnaire pouvant atteindre 10 millions de jetons, la plus longue du secteur à ce jour. Cette avancée permet la synthèse multi-documents, l'analyse approfondie de la base de code et la personnalisation utilisateur à long terme. Meta attribue cette avancée à deux innovations architecturales : les couches d'attention entrelacées (sans inclusions positionnelles) et une technique de mise à l'échelle de l'attention en fonction du temps d'inférence. Regroupées sous le nom d'« iRope », ces améliorations rapprochent Meta de sa vision d'une IA à longueur de contexte infinie.

Multimodalité native pour les cas d'utilisation réels

Les LLM traditionnels sont entraînés uniquement sur du texte, puis adaptés à d'autres types de données. En revanche, les modèles Llama 4 sont considérés comme « nativement multimodaux », ce qui signifie qu'ils sont entraînés dès le départ à partir d'une combinaison de données textuelles, d'images et de vidéos. Cela leur permet de traiter naturellement différents types d'entrées et de fournir des résultats plus intégrés et contextuels.

Lors de l'apprentissage, les modèles fusionnent les données visuelles et linguistiques dès les premières étapes du traitement, apprenant ainsi au système à interpréter et à raisonner simultanément sur plusieurs modalités. Il en résulte des performances supérieures en raisonnement par images, notamment la capacité à traiter plusieurs images par invite et à associer des éléments visuels spécifiques à des réponses textuelles.

Déploiement d'entreprise sur IBM WatsonX

Avec watsonx.ai, les développeurs et les entreprises peuvent accéder à Llama 4 Scout ou Maverick et les affiner, les optimiser et les déployer dans des environnements cloud, sur site ou en périphérie. La plateforme IBM de niveau entreprise prend en charge l'intégralité du cycle de vie de l'IA et offre des outils aux développeurs de tous niveaux, du code aux environnements low-code et no-code.

watsonx.ai inclut des intégrations prédéfinies avec des bases de données vectorielles, des frameworks d'agents et une infrastructure avancée qui facilitent l'exploitation de l'IA à grande échelle. Des outils de gouvernance robustes garantissent une conformité, une sécurité et une auditabilité de niveau entreprise, aidant les équipes à développer de manière responsable et à déployer plus rapidement.

Une alliance stratégique pour la transformation de l'IA

Le partenariat d'IBM avec Meta allie innovation ouverte et préparation pratique des entreprises. Alors que Meta repousse les limites de l'architecture modèle, IBM offre l'infrastructure, la gouvernance et la flexibilité de déploiement dont les entreprises contemporaines ont besoin pour évoluer rapidement sans sacrifier le contrôle ni la rentabilité.

L'arrivée de Llama 4 sur watsonx.ai offre aux clients IBM un nouvel ensemble d'outils hautes performances pour libérer de la valeur dans un large éventail de cas d'utilisation, sans dépendance vis-à-vis des fournisseurs et avec l'assurance de fonctionner sur une plate-forme conçue pour l'entreprise.

S'engager avec StorageReview

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS

Harold Fritt

Je suis dans l'industrie de la technologie depuis qu'IBM a créé Selectric. Ma formation, cependant, est l'écriture. J'ai donc décidé de sortir de l'avant-vente et de revenir à mes racines, en écrivant un peu mais en restant impliqué dans la technologie.

Derniers Articles

Dell étend le stockage, le cloud et l'automatisation Edge pour alimenter les centres de données intelligents

Lors du salon DTW 2025, Dell a dévoilé des avancées significatives en matière de stockage, de cyber-résilience, d'automatisation du cloud privé et d'opérations de périphérie avec NativeEdge. (suite…)

Il y a 18 heures

AMD dévoile les cartes graphiques Threadripper 9000, Radeon R9700 et RX 9060 XT

AMD dévoile les processeurs Ryzen Threadripper 9000, le GPU Radeon AI PRO R9700 et le GPU RX 9060 XT au COMPUTEX 2025, élargissant ainsi…

Jour il ya 1

HPE déploie une pile d'IA améliorée avec cloud privé, SDK de stockage Alletra et prise en charge du GPU Blackwell

HPE met à jour son infrastructure d'IA avec des serveurs ProLiant, Private Cloud AI, Alletra SDK et la prise en charge d'OpsRamp pour RTX PRO 6000…

Il y a 2 jours

Au cœur de l'usine d'IA de Dell : nouveaux serveurs refroidis par liquide, GPU RTX Pro et solutions d'IA de bout en bout

Dell étend son usine d'IA avec NVIDIA, en ajoutant de nouveaux serveurs PowerEdge, une mise en réseau plus rapide et des services gérés pour l'adoption de l'IA en entreprise.

Il y a 3 jours

Dell dévoile la station de travail mobile Pro Max Plus équipée du processeur NPU AI-100 de Qualcomm

La nouvelle station de travail Pro Max Plus de Dell avec Qualcomm AI-100 NPU offre une inférence d'IA de niveau entreprise aux professionnels mobiles en périphérie.…

Il y a 3 jours

Intel élargit sa gamme Arc Pro avec les GPU B50 et B60, ciblant les charges de travail d'IA et de graphisme

Intel lancera les GPU Arc Pro B50 et B60 au Computex 2025. Ces GPU permettent une inférence IA avancée et des performances de station de travail…

Il y a 3 jours